가 확산되는 문제에 대응하기 위한 확대된 정책을 발표했습니다 인공지능(AI) 생성 는 페이스북, 인스타그램, 스레드 등 자사 플랫폼에서
생성형 인공지능의 사용이 증가함에 따라, 해당 회사는 이제 AI가 생성한 이미지에 출처를 알리는 경고 라벨을 부착할 예정입니다. 이러한 조치는 긍정적인 단계로 평가되지만, 악의적인 행위자를 막는 데 얼마나 효과적일지에 대한 우려와 기술적 한계 또한 여전히 남아 있습니다.
AI가 생성한 이미지에 대한 경고 라벨
메타의 최근 정책 변화는 자체 AI 생성 도구를 사용했든 다른 회사에서 제공했든 관계없이 AI가 생성한 이미지에 인공적인 이미지임을 나타내는 라벨을 붙이는 것입니다. 이러한 조치는 AI가 생성한 이미지가 실제 사진으로 위장하여 확산되는 허위 정보의 위험을 줄이기 위해 마련되었습니다.
Meta는 자사 AI가 생성한 이미지에 "AI로 상상한 이미지"라는 라벨을 붙여왔는데, 이는 주로 알고리즘이 출력물에 삽입한 디지털 워터마크를 식별하는dent으로 이루어집니다.
도전과 한계
Meta가 이러한 경고 라벨을 구현하기 위해 노력하고 있음에도 불구하고 상당한 어려움이 남아 있습니다. 특히 많은 AI 이미지 생성 도구가 결과물에 워터마크를 넣지 않아 악의적인 행위자가 AI 생성 콘텐츠를 조작하고 유포할 때 이를 숨기기 쉽다는 점이 주목할 만한 문제입니다.
더욱이, AI가 생성한 이미지를 안정적으로 감지하고 분류하는 기술은 아직 개발 중이며, 보편적으로 사용되는 표준은 존재하지 않습니다.
어도비가 설립한 콘텐츠 출처 및 진위성 연합(C2PA)은 기업들의 콘텐츠 출처 추적 노력을 조율하려고 노력해 왔습니다. 그러나 현재까지 개발된 기술은 완벽하지 않습니다.
연구원들은 워터마크를 쉽게 제거하거나 인공지능이 생성하지 않은 이미지에 추가할 수 있음을 입증하여 워터마크의 효과를 약화시켰습니다.
C2PA 이니셔티브의 자문위원이자 UC 버클리 정보대학원의 하니 파리드 교수는 악의적인 행위자들이 워터마크가 없는 AI 도구를 사용하여 사용자를 더욱 속일 수 있다고 경고합니다.
조합하는 것이dent워터마킹과 해시 기반 기술필요할 수 있다고dent. 워터마킹 기술은 이미지 외에 오디오나 비디오와 같은 AI 생성 미디어에 대해서는 아직 개발이 덜 된 상태입니다.
정책 및 감독 확대
메타의 새로운 정책은 가짜 콘텐츠 퇴치에 있어 진전된 조치이지만, 인공지능이 생성한 콘텐츠에만 국한된 것은 아닙니다.dent 전문가들로 구성된 메타의 감독위원회는 최근 조 바이든dent 의 영상을 편집하여 오해를 불러일으키도록 만든 해당 영상을 삭제하지 않고 그대로 두기로 한 메타의 결정을 지지했습니다.
이번 결정은 메타가 인공지능이 생성한 콘텐츠뿐만 아니라 더 광범위한 영역을 포괄하도록 "조작된 미디어"에 대한 규칙을 개정하고 확대해야 할 필요성을 강조합니다.
메타의 대변인 케빈 맥앨리스터는 보다 폭넓은 접근 방식의 필요성을 인정하며, "기업들이 이미지 생성기에 신호를 포함시키기 시작했지만, 오디오와 비디오를 같은 규모로 생성하는 AI 도구에 신호를 포함시키기 시작한 것은 아직 아닙니다."라고 말했습니다
이에 따라 Meta는 사용자가 AI가 생성한 비디오나 오디오를 공유할 때 해당 콘텐츠를 공개하여 적절한 라벨을 적용할 수 있도록 하는 기능을 추가하는 작업을 진행 중입니다.

