로드 중...

FBI, AI 딥페이크 강탈 사기에 대한 경보 발령

TL;DR

  • FBI는 AI 기술을 이용해 자행되고 있는 만연한 딥페이크 사기에 대해 일반 대중에게 경고했습니다.
  • 기관은 기술과 관련된 위험을 완화할 수 있는 방법을 권장합니다.

플랫폼을 활용하는 Deepfake 기술은 실물과 같은 이미지와 동영상을 제작하는 데 놀라운 능력을 보여주었습니다. 그러나 미국 연방수사국(FBI)은 최근 범죄자들이 피해자를 표적으로 삼아 강탈을 목적으로 딥페이크를 악용하고 있다는 경고를 발표했습니다.

FBI, 강탈 사기에 대해 대중에게 경고

FBI에 따르면, 미성년자와 동의하지 않는 성인을 포함한 피해자들로부터 그들의 사진이나 비디오가 노골적인 콘텐츠를 만들기 위해 조작되었다는 신고를 받았습니다. 월요일에 발표된 공공 서비스 발표(PSA) 경고에서 기관은 온라인 강탈 사건, 특히 딥페이크를 사용하는 "성착취 사기"와 관련된 사건의 확산이 증가하고 있음을 강조했습니다. 법 집행 기관은 미성년자를 대상으로 한 온라인 강탈과 관련하여 전년도에만 7,000건 이상의 신고를 접수했으며, 4월 이후 딥페이크와 관련된 dent ​​증가했습니다.

딥페이크는 인공 지능을 통해 생성된 조작된 오디오 또는 비디오 콘텐츠로, 종종 자료의 진위 여부를 식별하기 어렵게 만듭니다. Midjourney 5.1 및 OpenAI의 DALL-E 2와 같은 플랫폼의 등장은 딥페이크 기술의 정교함과 접근성에 기여했습니다. 불행하게도 이로 인해 악의적인 행위자가 불법적인 목적으로 이 기술을 악용할 수도 있게 되었습니다.

기관은 기술 사용과 관련된 위험을 강조합니다.

FBI의 경고는 딥페이크의 잠재적 위험성을 강조하는 여러 dent 에 이어 나온 것입니다. 예를 들어, Tesla와 Twitter CEO Elon Musk가 등장하는 딥페이크 동영상이 암호화폐 투자자를 속이기 위해 널리 유포되었습니다. 조작된 비디오는 머스크의 이전 인터뷰 영상을 활용했으며 사기의 서술에 맞게 교묘하게 편집되었습니다.

모든 딥페이크가 악성인 것은 아니라는 점에 유의하는 것이 중요합니다. 영상 과 같이 유머러스하거나 창의적인 요소로 주목을 받았습니다 . 또한 AI로 생성된 딥페이크는 사망한 개인을 디지털 방식으로 재현하여 다양한 맥락에서 생명을 불어넣는 것을 목표로 하고 있습니다.

이러한 위협에 대응하여 FBI는 딥페이크 관련 강탈로부터 보호하기 위한 권장 사항을 제공했습니다. 그들은 범죄자들이 딥페이크 콘텐츠 게시를 자제할 것이라고 보장하지 않기 때문에 몸값을 지불하지 말 것을 권고합니다. 또한 기관은 개인정보와 콘텐츠를 온라인으로 공유할 때 주의를 기울이는 것이 중요하다는 점을 강조하고 개인정보 보호 기능을 사용하여 계정에 대한 접근을 제한할 것을 제안했습니다. 어린이의 온라인 활동을 모니터링하고, 과거 지인의 비정상적인 행동을 경계하고, 온라인에서 개인 및 가족 정보를 자주 검색하는 것은 FBI가 권장하는 추가 조치입니다.

부인 성명. 제공된 정보는 거래 조언이 아닙니다. Cryptopolitan.com은 이 페이지에 제공된 정보를 기반으로 한 투자에 대해 책임을 지지 않습니다. 우리는 dent 연구 및/또는 자격을 갖춘 전문가와의 상담을 tron 권장합니다

공유 링크:

오오툰세 아데바요

Adebayo는 블록체인 공간에서 흥미로운 프로젝트를 관리하는 것을 좋아합니다. 그는 암호화폐와 블록체인에 관한 수많은 기사를 쓴 노련한 작가입니다.

가장 많이 읽은 것

가장 많이 읽은 기사 로드 중...

암호화폐 뉴스를 최신 상태로 유지하고 받은 편지함에서 매일 업데이트를 받으세요

관련 뉴스

Stripe은 이제 Avalanche 의 C-Chain을 통해 AVAX 구매 및 전송을 제공합니다.
크립토폴리탄
크립토폴리탄 구독하기