안전하다고 선전되고 일상적인 소프트웨어에 통합된 마이크로소프트의 인공 지능이 섬뜩하고 폭력적인 이미지를 생성한다는 이유로 조사를 받고 있다는 소름끼치는 계시가 나왔습니다. 최근 널리 사용되는 Windows Paint에 추가된 Microsoft Bing의 일부인 Image Creator를 중심으로 우려가 제기되고 있습니다. Microsoft 파트너인 OpenAI의 DALL-E 3으로 알려진 이 기술은 이제 안전성과 제작자의 책임에 대한 의문에 직면해 있습니다.
마이크로소프트 vs. '킬 프롬프트'
충격적인 이미지는 도발적이고 때로는 맛없는 이미지를 만드는 AI의 능력을 탐구하는 온라인 커뮤니티에 참여하는 캐나다 예술가 Josh McDuffie에 의해 밝혀졌습니다. 10월에 McDuffie와 그의 동료들은 Microsoft의 AI, 특히 OpenAI의 최신 기술을 통합한 Bing용 Image Creator에 집중했습니다. Microsoft는 유해한 이미지 생성을 방지할 수 있는 제어 기능이 있다고 주장하지만 McDuffie는 심각한 허점을 발견했습니다.
Microsoft는 유해한 이미지 생성을 방지하기 위해 인터넷의 데이터로 AI를 교육하는 입력과 특정 콘텐츠 생성을 중지하는 가드레일을 만드는 출력이라는 두 가지 전략을 사용합니다. McDuffie는 실험을 통해 AI가 폭력적인 이미지를 생성할 수 있는 "킬 프롬프트"라는 특정 프롬프트를 발견했습니다. 이는 Microsoft의 안전 조치의 효율성에 대한 우려를 불러일으켰습니다.
Microsoft의 AI 버그 현상금 프로그램을 통해 이 문제에 주의를 기울이려는 McDuffie의 노력에도 불구하고 그의 제출은 거부되어 잠재적인 보안 취약성에 대한 회사의 대응에 대한 의문이 제기되었습니다. 거부 이메일에는 보안 취약점에 대한 Microsoft의 요구 사항이 충족되지 않아 McDuffie의 사기가 저하되고 시스템의 잠재적인 결함이 강조된다는 점을 언급했습니다.
마이크로소프트, AI 감독에 실패하다
AI 버그 현상금 프로그램의 출시에도 불구하고 McDuffie의 조사 결과에 대한 Microsoft의 반응은 만족스럽지 못했습니다. "Kill Prompt" 제출을 거부하고 보고된 문제에 대한 조치가 부족하다는 점은 문제의 긴급성을 잠재적으로 무시한다는 점을 강조했습니다. 한편, AI는 McDuffie의 원래 메시지를 일부 수정한 후에도 계속해서 불안한 이미지를 생성했습니다.
Microsoft의 구체적인 조치가 부족하여 책임 있는 AI에 대한 회사의 약속에 대한 우려가 제기됩니다. Microsoft가 부분적으로 소유한 OpenAI를 포함한 다른 AI 경쟁사와 비교하면 여러 회사가 유사한 문제를 해결하는 방식에 차이가 있음을 알 수 있습니다. 책임 있는 AI 개발에 대한 공개적 약속에도 불구하고 Microsoft가 이 문제를 반복적으로 해결하지 못한 것은 AI 가드 레일 우선 순위에 잠재적인 격차가 있음을 나타냅니다.
윤리적인 AI 개발을 위한 모델
Microsoft가 신속하고 효과적인 조치를 취하는 것을 꺼리는 것은 AI 안전에 대한 회사의 접근 방식에 위험 신호가 있음을 나타냅니다. McDuffie의 "킬 프롬프트" 실험을 통해 소규모 스타트업을 포함한 다른 AI 경쟁자들이 유사한 프롬프트를 기반으로 유해한 이미지를 생성하는 것을 거부한 것으로 나타났습니다. 마이크로소프트의 파트너인 오픈AI(OpenAI)조차 맥더피의 프롬프트를 차단하는 조치를 취하며 강력한 안전 메커니즘의 필요성을 강조했다.
사용자가 "의도하지 않은 방식으로" AI를 사용하려고 한다는 Microsoft의 주장은 기술의 잠재적인 결함을 인정하기보다는 개인에게 책임을 전가하는 것입니다. Photoshop과의 비교와 사용자가 유해한 콘텐츠 생성을 자제해야 한다는 주장은 과거에 보인 패턴을 반영하며, 소셜 미디어 플랫폼이 기술 오용을 해결하기 위해 고군분투하고 있음을 연상시킵니다.
Microsoft가 불안한 이미지를 생성하는 AI의 결과에 대해 고심하는 동안 다음과 같은 질문이 남아 있습니다. 회사가 기술의 책임 있는 사용을 보장하기 위해 충분한 노력을 기울이고 있습니까 ? 문제를 즉각적이고 효과적으로 해결하기를 꺼리는 모습은 AI 가드레일의 책임과 우선순위에 대한 우려를 불러일으킵니다. 사회가 진화하는 인공 지능 환경을 탐색함에 따라 AI의 윤리적이고 안전한 배포를 보장하는 책임은 사용자뿐만 아니라 거대 기술 기업에게도 있습니다. Microsoft는 인공 지능 영역에서 혁신과 책임 사이의 격차를 어떻게 메울 수 있습니까?
Crypto News는주의를 기울여야합니다. Key Difference Wire는 250 개 이상의 최고 사이트에 있습니다.