두 명의 미국 상원의원인 Richard Blumenthal과 Josh Hawley는 Meta의 CEO인 Mark Zuckerberg와 LLaMA라는 거대 기술 회사의 "유출된" 인공 지능 모델에 대한 우려를 제기했습니다. 상원의원들은 LLaMA가 잠재적인 위험을 내포하고 있으며 범죄 활동에 악용될 수 있다고 주장합니다.
6월 6일자 서한에서 상원의원들은 LLaMA를 공개하기로 한 Zuckerberg의 결정을 비판하고 Meta의 AI 모델 출시에 대한 보호 장치가 불충분하다고 주장했습니다. 그들은 오픈 소스 소프트웨어의 이점을 인정하면서도 Meta의 LLaMA 릴리스가 잠재적인 결과에 대한 철저한 고려가 부족하여 대중에게 해를 끼친다고 주장했습니다.
처음에 LLaMA는 연구자들에게 제한된 온라인 릴리스를 제공했습니다. 그러나 이후 2월 말 이미지 게시판 사이트 포챈(4chan)의 한 이용자에 의해 전체가 유출됐다. 상원의원들은 전체 모델이 모니터링이나 감독 없이 전 세계 누구나 액세스할 수 있는 BitTorrent에서 쉽게 사용할 수 있게 되었다는 사실에 경각심을 표명했습니다. Blumenthal과 Hawley는 LLaMA가 스패머, 사이버 범죄자, 사기 행위 또는 불쾌한 콘텐츠 배포에 연루된 개인에 의해 쉽게 채택될 수 있다고 주장했습니다.
미 상원의원 우려
우려를 강조하기 위해 상원의원들은 LLaMA를 OpenAI의 ChatGPT-4와 Google의 Bard라는 두 개의 비공개 소스 모델과 대조했습니다. 그들은 ChatGPT-4가 돈을 요구하는 누군가의 아들을 사칭하는 메모를 생성하도록 요청받았을 때 윤리적 지침에 따라 요청을 거부하는 반면 LLaMA는 요청된 편지와 자해, 범죄 및 반유대주의. 이러한 구별은 LLaMA가 악의적인 자료를 생성할 가능성에 대한 우려를 불러일으켰습니다.
ChatGPT는 특정 요청을 거부하도록 프로그래밍되어 있지만 사용자는 모델을 "탈옥"하여 일반적으로 거부하는 응답을 생성하도록 하는 방법을 찾았습니다. 상원의원은 저커버그에게 LLaMA가 공개되기 전에 위험 평가가 수행되었는지 여부, 메타가 유출 이후 피해를 방지하거나 완화하기 위해 어떤 조치를 취했는지, 메타가 AI 연구를 위해 사용자 데이터를 어떻게 활용하는지 등을 질문했습니다.
다른 오픈 소스 모델의 발전으로 인해 압박을 받고 있는 OpenAI가 자체 오픈 소스 AI 모델을 연구하고 있다는 점은 주목할 가치가 있습니다. Google의 수석 소프트웨어 엔지니어가 작성한 유출된 문서는 이러한 오픈 소스 모델의 진행 상황을 강조했습니다.
AI 모델용 코드를 오픈 소싱하면 특정 목적에 맞게 사용자 정의할 수 있고 다른 개발자의 기여를 용이하게 할 수 있습니다. 그러나 Blumenthal 상원의원과 Hawley 상원의원이 제기한 우려는 잠재적인 오용과 피해를 방지하기 위해 AI 모델의 공개 및 모니터링에 대한 책임감 있고 사려 깊은 접근 방식의 필요성을 강조합니다.