구글, 오픈AI, 메타는 위험성을 통제할 수 없는 AI 모델 개발은 중단하기로 합의했다. 이들 기업은 화요일 영국과 한국이 공동 주최한 AI 서울 서밋에서 'AI 안전 약속'에 서명했다.
관련 기사: 영국과 대한민국, AI 서밋 공동 개최
전 세계 여러 지역의 수많은 주요 AI 기업들이 AI 안전에 대한 동일한 약속에 동의한 것은 세계 최초의 사례입니다.
— 영국 총리 리시 수낙(Rishi Sunak)
AI 기업 16곳, AI 안전 관련 약속에 동의
보고서에 따르면 미국, 중국, 중동에 걸쳐 총 16개의 AI 기업이 안전 서약에 동의했습니다.
마이크로소프트, 아마존, 앤트로픽, 삼성tron, 그리고 중국 개발사 Zhipu.ai 또한 이러한 안전 기준에 동의한 기업들에 포함됩니다.
관련 기사: 알리바바와 텐센트, AI 스타트업 지푸에 3억 4200만 달러 투자
AI 안전 서약은 모든 기업이 2025년 초 프랑스에서 개최될 또 다른 AI 액션 서밋 이전에 각자의 안전 프레임워크를 공개하도록 요구합니다. 이 프레임워크에는 기업이 모델의 위험성을 어떻게 평가하고 어떤 위험을 "용납할 수 없는" 위험으로 간주하는지에 대한 설명이 포함될 것입니다
AI 기업들은 위험한 AI 모델들을 중단시킬 것이다
보고서에 따르면, 가장 극단적인 경우, 위험을 통제할 수 없다면 해당 기업들은 "모델이나 시스템을 아예 개발하거나 배포하지 않을 것"이라고 합니다.
인공지능의 진정한 잠재력은 우리가 위험성을 제대로 파악할 수 있을 때 비로소 발휘될 수 있습니다. 인공지능이 안전하게 개발되도록 하는 것은 우리 모두의 책임입니다.
— 미셸 도넬런, 영국 기술부 장관
2023년 7월, 미국 정부는 AI의 위험과 이점을 해결하기 위해 유사한 노력을 기울였습니다. 조 바dent 대통령은 구글, 마이크로소프트, 메타, 오픈AI, 아마존, 앤트로픽, 인플렉션과 만나 AI 제품 출시 전 안전을 보장하는 AI 안전 조치에 대해 논의했습니다.
오픈아이얼을 둘러싼 AI 안전성 논쟁이 뜨거워지고 있다
최근 몇 달 동안 인공지능 안전에 대한 논의가 뜨거워지고 있으며, 특히 인간과 유사한 일반 지능을 모방하는 것을 목표로 하는 인공 일반 지능(AGI)을 둘러싼 논의가 활발해지고 있습니다.
지난주, 공동 창립자인 일리야 수츠케버와 최고위 임원인 얀 라이케가 회사에서 사임하면서 오픈AI가 이 논란의 중심에 섰습니다. 두 사람은 오픈AI 모델의 오작동을 방지하기 위해 설립된 슈퍼얼라인먼트 팀을 이끌었습니다.
관련 기사: OpenAI 임원 얀 라이케, 또 한 명 사임
레이케는 자신의 게시물에서 "지난 몇 년 동안 회사에서는 안전 문화와 프로세스가 멋진 제품에 밀려 뒷전으로 밀려났다"고 말했습니다.
우리는 인공 일반 지능(AGI)이 가져올 영향에 대해 진지하게 고민해야 할 시기를 한참 지나쳤습니다.
— 얀 라이케 (@janleike) 2024년 5월 17일
가능한 한 최선을 다해 대비하는 것을 최우선 과제로 삼아야 합니다.
그래야만 AGI가 모든 인류에게 혜택을 줄 수 있도록 보장할 수 있습니다.
라이케는 “OpenAI는 안전을 최우선으로 하는 인공 일반 지능(AGI) 기업이 되어야 한다”며, AGI가 모든 인류에게 혜택을 줄 수 있도록 우리가 할 수 있는 최선을 다해 대비해야 한다고 덧붙였습니다.
Cryptopolitan 의 이비암 와야스(Ibiam Wayas) 기자 보도

