앤트로픽의 CEO인 다리오 아모데이는 최근 인공지능 기업들이 의무적인 테스트 요건을 거쳐야 한다고 언급했습니다. 이는 그의 회사인 앤트로픽에도 적용됩니다. 목표는 이러한 기술들이 출시되기 전에 일반 대중에게 안전한지 확인하는 것입니다.
아모데이 CEO는 최근 샌프란시스코에서 미국 상무부와 국무부가 주최한 AI 안전 정상회의에서 질문에 답하며 "테스트를 의무화해야 하는 것은 당연하지만, 그 방식에도 매우 신중해야 한다"고 말했습니다
이러한 발언은 영국과 미국 AI 안전 연구소가 앤스로픽의 클로드 3.5 소네트 모델에 대한 테스트 결과를 발표한 데 따른 것입니다. 해당 테스트는 생물학 및 사이버 보안 애플리케이션을 포함한 다양한 범주에서 수행되었습니다. 앞서 오픈AI와 앤스로픽은 정부 기관에 모델을 제출하기로 합의한 바 있습니다.
앤트로픽과 같은 주요 기업들은 자체적으로 정한 안전 지침을 따릅니다
아모데이는 주요 기업들이 자발적으로 특정 자체 가이드라인에 동의했다고 언급했습니다. 여기에는 OpenAI의 대비 프레임워크와 Anthropic의 책임 있는 확장 정책이 포함됩니다. 그러나 그는 안전을 보장하기 위해서는 더 많은 노력이 필요하다고 덧붙였습니다.
아모데이는 "기업들이 그 계획을 문자 그대로 충실히 따르고 있는지 확인할 방법이 사실상 없다. 그들은 그저 따르겠다고 말했을 뿐이다."라고 말했다. 그는 또한 "대중의 관심과 직원들의 우려가 어느 정도 압력을 가하고 있지만, 궁극적으로는 그것만으로는 충분하지 않을 것이라고 생각한다."라고 덧붙였다
아모데이는 강력한 AI 시스템이 가장 똑똑한 인간보다 뛰어난 능력을 발휘할 수 있다고 믿습니다. 그는 또한 그러한 시스템이 2026년경에는 실용화될 수 있다고 생각합니다. 그는 AI 기업들이 현재로서는 현실이 아닌 특정 재앙적 피해와 생물학적 위협에 대한 가상 시나리오를 테스트하고 있다고 덧붙였습니다. 그러나 이러한 가상 테스트는 훨씬 더 빨리 현실이 될 수 있습니다.
그는 또한 인공지능 기술이 빠르게 발전하고 있다는 점을 고려하여 AI 시스템 테스트 요건도 유연해야 한다고 경고했습니다. 그의 말에 따르면, 이는 해결하기 매우 어려운 "사회정치적 문제"입니다.

