최근 몇 달 동안 인공지능(AI)과 생물학적 위협의 잠재적 교차점에 대한 우려가 제기되어 왔으며, AI가 위험한 생물학 무기 개발을 촉진할 수 있다는 우려가 제기되었습니다. 그러나 전문가와 국회의원들의 상당한 관심에도 불구하고, AI 또는 AI 기반 챗봇과 관련된 생물학적 오용 사례는 보고되지 않았습니다.
실험 결과: 자세히 살펴보기
랜드 연구소(RAND Corporation)와 오픈AI(OpenAI)가 수행한 두 가지 주목할 만한 실험은 AI, 특히 GPT-4와 같은 대규모 언어 모델이 생물학적 위협 발생에 미치는 영향을 평가하는 것을 목표로 했습니다. 두 연구 모두 챗봇 접근성이 생물학적 오용에 대한 계획 수립 능력을 크게 향상시키지는 않는다는 결론을 내렸지만, 그 결과에는 중요한 단서가 있습니다.
RAND Corporation과 OpenAI 연구 모두 챗봇이 생물학적 위협 발생에 미치는 잠재적 영향을 평가하기 위해 특정 방법론을 사용했습니다. RAND는 레드팀 방식을 활용하여 생물학을 활용하여 악의적인 결과를 초래할 계획을 수립할 개인 그룹을 모집했습니다. 한편, OpenAI는 참가자들에게 생물학적 오용이라는 가상의 시나리오에 필요한 핵심 정보를dent위해 개별적으로 작업하도록 했습니다.
그러나 이러한 노력에도 불구하고, 연구 설계에 내재된 한계를 인정해야 합니다. 이러한 실험을 통해 도출된 결론은 위협 환경에 대한 defi적인 평가라기보다는 예비적인 통찰로 간주되어야 합니다.
통계 분석 논란
OpenAI 보고서는 통계 분석 방법론 때문에 논란을 불러일으켰습니다. 비판론자들은 분석 과정에서 적용된 특정 수정 사항의 적절성에 의문을 제기하며, 이는 결과 해석에 영향을 미칠 수 있다고 주장했습니다. 이러한 수정 사항이 없었다면, 챗봇 접근성과 생물학적 위협 발생 정확도 향상 사이에 유의미한 연관성이 있었을 것입니다.
두 연구 모두 제3자 평가자를 통해 참가자의 응답에 점수를 부여하고, 챗봇을 이용할 수 있는 그룹과 이용할 수 없는 그룹을 비교했습니다. 면밀한 분석에도 불구하고, 두 연구팀 모두 두 그룹 간에 통계적으로 유의미한 차이를 발견하지 못했습니다. 그러나 통계적 유의성은 표본 크기에 크게 영향을 받는다는 점에 유의해야 합니다. 즉, 참가자 수가 많을수록 사소한 차이도 유의미한 결과를 가져올 수 있음을 시사합니다.
시사점 및 향후 방향
RAND와 OpenAI의 실험은 생물학적 위협 발생에 있어 AI의 잠재적 역할에 대한 귀중한 통찰력을 제공하지만, 그 한계는 추가 연구의 필요성을 강조합니다. AI 관련 생물학적 위협을 둘러싼 더 큰 의문을 해결하는 것은 향후 위험 완화를 위한 실험과 정책 수립 노력에 중요한 정보를 제공할 것입니다.

