코넬 대학교의 사전 공개 연구 논문에서 언어 편향이 존재한다는 우려스러운 사실이 밝혀졌습니다. OpenAI의 ChatGPT와 GPT-4, Meta의 LLaMA2, 그리고 프랑스의 Mistral 7B를 포함한 이러한 딥러닝 알고리즘들이 응답에서 은밀한 인종차별적 성향을 보이는 것으로 드러났습니다.
AI에서 언어 편향을 극복하는 방법
앨런 인공지능 연구소의 발렌틴 호프만 연구원이 주도한 이번 연구는 법 집행 및 채용 관행을 포함한 다양한 영역에서 이러한 편견이 미칠 수 있는 잠재적 영향에 대해 조명합니다.
연구진은 '일치된 언어 사용 방식 탐색'이라는 방법을 사용하여 아프리카계 미국인 영어와 표준 미국 영어 모두로 LLM(언어 학습 모델)에 질문을 던져 알고리즘 응답에 나타나는 편향을 파악하고자 했습니다.
놀랍게도, 이 연구는 특정 언어 학습 모델(LLM), 특히 GPT-4가 아프리카계 미국인 영어로 된 질문에 대해 사형을 포함한 가혹한 형벌을 권고하는 경향이 더 크다는 것을 밝혀냈습니다. 더욱 주목할 만한 점은 이러한 권고가 화자의 인종에 대한 정보 없이 이루어졌다는 것입니다.
LLM(언어 학습자)들은 화자의 인종적dent에 대한 정보를 알지 못했음에도 불구하고, 표준 영어를 사용하는 사람들에 비해 아프리카계 미국인 영어를 사용하는 사람들을 낮은 사회적 지위의 직업군과 연관 짓는 경향이 있었습니다. 이 연구는 LLM 사회에서 노골적인 인종차별은 줄어들고 있을지 모르지만, 은밀한 편견은 여전히 존재하며 광범위한 영향을 미칠 수 있음을 강조합니다.
사법 및 고용에 미치는 영향
이러한 연구 결과는 특히 LLM(법률 문서 관리)을 활용하는 AI 시스템이 사용되는 분야에서 매우 중요한 의미를 지닙니다. 예를 들어, 법적 절차에서 편향된 권고는 불공정한 결과를 초래하여 소외된 공동체에 불균형적인 영향을 미칠 수 있습니다.
마찬가지로, 고용 환경에서도 언어를 기준으로 지원자를 편향적으로 평가하면 기존의 채용 관행상의 불평등을 영속화할 수 있습니다.
호프만은 전통적인 학습 방식이 LLM(대규모 학습 관리자)에게 새로운 패턴을 가르치는 데에는 한계가 있음을 지적하며, 인간의 피드백만으로는 은밀한 인종적 편견을 극복하기 어렵다고 주장합니다. 더욱이, 이 연구는 LLM의 규모가 크다고 해서 이러한 편견이 반드시 완화되는 것은 아니며, 오히려 표면적으로는 감춰진 채로 더 깊은 차원에서는 유지될 수 있음을 시사합니다.
인공지능 개발에서 언어적 편견 문제 해결
기술이 계속 발전함에 따라 기술 기업들은 AI 편향 문제를 더욱 효과적으로 해결해야 할 필요성이 커지고 있습니다. 단순히 편향의 존재를 인지하는 것만으로는 부족하며, 그 영향을 완화하기 위한 적극적인 조치가 필요합니다.
여기에는 LLM을 훈련하고 미세 조정하는 데 사용되는 방법을 재평가하는 것뿐만 아니라 AI 시스템의 편향을 감지하고 수정하기 위한 강력한 메커니즘을 구현하는 것이 포함됩니다.
본 연구 결과는 인공지능 모델의 개발 및 배포에 있어 더욱 철저한 검토와 책임성 확보가 시급함을 강조합니다. 언어 학습 모델(LLM)에서 언어 편향 문제를 해결하지 못하면 구조적 불평등이 지속되고 보다 공평한 사회를 향한 진전이 저해될 수 있습니다.
이해관계자들이 이러한 문제에 대한 인식을 높이고 의미 있는 변화를 옹호함으로써, 인공지능 기술이 공정성과 공평성의 원칙을 준수하도록 협력할 수 있으며, 궁극적으로 사회 전체에 이익이 될 것입니다.

