유럽연합(EU)은 급속도로 발전하는 인공지능(AI) 분야를 규제하기 위한 중요한 발걸음을 내디뎠습니다. 27개 회원국 내에서 AI 시스템의 개발 및 사용을 위한 포괄적인 틀을 구축하는 것을 목표로 하는 획기적인 법안인 '인공지능법'을 최종 승인한 것입니다.
5년간의 준비 끝에 유럽 의회 의원들의 압도적인 찬성으로 인공지능 법안이 통과되면서, 인공지능 기술이 책임감 있고 인간 중심적인 방식으로 개발 및 활용되도록 보장하는 데 있어 중요한 전환점이 마련되었습니다.
글로벌 이정표
인공지능법은 인공지능 기술 규제라는 과제에 직면한 다른 정부들에게 세계적인 이정표 역할을 할 것으로 기대됩니다. 이 법안 초안에 대한 의회 협상을 공동으로 이끌었던 루마니아 의원 드라고스 투도라케는 이 법안의 중요성을 강조하며, "인공지능법은 인공지능의 미래를 인간 중심적인 방향, 즉 인간이 기술을 통제하고 기술을 통해 새로운 발견, 경제 성장, 사회 발전, 그리고 인간의 잠재력 발휘를 이끌어내는 방향으로 이끌고 있습니다."라고 말했습니다
위험 기반 접근 방식
인공지능법은 인공지능 시스템 규제에 있어 위험 기반 접근 방식을 채택하고 있으며, 기술이 제기하는 잠재적 위험에 비례하여 규제 수준이 높아집니다. 콘텐츠 추천 시스템이나 스팸 필터와 같이 위험도가 낮은 시스템은 규제가 완화되며, 주로 인공지능 사용에 대한 투명성 확보가 요구됩니다.
반면 의료기기 및 중요 기반 시설 시스템을 포함한 고위험 AI 응용 분야는 고품질 데이터 사용 및 사용자에게 명확한 정보 제공과 같은 더욱 엄격한 요구 사항에 직면하게 될 것입니다.
새로운 법률에 따라 용납할 수 없는 위험을 초래한다고 판단되는 특정 AI 사용은 전면 금지됩니다. 여기에는 인간 행동을 분석하는 사회적 점수 시스템, 일부 유형의 예측 치안 활동, 학교 및 직장에서의 감정 인식 시스템 등이 포함됩니다. 또한, 이 법은 납치나 테러와 같은 중범죄의 경우를 제외하고, 법 집행 기관이 공공장소에서 AI 기반 원격 "dent인식" 시스템을 사용하는 것을 금지합니다.
이 규정은 또한 오픈아이얼의 챗GPT와 같은 범용 AI 모델의 놀라운 성장에 대응하여 감독 조항을 도입합니다. 이러한 모델 개발자는 학습에 사용된 데이터에 대한 자세한 요약을 제공하고, EU 저작권법을 준수하며, AI로 생성된 딥페이크에 인위적으로 조작된 콘텐츠임을 표시해야 합니다.
시스템적 위험에 대한 대응
강력한 AI 모델이 "시스템적 위험"을 초래할 가능성을 인식한 AI법은 OpenAI의 GPT4와 Google의 Gemini를 포함한 가장 규모가 크고 진보된 시스템에 대해 추가적인 감시를 의무화합니다. 이러한 시스템을 제공하는 기업은 위험을 평가하고 완화하고, 심각한dent를 보고하고, 사이버 보안 조치를 시행하고, 에너지 소비 데이터를 공개해야 합니다.
EU의 우려는 이러한 강력한 AI 시스템이 심각한dent를 일으키거나, 사이버 공격에 악용되거나, 수많은 애플리케이션에 유해한 편견을 퍼뜨려 많은 사람들에게 영향을 미칠 가능성에서 비롯됩니다.
인공지능법은 책임감 있는 인공지능 개발을 위한 틀을 마련하는 것을 목표로 하는 동시에 EU 내 혁신을 촉진하고자 합니다. 대형 기술 기업들은 일반적으로 규제의 필요성을 지지하면서도 자신들에게 유리하게 작용하도록 규제 방안을 로비해 왔습니다.
오픈AI의 CEO인 샘 알트만은 처음에 유럽 인공지능법을 준수할 수 없다면 유럽에서 철수할 수도 있다고 시사해 논란을 일으켰지만, 나중에 입장trac철수 계획은 없다고 밝혔습니다.
세계가 인공지능 기술의 급속한 발전에 직면하고 있는 가운데, 유럽연합의 인공지능법은 혁신을 촉진하는 동시에 이 혁신적인 기술이 제기하는 잠재적 위험과 과제를 해결하기 위한 균형을 맞추려는 선구적인 노력입니다.

