오픈AI 의 CEO인 샘 알트만의 위험 감수적인 입장과 대조를 이룬다 .
이러한 견해 차이는 조직의 리더십에 상당한 변화를 가져왔습니다. 이 글에서는 일리야 수츠케버의 배경, 경력, 그리고 그가 인공지능에 대해 회의적인 시각을 갖게 된 요인들을 자세히 살펴봅니다.
1986년 소련에서 태어나 5세부터 예루살렘에서 자란 일리야 수츠케버는 학업을 위해 토론토 대학교에 진학했습니다. 그곳에서 2005년matic학사 학위를, 2007년에는 컴퓨터 과학 석사 학위를 취득했습니다.
그는 지식 탐구를 계속하여 2013년에 컴퓨터 과학 박사 학위를 취득했습니다. 토론토 대학교에서 수츠케버의 초기 연구는 위키피디아와 유사한, 의미 없는 항목을 생성하는 실험적인 소프트웨어 개발로 특징지어졌습니다.
수츠케버의 경력은 2012년, 인공지능의 대부로 불리는 제프리 힌튼, 그리고 그의 박사 지도교수인 알렉스 크리제프스키와 함께 획기적인 논문을 공동 저술하면서 중요한 전환점을 맞았습니다. 이 공동 연구를 통해 전례dent패턴 인식 능력을 보여준 딥러닝 알고리즘인 알렉스넷(AlexNet)이 탄생했습니다. 알렉스넷 프로젝트는 패턴 인식 문제 해결에 있어 딥러닝의 엄청난 잠재력을 입증했습니다.
구글로의 전환 및 기여
구글은 그들의 선구적인 연구에 깊은 인상을 받아 수츠케버와 그의 동료 연구원들을 신속하게 영입했습니다. 구글에서 수츠케버는 인공지능의 한계를 뛰어넘는 연구를 계속했습니다. 그는 알렉스넷의 패턴 인식 기능을 이미지에서 단어와 문장으로 확장하여 이 기술의 다재다능함을 보여주었습니다. 또한, 그는 머신러닝을 위한 고급 오픈소스 플랫폼인 텐서플로우 개발에 중추적인 역할을 했습니다.
구글에서 3년도 채 되지 않아 일리야 수츠케버는 테슬라 CEO 일론 머스크의 제안으로 비영리 AI 기업인 오픈AI를 공동 설립하고 최고 과학자로 활동하게 되었습니다. 오픈AI의 공동 설립자인 머스크는 AI의 잠재적 위험성에 대한 수츠케버의 우려에 공감했습니다. 머스크는 테슬라와의 이해 충돌을 이유로 2018년 오픈AI를 떠났고, 이후 수츠케버가 조직의 수장 자리를 맡게 되었습니다.
인공지능 안전에 대한 우려가 커지고 있다
서츠케버는 오픈AI 재직 기간 동안 AI 안전에 점점 더 집중했습니다. 그는 AI 시스템과 관련된 위험을 해결하기 위해 회사 내 자원을 더 많이 할당해야 한다고 주장했습니다. 특히, 그는 오픈AI의 컴퓨팅 파워 20%를 AI 관련 위험 관리에 투입하는 슈퍼얼라인먼트(Superalignment) 팀을 이끌었습니다.
수츠케버의 신중한 접근 방식과 샘 알트만의 빠른 AI 개발 열망 사이의 갈등은 오픈AI 경영진 내에서 최고조에 달했습니다. 수츠케버와 뜻을 같이하는 이사진들은 알트만을 해임하고, 보다 신중한 입장을 가진 에밋 시어를 임시 CEO로 임명했습니다. 그러나 수츠케버가 이후 사건에 대한 자신의 역할을 후회한다고 밝히면서 알트만은 CEO로 복귀했습니다.
일리야 수츠케버가 인공지능 안전성에 대해 회의적인 시각을 갖게 된 것은 통제되지 않은 인공지능 개발이 가져올 잠재적 위험성에 대한 그의 깊은 믿음 때문입니다. 그는 ChatGPT와 같은 강력한 인공지능 모델의 급속한 확산에 대한 우려와 강력한 안전장치의 필요성을 강조해 왔습니다.
수츠케버는 인공지능의 책임 있는 개발을 위해 헌신하고 있으며, 이는 오픈AI 직원들에게 한 발언에서dent 납니다. 그는 일상생활에서 인공 일반 지능(AGI)의 영향을 느끼는 것이 중요하다고 강조했습니다.
균형 잡힌 낙관주의와 냉소주의
수츠케버의 인공지능에 대한 견해는 낙관주의와 회의주의가 독특하게 균형을 이루고 있다는 특징이 있습니다. 그는 인공지능이 실업, 질병, 빈곤 등 인류가 직면한 많은 문제에 대한 해결책이 될 수 있다고 봅니다. 하지만 그는 가짜 뉴스의 확산, 극단적인 사이버 공격, 완전 자동화된 인공지능 무기 개발과 같은 잠재적인 단점도 경고합니다. 그의 우려는 일반 인공지능의 관리 문제로까지 이어져, 바람직하지 않은 결과를 막기 위해 올바른 프로그래밍이 얼마나 중요한지 강조합니다.
인공지능 커뮤니티 내에서 재앙적인 시나리오를 예측하는 일부 극단적인 견해와는 달리, 수츠케버는 보다 온건한 관점을 제시합니다. 그는 인간과 일반 인공지능(AGI)의 관계를 인간이 동물과 상호작용하는 방식에 비유합니다. 인간은 동물에 대한 애정을 가지고 있지만, 고속도로와 같은 기반 시설을 건설할 때 동물의 허락을 구하지는 않습니다. 마찬가지로, 수츠케버는 인간이 일반 인공지능과 관련해서도 자신의 필요를 우선시할 수 있다고 주장합니다.

