На недавней ежегодной конференции по ИИ соучредитель OpenAI Илья Суцкевер поделился своими взглядами на будущее искусственного интеллекта. Он рассказал о трансформационном потенциале ИИ, способном сделать его «непредсказуемым», а также подчеркнул связанные с этим проблемы и последствия.
Выступая в пятницу на конференции NeurIPS, Суцкевер рассмотрел концепцию «сверхинтеллектуального ИИ», которую он defiкак системы, превосходящие человеческие возможности в широком спектре задач.
Илья Суцкевер, соучредитель OpenAI, считает, что сверхинтеллектуальный ИИ будет «непредсказуемым» https://t.co/vLHmqwQOJQ
— TechCrunch (@TechCrunch) 14 декабря 2024 г.
Он предсказал, что такие системы будут качественно отличаться от современного ИИ и в некоторых отношениях будут неузнаваемы. По мнению Суцкевера, эти продвинутые системы будут обладать самосознанием, определенным уровнем рассуждения и способностью понимать сложные сценарии на основе ограниченных данных.
«[Сверхинтеллектуальные] системы в действительности будут обладать реальной субъектностью», — сказал он, противопоставляя их нынешнему искусственному интеллекту, который он охарактеризовал как лишь «очень слабо субъектный».
Суцкевер: Существующие модели ИИ имеют ограничения
На конференции Суцкевер, получив награду «Проверено временем», признал ограничения моделей предварительного обучения, подобных тем, что используются в ChatGPT от OpenAI. Хотя современные системы демонстрируют замечательные возможности, он предупредил, что ограниченность интернет-данных становится узким местом.
Полная @ilyasut ! о том, что предварительная подготовка мертва, и многое другое. pic.twitter.com/PigZVvcEGB
— Диего | AI 🚀 – e/acc (@diegocabezas01) 14 декабря 2024 г.
Суцкевер предложил альтернативные подходы, включая системы искусственного интеллекта, генерирующие собственные данные или уточняющие свои ответы для повышения точности. По его мнению, эти инновации могли бы помочь преодолеть существующие ограничения.
Соучредитель OpenAI также затронул этические последствия сверхинтеллектуального ИИ, включая потенциальную возможность того, что такие системы будут требовать соблюдения прав. «Это неплохой конечный результат, если у вас есть ИИ, и все, чего они хотят, — это сосуществовать с нами и просто иметь права», — заметил он.
Однако он подчеркнул присущую агентному и самосознающему ИИ непредсказуемость, которая представляет собой как возможности, так и проблемы для разработчиков и регулирующих органов.
Генеральный директор OpenAI Альтман предсказывает революционные изменения и появление искусственного общего интеллекта
Ранее в этом месяце генеральный директор OpenAI Сэм Альтман поделился с Суцкевером схожими взглядами на потолок возможностей сверхинтеллектуального ИИ. Выступая на саммите DealBook, организованном газетой New York Times в Нью-Йорке, Альтман изложил свое видение искусственного общего интеллекта (AGI). Он предсказал, что системы AGI-AI, способные выполнять сложные задачи с человеческим мышлением, могут стать реальностью уже в 2025 году.
«Я думаю, это возможно… в 2025 году у нас будут системы, которые мы рассмотрим… и люди скажут: „Ух ты, это меняет мои ожидания“», — сказал Альтман.
Альтман сравнил потенциальное влияние ИИ с изобретением транзистора, который произвел революцию в промышленности и экономике по всему миру. Он описал будущее, в котором ИИ будет «поразительно функциональным».
«Модели ИИ становятся широко доступными и используются в различных отраслях для разнообразных задач. Сам ИИ, механизм рассуждений, станет товаром массового потребления», — высказал мнение Альтман, предположив, что его интеграция в повседневную жизнь будет столь же преобразующей, как и прошлые технологические прорывы.
В ходе своего выступления Альтман подчеркнул широкое распространение ChatGPT, сообщив, что этим инструментом искусственного интеллекта сейчас пользуются более 300 миллионов человек еженедельно. Он признал наличие продолжающихся дискуссий о его безопасности, но подчеркнул, что итеративный подход к разработке и внедрению имеет решающее значение.
«есть defiлюди, которые считают, что ChatGPT недостаточно безопасен», — сказал он, но отметил, что OpenAI считает, что раннее внедрение, когда ставки невелики, имеет решающее значение для постепенного улучшения.
Акцент Альтмана на безопасности перекликается с опасениями отрасли по поводу ответственного развития ИИ. Он признал, что, хотя ChatGPT «в настоящее время в целом считается большинством общества приемлемо безопасным и достаточно надежным», дальнейшее совершенствование и контроль остаются приоритетами.
Размышления о лидерстве и эволюции OpenAI
Лидерский путь Альтмана сыграл ключевую роль в формировании траектории развития OpenAI. Он стал соучредителем организации в 2015 году как некоммерческой исследовательской лаборатории, стремясь развивать технологии искусственного интеллекта на благо человечества. До того, как присоединиться к OpenAI на постоянной основе в 2019 году, Альтман с 2014 по 2019 год занимал постdent Y Combinator, ведущего акселератора стартапов.
Компания OpenAI перешла от некоммерческой модели к модели с ограниченной прибылью, чтобы обеспечить финансирование, необходимое для крупномасштабных проектов в области искусственного интеллекта. Под руководством Альтмана компания запустила ChatGPT и DALL-E, которые изменили ландшафт искусственного интеллекта.
Однако этот путь не обошелся без трудностей. В ноябре 2023 года Альтман был ненадолго отстранен от должности советом директоров OpenAI из-за опасений, связанных с его общением с членами совета. Конфликт, получивший огласку, завершился восстановлением Альтмана в должности менее чем через неделю, поскольку совет директоров заявил, что теперь находится в «хороших отношениях» с генеральным директором.

