Lors de la récente conférence annuelle sur l'IA, Ilya Sutskever, cofondateur d'OpenAI, a partagé sa vision de l'avenir de l'intelligence artificielle. Il a évoqué le potentiel transformateur de l'IA, capable de devenir « imprévisible », tout en soulignant ses défis et ses implications.
Sutskever, s'exprimant vendredi lors de la conférence NeurIPS, a exploré le concept d'« intelligence artificielle superintelligente », qu'il deficomme des systèmes surpassant les capacités humaines dans un large éventail de tâches.
Ilya Sutskever, cofondateur d'OpenAI, estime que l'IA superintelligente sera « imprévisible » https://t.co/vLHmqwQOJQ
— TechCrunch (@TechCrunch) 14 décembre 2024
Il prévoyait que de tels systèmes seraient qualitativement différents de l'IA actuelle et, à certains égards, méconnaissables. Selon Sutskever, ces systèmes avancés posséderaient une conscience de soi, un certain niveau de raisonnement et la capacité de comprendre des scénarios complexes à partir de données limitées.
«Les systèmes [superintelligents] vont réellement être actifs», a-t-il déclaré, les opposant à l'IA actuelle, qu'il a décrite comme seulement « très légèrement active ».
Sutskever : Les modèles d’IA actuels sont limités
Lors de la conférence, Sutskever a reçu le prix « Test of Time » et a reconnu les limites des modèles pré-entraînés comme ceux utilisés dans ChatGPT d'OpenAI. Si les systèmes actuels affichent des capacités remarquables, il a averti que la nature finie des données Internet constitue un goulot d'étranglement.
complète d'@ilyasut ! À propos de la fin de la pré-formation et plus encore pic.twitter.com/PigZVvcEGB
—Diégo | IA 🚀 – e/acc (@diegocabezas01) 14 décembre 2024
Sutskever a proposé des approches alternatives, notamment des systèmes d'IA générant leurs propres données ou affinant leurs réponses pour une meilleure précision. Ces innovations, a-t-il suggéré, pourraient contribuer à surmonter les limitations actuelles.
Le cofondateur d'OpenAI a également abordé les implications éthiques de l'IA superintelligente, notamment la possibilité que de tels systèmes revendiquent des droits. «Ce n'est pas un mauvais résultat si les IA souhaitent simplement coexister avec nous et avoir des droits», a-t-il fait remarquer.
Il a toutefois souligné l'imprévisibilité inhérente à l'IA autonome et consciente d'elle-même, ce qui présente à la fois des opportunités et des défis pour les développeurs et les organismes de réglementation.
Le PDG d'OpenAI, Tim Altman, prédit une révolution et l'avènement de l'intelligence artificielle générale
Plus tôt ce mois-ci, Sam Altman, PDG d'OpenAI, a partagé un point de vue similaire à celui de Sutskever concernant les limites des performances de l'IA superintelligente. Lors du DealBook Summit du New York Times à New York, Altman a exposé sa vision de l'intelligence artificielle générale (IAG). Il a prédit que des systèmes d'IAG capables d'accomplir des tâches complexes avec un raisonnement comparable à celui de l'humain pourraient devenir une réalité dès 2025.
«Je pense que c’est possible… qu’en 2025, nous aurons des systèmes que nous examinerons… et les gens diront : “Waouh, cela change tout ce à quoi je m’attendais” », a déclaré Altman.
Altman a comparé l'impact potentiel de l'IA à l'invention du transistor, qui a révolutionné les industries et les économies du monde entier. Il a décrit un avenir où elle sera « incroyablement puissante ».
«Les modèles d'IA se généralisent et sont utilisés dans tous les secteurs pour diverses applications. « L'IA elle-même, le moteur de raisonnement, deviendra un produit de base», a estimé Altman, suggérant que son intégration dans la vie quotidienne sera aussi transformatrice que les précédentes avancées technologiques. »
Lors de son intervention, Altman a souligné l'adoption massive de ChatGPT, révélant que cet outil d'IA compte désormais plus de 300 millions d'utilisateurs hebdomadaires. Il a reconnu les débats persistants concernant sa sécurité, mais a insisté sur le rôle crucial de l'approche itérative de développement et de déploiement.
«Il y a defides gens qui pensent que ChatGPT n'est pas suffisamment sûr», a-t-il déclaré, tout en soulignant qu'OpenAI estime qu'une adoption précoce, lorsque les enjeux sont moindres, est essentielle pour une amélioration progressive.
L'accent mis par Altman sur la sécurité faisait écho aux préoccupations du secteur concernant le développement responsable de l'IA. Il a reconnu que si ChatGPT est « désormais généralement considéré par la plupart des acteurs comme suffisamment sûr et robuste », le perfectionnement et la surveillance continus demeurent des priorités.
Réflexions sur le leadership et l'évolution d'OpenAI
Le parcours d'Altman à la tête d'OpenAI a joué un rôle déterminant dans son développement. Cofondateur de l'organisation en 2015, initialement un laboratoire de recherche à but non lucratif, il ambitionnait de faire progresser les technologies d'IA au service de l'humanité. Avant de rejoindre OpenAI à temps plein en 2019, Altman adent Y Combinator, un accélérateur de startups de premier plan, de 2014 à 2019.
OpenAI, initialement une organisation à but non lucratif, a adopté un modèle à but lucratif plafonné afin de garantir les financements nécessaires à ses projets d'IA de grande envergure. Sous la direction d'Altman, l'entreprise a lancé ChatGPT et DALL-E, qui ont profondément transformé le paysage de l'IA.
Le parcours n'a toutefois pas été sans embûches. En novembre 2023, Altman a été brièvement écarté de son poste par le conseil d'administration d'OpenAI en raison de problèmes liés à sa communication avec les membres du conseil. Le différend, qui s'est déroulé publiquement, s'est conclu par la réintégration d'Altman moins d'une semaine plus tard, le conseil affirmant être désormais en « bons termes » avec le PDG.

