Yann LeCun, responsable de l'IA chez Meta, a déclaré qu'il était tôt pour commencer à s'inquiéter des systèmes d'IA intelligents au niveau humain, communément appelés AGI. Le commentaire de LeCun intervient alors que les débats sur l'impact de l'AGI sur l'existence de l'humanité continuent de prendre de l'ampleur.
Lisez aussi : Un examen plus approfondi de la spéculation AGI
"À l'heure actuelle, nous n'avons même pas la moindre idée d'un système intelligent au niveau humain", a publié LeCun sur X Monday . « Il est donc trop tôt pour s'en inquiéter. Et il est bien trop tôt pour le réglementer pour prévenir le « risque existentiel ».
L'IA ne peut pas simplement devenir dangereuse, déclare LeCun
De nombreux experts estiment qu’il faudra des décennies, voire des siècles, pour que l’AGI devienne une réalité. Cependant, cela suscite l'inquiétude des gouvernements, car les experts préviennent que de tels modèles pourraient menacer l'existence de l'humanité.
Lisez aussi : Google, OpenAI et 13 autres s'engagent à ne pas déployer de modèles d'IA à risque
LeCun estime que les systèmes d’IA ne sont pas « une sorte de phénomène naturel qui émergerait et deviendrait dangereux ». Il a déclaré que les humains ont le pouvoir de rendre l’IA sûre parce que c’est nous qui la créons.
L’IA n’est pas une sorte de phénomène naturel qui apparaîtrait et deviendrait dangereux.
– Yann LeCun (@ylecun) 27 mai 2024
*NOUS* le concevons et *NOUS* le construisons.
Je peux imaginer des milliers de scénarios dans lesquels un turboréacteur tourne terriblement mal.
Pourtant, nous avons réussi à rendre les turboréacteurs incroyablement fiables avant de les déployer à grande échelle.…
« Je peux imaginer des milliers de scénarios dans lesquels un turboréacteur tourne terriblement mal. Pourtant, nous avons réussi à rendre les turboréacteurs incroyablement fiables avant de les déployer à grande échelle », a ajouté LeCun. "La question est similaire pour l'IA."
Le chef de l'IA de Meta déclare que les LLM ne peuvent pas atteindre l'intelligence humaine
La semaine dernière, LeCun a également estimé que les grands modèles de langage, qui alimentent les chatbots IA populaires comme ChatGPT, Gemini, etc., ne peuvent pas atteindre l'intelligence humaine.
Lisez aussi : ChatGPT-4o d'OpenAI peut montrer des sentiments et des émotions
Dans une interview avec Forbes , LeCun a déclaré que les LLM ont une « compréhension limitée de la logique », étant donné qu'ils doivent être formés et ne peuvent fonctionner aussi bien que les données qui leur sont fournies. Il a en outre noté que les LLM sont « intrinsèquement dangereux » et que les chercheurs cherchant à construire des systèmes d’IA au niveau humain devraient envisager d’autres types de modèles.
OpenAI et Meta confirment leur intérêt pour la création d'AGI
Le créateur de ChatGPT, OpenAI, prévoit de créer des modèles aussi puissants. En mai, le co-fondateur Sam Altman a déclaré qu'ils créeraient AGI, quel que soit le prix.
« Que nous brûlions 500 millions de dollars par an ou 5 milliards de dollars – ou 50 milliards de dollars par an – je m'en fiche, je m'en fiche vraiment. Tant qu'on trouve un moyen de payer les factures, on fait de l'AGI. Cela va coûter cher.
Sam Altmann
Meta a également commencé à déployer des efforts pour atteindre une intelligence au niveau humain. En janvier, Mark Zuckerberg a admis que « la vision à long terme de Meta est de construire des renseignements généraux, de les ouvrir de manière responsable et de les rendre largement disponibles afin que tout le monde puisse en bénéficier ».
Reportage cryptopolitain d'Ibiam Wayas
Décrocher un emploi Web3 bien rémunéré en 90 jours : la feuille de route ultime