Helen Toner, ancienne membre du conseil d'administration, a révélé que Sam Altman avait été licencié de son poste de PDG d'OpenAI parce qu'il avait délibérément induit en erreur le conseil d'administration au sujet des processus de développement des produits et de sécurité de l'entreprise.
À lire également : OpenAI prépare un successeur à GPT-4 malgré les inquiétudes liées à la sécurité
Toner, chercheur en IA et l'un des directeurs qui ont limogé Altman en novembre, a évoqué pour la première fois ce coup d'État raté au sein du conseil d'administration lors d'une interview accordée le 28 mai à Bilawal Sidhu, animateur de l'émission TEDTalk AI Show
« Sam Altman a menti effrontément au conseil d'administration »
Le conseil d'administration d'OpenAI a été mis en place pour que l'entreprise privilégie l'intérêt public à la recherche du profit, a révélé lors d'une interview. Elle a déclaré : « Pendant des années, Sam a rendu la tâche du conseil d'administration extrêmement difficile en dissimulant des informations, en déformant la réalité de l'entreprise et, dans certains cas, en mentant ouvertement au conseil. »
Je partage cet enregistrement, réalisé il y a quelques semaines. L'épisode porte principalement sur la politique en matière d'IA au sens large, mais comme il s'agissait de ma première interview longue depuis la clôture de l'enquête sur OpenAI, nous avons également abordé le mois de novembre.
Merci à @bilawalsidhu pour cette conversation passionnante ! https://t.co/h0PtK06T0K
— Helen Toner (@hlntnr) 28 mai 2024
Sam Altman a été brutalement limogé de son poste de PDG, une décision qui a provoqué une onde de choc dans le secteur de l'intelligence artificielle. Selon Toner, le secret qui entourait cette décision s'inscrivait dans une stratégie délibérée du conseil d'administration.
Selon Toner, « Il était évident pour nous tous que dès que Sam soupçonnait que nous pourrions faire quelque chose qui lui soit défavorable, il mettrait tout en œuvre pour saper le conseil d'administration et nous empêcher, vous savez, même de pouvoir le licencier. Nous avons donc été extrêmement prudents et très sélectifs quant aux personnes à qui nous en parlions, c'est-à-dire pratiquement personne à l'avance, hormis, bien sûr, notre équipe juridique. »
Altman a obtenu gain de cause auprès du conseil d'administration concernant l'image renvoyée par la crise de novembre, les employés et les investisseurs d'OpenAI, dont Microsoft, dénonçant son limogeage. Il a été réintégré à son poste de PDG une semaine plus tard, tandis que le directeur scientifique Ilya Sutskever, Toner et d'autres membres présumés du conseil ont accepté de le quitter.

La réputation de l'icône de l'IA en prend un coup
La réputation d'Altman en tant que figure emblématique de l'IA générative a été mise à mal ces dernières semaines, d'anciens hauts responsables, dont Jan Leike, Gretchen Krueger et Tasha McCauley, ayant remis en question son leadership.
Concernant le licenciement d'Altman, Toner a déclaré que le conseil d'administration n'avait appris la sortie de ChatGPT qu'en novembre 2022 sur Twitter (devenu depuis X), n'en ayant pas été informé auparavant. Elle a également accusé Altman d'avoir dissimulé au conseil d'administration qu'il était propriétaire du fonds d'investissement d'OpenAI.
À lire également : ChatGPT continue de diffuser de fausses informations, selon l’autorité de surveillance des données de l’UE.
« Lorsque ChatGPT est sorti en novembre 2022, le conseil d’administration n’en a pas été informé au préalable. Nous avons découvert GPT sur Twitter », a affirmé Toner.
Elle a poursuivi en disant : « Sam n'a pas informé le conseil d'administration qu'il était propriétaire du fonds de démarrage d'OpenAI, alors qu'il prétendait constamment être un membre indépendant dent conseil d'administration sans aucun intérêt financier dans l'entreprise. »
Plus tard dans l'entretien, Toner a évoqué la communication discrétionnaire de Sam sur des questions de sécurité. « À plusieurs reprises, il nous a fourni des informations inexactes concernant le petit nombre de procédures de sécurité officielles mises en place par l'entreprise, ce qui rendait pratiquement impossible pour le conseil d'administration de savoir dans quelle mesure ces procédures fonctionnaient correctement ou ce qui devait être amélioré. »
« Atmosphère toxique » à OpenAI
Selon Toner, certains membres clés du personnel ont contourné l'autocensure initiale et ont informé le conseil d'administration que Sam Altman n'était pas digne de confiance en raison du climat toxique qu'il instaurait au sein de l'entreprise. Elle a révélé :
« Ils ont utilisé l’expression “abus psychologique”, nous disant qu’ils ne pensaient pas qu’il était la bonne personne pour diriger l’entreprise vers l’intelligence artificielle générale (IAG). »
Les enquêteurs internes chargés des événements de novembre ont récemment conclu que le conseil d'administration avait agi de bonne foi, mais n'avait pas anticipé l'instabilité qui allait suivre le limogeage d'Altman. Depuis novembre, le PDG a consolidé son emprise sur OpenAI. L' équipe « Superalignment », coprésidée par le principal instigateur, Sutskever, a été dissoute en début de mois après une série de démissions.
Mardi, la start-up basée à San Francisco a annoncé la création d'un nouveau comité de sécurité qui sera dirigé par les directeurs Altman, Bret Taylor (président), Adam D'Angelo et Nicole Seligman.
Dans sa nouvelle interview, Toner réaffirme les propos de sa récente tribune publiée dans The Economist, co-écrite avec Tasha McCauley, ancienne directrice d'OpenAI. Le duo y explique que l'autogestion n'a pas résisté aux pressions liées aux incitations au profit chez OpenAI.
Reportage Cryptopolitan par Jeffrey Gogo

