Le PDG d'OpenAI, Sam Altman, a démissionné du comité interne de sécurité de l'entreprise, un groupe créé en mai pour superviser les décisions critiques en matière de sécurité. Son départ intervient alors que des parlementaires américains et d'anciens employés d'OpenAI ont exprimé leurs inquiétudes quant à la sécurité et la conformité juridique de l'entreprise.
Le Comité de sécurité et de sûreté fonctionnera désormais comme un comité distinct au niveau du conseil d'administration, chargé de superviser les questions de sécurité et de sûreté. Dans le cadre de cette évolution, Zico Kolter, professeur à l'Université Carnegie Mellon, a été nommé président, aux côtés d'Adam D'Angelo, PDG de Quora, du général de l'armée américaine à la retraite Paul Nakasone et de Nicole Seligman, ancienne cadre de Sony. Tous trois sont actuellement membres du conseil d'administration d'OpenAI. Le comité conservera le pouvoir de suspendre la publication de modèles d'IA jusqu'à ce que les problèmes de sécurité soient résolus.
Les critiques s'interrogent sur les priorités d'OpenAI suite au départ de membres clés de son personnel
Dans un article de blog publié après le départ d'Altman, OpenAI a réaffirmé son engagement en matière de sécurité et a rappelé que le comité avait déjà validé la sécurité du modèle o1. Le groupe recevra régulièrement des informations complémentaires du personnel de sécurité de l'entreprise afin de tenir ses membres informés des futures mises à jour des modèles d'IA. OpenAI a également indiqué son intention de renforcer les mesures de sécurité en adoptant des revues techniques et des objectifs clairement définis pour le lancement de chaque modèle.
Cette décision intervient après des critiques, notamment de la part de cinq sénateurs américains qui avaient exprimé leurs inquiétudes quant aux mesures de sécurité mises en place par l'entreprise cet été. Des voix critiques ont également relevé que plus de la moitié des employés chargés de gérer les conséquences à long terme de l'IA ont quitté l'entreprise. Certains affirment qu'Altman se préoccupe davantage des aspects commerciaux de l'IA que de la réglementation de cette technologie.
Les dépenses d'OpenAI sont en hausse. Au premier semestre 2024, l'entreprise a consacré 800 000 dollars au lobbying fédéral, soit une augmentation significative par rapport aux 260 000 dollars dépensés pour l'ensemble de l'année 2023. Plus tôt cette année, Altman a rejoint le Conseil de sécurité et de sûreté de l'intelligence artificielle du Département américain de la Sécurité intérieure. Ce comité est chargé de formuler des recommandations sur l'utilisation de l'IA dans les systèmes critiques du pays.
Des questions subsistent quant à l'autorégulation du géant de l'IA. Dans une tribune publiée par The Economist, Helen Toner et Tasha McCauley, anciennes membres du conseil d'administration d'OpenAI, ont exprimé des doutes quant à la capacité de l'entreprise à s'autoréguler. Elles ont affirmé que la recherche du profit pourrait compromettre l'autogestion d'OpenAI, ce qui, selon elles, serait incompatible avec les objectifs de sécurité à long terme.
OpenAI recherche un financement massif et prévoit de passer à un modèle à but lucratif
OpenAI serait en pourparlers pour obtenir un financement massif qui pourrait porter sa valorisation à 150 milliards de dollars. Selon un récent rapport de Cryptopolitan, OpenAI prévoit de lever 6,5 milliards de dollars auprès d'investisseurs à sa valorisation actuelle. OpenAI envisagerait de transformer son modèle opérationnel actuel pour adopter un modèle commercial traditionnel d'ici 2025.
Lors d'une récente réunion, Sam Altman, PDG d'OpenAI, a annoncé des changements au sein de l'entreprise, sans toutefois donner de détails précis. Il a expliqué que la structure actuelle était devenue trop importante pour l'entreprise et qu'elle était prête à abandonner le modèle à but non lucratif.

