Des employés affirment qu'OpenAI et Google DeepMind dissimulent des risques liés à l'IA

- D'anciens employés accusent les entreprises spécialisées dans l'IA de dissimuler des risques susceptibles de provoquer l'extinction de l'humanité.
- Ils affirment que les entreprises privilégient le profit tout en évitant un « contrôle efficace »
- Les lanceurs d'alerte sont découragés par la menace de représailles de la part des employeurs.
Plusieurs employés actuels et anciens d'OpenAI et de Google DeepMind ont accusé leurs entreprises de dissimuler des risques liés à l'IA susceptibles d'entraîner l'extinction de l'humanité. Dans une lettre ouverte, ces travailleurs ont affirmé que les entreprises spécialisées en IA privilégiaient le profit au détriment d'un contrôle gouvernemental efficace
À lire également : OpenAI prépare un successeur à GPT-4 malgré les inquiétudes liées à la sécurité
La lettre ouverte , signée par onze anciens employés d'OpenAI et deux de Google DeepMind, et appuyée par Geoffrey Hinton, ancien de Google et considéré comme le « père de l'IA », dénonce la recherche du profit et l'exploitation des failles réglementaires qui permettent aux entreprises de dissimuler les menaces posées par l'intelligence artificielle avancée.
L'IA pourrait mener à « l'extinction de l'humanité »
Selon la lettre, les entreprises spécialisées en IA telles qu'OpenAI et Google DeepMind, créatrice de Gemini, n'ont pas communiqué publiquement d'informations sur les insuffisances des mesures de protection et les niveaux de risque de leurs systèmes car elles n'y sont pas tenues.
Sans contrôle réglementaire, les programmes d'IA pourraient causer des dommages considérables aux humains. Les employés ont averti :
« Ces risques vont de l’aggravation des inégalités existantes… à la perte de contrôle des systèmes d’IA autonomes pouvant potentiellement entraîner l’extinction de l’humanité. »
Comme l'ont souligné les signataires de la lettre, les entreprises spécialisées en IA ont elles-mêmes reconnu ces risques. En mai 2023, les PDG d'OpenAI, d'Anthropic et de Google DeepMind ont cosigné une lettre ouverte du Center for AI Safety. On pouvait y lire : « Atténuer le risque d'extinction lié à l'IA devrait être une priorité mondiale, au même titre que d'autres risques sociétaux majeurs tels que les pandémies et la guerre nucléaire. »
Les entreprises spécialisées dans l'IA sont de plus en plus critiquées pour privilégier l'innovation et le profit au détriment de la sécurité. ChatGPT,a pris note des préoccupations soulevées dans la lettre et a déclaré travailler au développement d'une intelligence artificielle sûre.
« Nous sommes fiers de notre tracen matière de fourniture des systèmes d'IA les plus performants et les plus sûrs, et nous croyons en notre approche scientifique pour gérer les risques », a déclaré , au New York Times.
« Nous convenons qu’un débat rigoureux est essentiel compte tenu de l’importance de cette technologie, et nous continuerons à dialoguer avec les gouvernements, la société civile et d’autres communautés à travers le monde. »

Les lanceurs d'alerte craignent des représailles
Les anciens employés d'OpenAI et de Google ont déclaré qu'ils souhaiteraient assumer ce rôle de supervision pendant que les organismes de réglementation élaborent des lois obligeant les développeurs d'IA à divulguer publiquement davantage d'informations sur leurs programmes.
Toutefois, les accords dedentet le risque de représailles de la part des employeurs dissuadent les travailleurs d'exprimer publiquement leurs préoccupations. Selon la lettre :
« Certains d’entre nous craignent, à juste titre, diverses formes de représailles, compte tenu des précédents dans ce secteur. Nous ne sommes pas les premiers à rencontrer ces problèmes ni à en parler. »
Aux États-Unis, les lanceurs d'alerte sont protégés par la loi, mais ceux qui dénoncent les dangers de l'intelligence artificielle ne bénéficient pas de cette protection car cette technologie n'est pas encore réglementée.
À lire également : ChatGPT continue de diffuser de fausses informations, selon l’autorité de surveillance des données de l’UE.
La lettre appelait les entreprises spécialisées en IA à faciliter les retours d'information anonymes et vérifiables, à soutenir une culture de la critique ouverte et à ne pas exercer de représailles contre les lanceurs d'alerte.
Lance B. Eliot, chercheur en intelligence artificielle, Selon les entreprises appliquent une politique de récompenses et de sanctions face aux critiques. Les employés qui ne signalent pas les risques sont récompensés par des promotions et des augmentations de salaire.
En revanche, les lanceurs d'alerte et les critiques perdent leurs options d'achat d'actions et peuvent être contraints de quitter l'entreprise et mis sur liste noire, en silence, par la communauté dirigeante de l'IA.
Reportage Cryptopolitan de Jeffrey Gogo
Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














