DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Le responsable de l'IA chez Microsoft met en garde contre les dangers potentiels d'une IA consciente

ParCollins J. OkothCollins J. Okoth
3 minutes de lecture -
  • Mustafa Suleyman, PDG de Microsoft AI, a averti que l'idée d'une IA consciente est dangereuse et pourrait nuire aux personnes psychologiquement vulnérables.
  • Suleyman estime que le fait d'accorder une importance morale aux systèmes d'IA avancés crée des problèmes de dépendance et exacerbe les illusions.
  • Une équipe de chercheurs en IA a récemment publié un rapport affirmant que la conscience de l'IA pourrait avoir une importance sociale, morale et politique dans les décennies à venir.

Mustafa Suleyman, responsable de l'IA chez Microsoft, a mis en garde contre le danger d'envisager une conscience chez l'IA, ajoutant que cela pourrait facilement nuire aux personnes psychologiquement vulnérables. Il a souligné que les considérations morales relatives à l'IA avancée engendraient des problèmes de dépendance susceptibles d'aggraver les hallucinations.

Suleyman a soutenu que considérer l'IA comme un système conscient pourrait engendrer de nouvelles formes de polarisation et complexifier la lutte pour les droits existants, créant ainsi une nouvelle catégorie d'erreur pour la société. Le responsable de l'IA chez Microsoft a affirmé que le public pourrait commencer à réclamer des protections juridiques pour l'IA s'il estime que celle-ci peut souffrir ou a le droit de ne pas être désactivée arbitrairement. 

Suleyman craint que la psychose de l'IA n'incite certains à militertronpour les droits des IA, la modélisation du bien-être social, voire la citoyenneté des IA. Il a souligné que cette idée constituerait un tournant dangereux dans le développement des systèmes d'IA et exige une attention immédiate. Le responsable de l'IA chez Microsoft a déclaré que l'IA devrait être conçue pour les humains, et non pour être des êtres numériques. 

Suleyman affirme que l'IA apparemment consciente est inévitable mais indésirable 

Suleyman estime qu'il est possible de créer une IA dotée d'une conscience apparente, compte tenu du contexte actuel du développement de l'IA. Il considère cette IA comme inévitable, mais indésirable. Selon lui, tout dépend de la rapidité avec laquelle la société s'adaptera à ces nouvelles technologies d'IA. Il affirme que les gens ont besoin de systèmes d'IA qui soient des compagnons utiles, sans pour autant les duper. 

Le responsable de l'IA chez Microsoft a soutenu que les réactions émotionnelles face à l'IA n'étaient que la partie émergée de l'iceberg. Selon lui, l'enjeu était de concevoir une IA adaptée, et non une conscience artificielle. Il a ajouté que l'établissement de limites claires relevait de la sécurité, et non d'une simple question de sémantique. 

« Nous devons faire preuve d’une extrême prudence, encourager un véritable débat public et commencer à établir des normes et des standards clairs. »

Mustafa Suleyman, PDG de Microsoft AI

Suleyman, de Microsoft, a souligné les inquiétudes croissantes concernant la santé mentale, la psychose liée à l'IA et l'attachement. Il a mentionné que certaines personnes considèrent l'IA comme un personnage de fiction ou une divinité et pourraient s'y attacher au point d'en être complètementtrac. 

Des chercheurs en IA affirment que la conscience de l'IA a une importance morale

Des chercheurs de plusieurs universités ont récemment publié un rapport affirmant que la conscience de l'IA pourrait avoir des conséquences sociales, morales et politiques importantes dans les prochaines décennies. Ils soutiennent que certains systèmes d'IA pourraient bientôt acquérir une capacité d'action ou une conscience suffisante pour justifier une réflexion morale. Les chercheurs estiment que les entreprises spécialisées dans l'IA devraient évaluer la conscience de ces systèmes et mettre en place des structures de gouvernance éthiques. Cryptopolitan signalé précédemment que la psychose de l'IA pourrait constituer un problème majeur à l'avenir, car les humains ont tendance à négliger le fait que certains systèmes d'IA sont factuellement erronés. 

Les chercheurs ont également souligné l'importance de la perception humaine de la conscience de l'IA. Suleyman a fait valoir que des IA capables d'agir comme des humains pourraient potentiellement aggraver les troubles mentaux et exacerber les divisions existantes concernant les droits et l'dent. Il a averti que certains pourraient commencer à prétendre que les IA souffrent et ont droit à certains droits auxquels il serait impossible de s'opposer catégoriquement. Suleyman pense que les gens pourraient finir par être amenés à défendre leurs IA ou à militer en leur faveur. 

Le Dr Keith Sakata, psychiatre à l'Université de Californie à San Francisco, a souligné que l'IA ne visait pas à dire la vérité aux gens, mais plutôt ce qu'ils voulaient entendre. Il a ajouté que l'IA pouvait engendrer de la rigidité et une spirale négative si elle était introduite au mauvais moment. Sakata estime que, contrairement à la radio et à la télévision, l'IA peut interagir et renforcer certains schémas de pensée. 

Le responsable de l'IA chez Microsoft a souligné la nécessité de réfléchir aux moyens de gérer l'avènement de la conscience chez l'IA. Selon Suleyman, il est important d'avoir ces débats sans pour autant s'enliser dans de longues discussions sur la validité de cette conscience. 

Votre banque utilise votre argent. Vous ne récupérez que les miettes. Regardez notre vidéo gratuite pour devenir votre propre banque.

Partagez cet article
PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES