L'appel d'Elon Musk à arrêter toutes les expériences géantes d'IA a envoyé une onde de choc dans l'industrie technologique, avec de nombreuses personnalités influentes soutenant cette décision. Alors que les risques associés au développement incontrôlé de l'IA deviennent de plus en plus apparents, la communauté crypto prend également note de l'avertissement.
Avec de nombreux de blockchain et de cryptographie qui s'appuieraient fortement sur l'IA et les algorithmes d'apprentissage automatique, l'impact potentiel d'une expérimentation non réglementée dans ce domaine pourrait avoir des conséquences catastrophiques, selon les experts.
Steve Wozniak, le co-fondateur d'Apple, s'est joint à Musk pour signer la lettre ouverte, soulignant l'urgence de la situation. Selon des sources familières, alors que la cryptographie s'entremêle de plus en plus avec l'IA, une bonne intégration avec les gouvernements et les organismes de réglementation est devenue primordiale.
Sans une surveillance adéquate, les risques posés par une expérimentation incontrôlée pourraient être catastrophiques pour l'industrie naissante. En tant que tels, de nombreux experts appellent à une pause dans toutes les entreprises d'IA à grande échelle jusqu'à ce que ces problèmes puissent être résolus.
Avertissement contre les puissants systèmes d'IA et les impacts sur la crypto
La lettre exhorte les entreprises technologiques à ne pas développer de systèmes d'intelligence artificielle (IA) qui dépassent les capacités de GPT-4, qui est la technologie de pointe la plus récente dans les grands systèmes de traitement du langage.
Plus précisément, la lettre fait référence au GPT-4 comme à la "dernière technologie de pointe dans les grands systèmes de traitement du langage". Selon un article publié dans le magazine Fortune, l'efficacité des modèles d'intelligence artificielle est proportionnelle à la fois à la taille des modèles et au nombre de puces informatiques spécialisées nécessaires à leur éducation.
En conséquence, la lettre est censée servir d'avertissement que tout développement supplémentaire de l'intelligence artificielle pourrait aboutir à des machines qui échappent au contrôle des humains. Selon la lettre, le secteur commercial de la technologie se trouve actuellement à un carrefour où il doit choisir entre mettre l'accent sur la sécurité ou continuer à repousser les limites de la croissance de l'intelligence artificielle.
On craint que si les entreprises poursuivent le développement de systèmes d'intelligence artificielle au-delà des capacités du GPT-4, cela pourrait entraîner des effets désastreux tels que la perte d'emplois, des atteintes à la vie privée et même des dangers existentiels pour l'humanité. Par conséquent, la lettre encourage les entreprises technologiques à réfléchir aux résultats potentiels de leurs activités et à adopter une approche plus responsable du développement de l'intelligence artificielle.
En un mot, la lettre exhorte les entreprises technologiques à faire preuve de prudence et à s'abstenir de développer des systèmes d'intelligence artificielle plus avancés que ceux proposés par des entreprises spécifiques.