Chargement...

Les plus grands esprits de l'IA exhortent les gouvernements et les entreprises à investir 33 % des budgets de l'IA dans la sécurité de l'IA

Dans cet article :

  • Les chercheurs en IA préconisent tron l’allocation de 33 % du financement de la R&D en IA pour garantir la sécurité et l’éthique des technologies émergentes.
  • Une lettre, approuvée par les lauréats du prix Turing et un lauréat du prix Nobel, lance un appel convaincant à l'imposition d'une responsabilité juridique aux systèmes d'IA pour les dommages potentiels.
  • La communauté mondiale de l’IA souligne le problème urgent de l’absence de réglementations complètes en matière de sécurité de l’IA alors que les dirigeants du monde entier se réunissent au sommet sur la sécurité de l’IA.

Dans le domaine en évolution rapide de l’intelligence artificielle, les meilleurs chercheurs et sommités tirent la sonnette d’alarme, exigeant un changement de paradigme dans l’approche de la sécurité de l’IA. Une lettre, signée par trois lauréats du prix Turing, un lauréat du prix Nobel et plus d'une douzaine d'universitaires steem en IA, souligne la nécessité cruciale pour les gouvernements et les entreprises d'allouer une part substantielle de leur financement de recherche et de développement en IA pour garantir la sécurité et la sécurité. utilisation éthique de ces systèmes avancés.

Le sommet international sur la sécurité de l’IA approche

Alors que le monde se prépare au prochain Sommet international sur la sécurité de l’IA à Londres, l’urgence de s’attaquer aux risques liés à l’IA occupe une place centrale. La lettre présente un ensemble complet de mesures, exhortant les gouvernements et les entreprises d’IA à consacrer au moins un tiers de leurs fonds de recherche et développement à la sécurité de l’IA. Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song et Yuval Noah Harari, entre autres sommités, soulignent la nécessité de prendre des mesures proactives pour prévenir les dommages potentiels causés par les systèmes d'IA frontaliers en constante évolution.

Selon la lettre signée par des personnalités éminentes de la communauté de recherche en IA, il existe un sentiment partagé selon lequel les gouvernements devraient assumer un rôle central en imposant une responsabilité juridique pour les dommages prévisibles et évitables causés par les systèmes d’IA. L’appel à la responsabilité vise à combler le vide laissé par l’absence de réglementations générales traitant spécifiquement des problèmes de sécurité de l’IA.

Les gouvernements sont invités à tenir les entreprises d’IA responsables des dommages causés au système

Il existe actuellement une lacune notable en termes de réglementation globale axée sur la sécurité de l’IA. Le premier ensemble de lois de l'Union européenne, bien qu'en cours d'élaboration, n'est pas encore devenu loi alors que les législateurs sont aux prises avec des questions non résolues. La lettre plaide pour une résolution rapide de ce vide réglementaire, soulignant que les progrès rapides de l’IA exigent des précautions tout aussi rapides pour garantir un développement éthique.

Yoshua Bengio, souvent considéré comme l'un des parrains de l'IA, souligne l'urgence d'investir dans la sécurité de l'IA. Dans la lettre, le sentiment est exprimé que les récents modèles d'IA de pointe sont jugés excessivement puissants et importants, ce qui justifie la nécessité d’un contrôle démocratique, comme l’a prévenu l’auteur. Le rythme des progrès de l’IA, qui dépasse de loin les mesures de précaution, nécessite un engagement immédiat et substantiel pour se prémunir contre les risques potentiels.

De puissants modèles d’IA déclenchent l’alarme

Les signataires de la lettre, parmi lesquels figurent des sommités comme Geoffrey Hinton et le prix Nobel Daniel Kahneman, attirent l'attention sur les capacités stupéfiantes des récents modèles d'IA. Ils affirment que ces modèles sont trop influents pour être laissés sans contrôle et soulignent l’importance du contrôle démocratique dans leur développement.

Stuart Russell, un informaticien britannique, rejette les inquiétudes des entreprises concernant les coûts de mise en conformité, soulignant la nécessité de réglementations. Russell conteste l'idée selon laquelle la réglementation étouffe l'innovation, soulignant qu'il y a plus de réglementations sur les sandwicheries que sur les entreprises d'IA, selon le contenu de la lettre. L’appel à une action rapide et décisive repose sur la compréhension du fait que la progression incontrôlée de l’IA présente des risques dent précédent qui nécessitent une attention immédiate.

Le débat sur la sécurité de l’IA atteint un tournant critique, avec des chercheurs et des influenceurs de premier plan exhortant les gouvernements et les entreprises à donner la priorité aux considérations éthiques et à allouer des ressources pour garantir le développement responsable de l’IA. Alors que le monde se prépare au Sommet international sur la sécurité de l’IA , la question demeure : ces appels urgents à l’action seront-ils entendus, ou les risques potentiels d’un développement incontrôlé de l’IA continueront-ils de s’intensifier ?

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Le fondateur Cardano , Charles Hoskinson, s'inquiète de la censure de l'IA
cryptopolite
Abonnez-vous à CryptoPolitan