Dario Amodei, PDG d'Anthropic, a récemment mentionné que les sociétés d'intelligence artificielle devraient se soumettre à des tests obligatoires. Cela vaut également pour sa propre entreprise, Anthropic. L’objectif est de s’assurer que ces technologies sont sans danger pour le grand public avant leur diffusion.
Amodei répondait à une question lors d'un sommet sur la sécurité de l'IA récemment organisé à San Francisco par les départements américains du Commerce et d'État. Dans sa réponse, le PDG a déclaré : « Je pense que nous devons absolument rendre les tests obligatoires, mais nous devons également être très prudents sur la manière dont nous les effectuons. »
Ces remarques font suite à une publication des instituts de sécurité de l'IA du Royaume-Uni et des États-Unis contenant les résultats de leurs tests du modèle Claude 3.5 Sonnet par Anthropic. Ces tests ont été menés dans diverses catégories comprenant des applications biologiques et de cybersécurité. Auparavant, OpenAI et Anthropic avaient convenu de soumettre leurs modèles aux agences gouvernementales.
Les grandes entreprises comme Anthropic suivent les directives de sécurité qu'elles s'imposent
Amodei a mentionné que les grandes entreprises ont volontairement accepté certaines directives qu'elles s'étaient imposées. Cela inclut le cadre de préparation d'OpenAI et la politique de mise à l'échelle responsable d'Anthropic. Cependant, il a ajouté que davantage de travail était nécessaire pour garantir la sécurité.
« Il n'y a rien qui permette de vraiment vérifier ou de garantir que les entreprises suivent réellement ces plans dans leur lettre. Ils ont juste dit qu’ils le feraient », a déclaré Amodei. Il a également ajouté : « Je pense que l'attention du public et le fait que les employés se soucient de nous ont créé une certaine pression, mais je pense qu'en fin de compte, cela ne suffira pas. »
Amodei estime que les systèmes d’IA puissants ont la capacité de surpasser les humains les plus intelligents. Il pense également que de tels systèmes pourraient être disponibles d’ici 2026. Il ajoute que les sociétés d’IA testent encore certains dommages catastrophiques et menaces biologiques, dont aucun n’est actuellement réel. Toutefois, ces tests hypothétiques peuvent devenir réalité bien plus tôt.
Il a également averti que les exigences relatives aux tests des systèmes d’IA devraient être flexibles, compte tenu du fait que la technologie est tournante. Selon lui, il s'agit d'un « problème socio-politique » très difficile à résoudre.
plan de lancement de carrière sur 90 jours