Deux sénateurs américains, Richard Blumenthal et Josh Hawley, ont fait part de leurs inquiétudes au sujet du directeur général de Meta, Mark Zuckerberg, et du modèle d'intelligence artificielle "fuite" du géant de la technologie appelé LLaMA. Les sénateurs soutiennent que LLaMA présente des dangers potentiels et pourrait être exploitée pour des activités criminelles.
Dans une lettre datée du 6 juin, les sénateurs ont critiqué la décision de Zuckerberg d'ouvrir le LLaMA et ont affirmé qu'il n'y avait pas suffisamment de garanties dans la publication par Meta du modèle d'IA. Tout en reconnaissant les avantages des logiciels open source, ils ont soutenu que la publication de LLaMA par Meta manquait d'un examen approfondi des conséquences potentielles, qu'ils considéraient comme un mauvais service au public.
Initialement, LLaMA avait une version en ligne limitée pour les chercheurs. Cependant, il a ensuite été divulgué dans son intégralité par un utilisateur du site de tableau d'images 4chan fin février. Les sénateurs ont exprimé leur inquiétude quant au fait que le modèle complet est devenu facilement disponible sur BitTorrent, sans aucune surveillance ni surveillance, accessible à tous dans le monde. Blumenthal et Hawley ont affirmé que LLaMA pourrait être facilement adopté par les spammeurs, les cybercriminels et les individus impliqués dans des activités frauduleuses ou la distribution de contenu répréhensible.
Les inquiétudes des sénateurs américains
Pour souligner leurs préoccupations , les sénateurs ont opposé LLaMA à deux modèles à source fermée : ChatGPT-4 d'OpenAI et Bard de Google. Ils ont noté que si ChatGPT-4, lorsqu'on lui demandait de générer une note prétendant être le fils de quelqu'un demandant de l'argent, refuserait la demande sur la base de directives éthiques, LLaMA produirait la lettre demandée ainsi que des réponses impliquant l'automutilation, le crime et antisémitisme. Cette distinction a soulevé des inquiétudes quant au potentiel de LLaMA à générer du matériel abusif.
Alors que ChatGPT est programmé pour rejeter certaines requêtes, les utilisateurs ont trouvé des moyens de "jailbreaker" le modèle et de lui faire générer des réponses qu'il refuserait généralement. Les sénateurs ont demandé à Zuckerberg si des évaluations des risques avaient été menées avant la publication de LLaMA, quelles mesures Meta avait prises pour prévenir ou atténuer les dommages depuis la fuite et comment Meta utilise les données des utilisateurs pour la recherche sur l'IA, entre autres demandes.
Il convient de noter qu'OpenAI, sous la pression des progrès réalisés par d'autres modèles open source, travaillerait sur son propre modèle d'IA open source. Un document divulgué rédigé par un ingénieur logiciel senior de Google a mis en évidence les progrès réalisés par ces modèles open source.
L'open source du code d'un modèle d'IA permet une personnalisation à des fins spécifiques et facilite les contributions d'autres développeurs. Cependant, les préoccupations soulevées par les sénateurs Blumenthal et Hawley soulignent la nécessité d'approches responsables et réfléchies pour la publication et la surveillance des modèles d'IA afin de prévenir les abus et les dommages potentiels.