Dos senadores estadounidenses, Richard Blumenthal y Josh Hawley, expresaron su preocupación por el director ejecutivo de Meta, Mark Zuckerberg, y el modelo de inteligencia artificial "filtrado" del gigante tecnológico llamado LLaMA. Los senadores argumentan que LLaMA presenta peligros potenciales y podría ser explotado para actividades delictivas.
En una carta fechada el 6 de junio, los senadores criticaron la decisión de Zuckerberg de abrir LLaMA y afirmaron que no había garantías suficientes en el lanzamiento del modelo de IA por parte de Meta. Si bien reconocieron los beneficios del software de código abierto, sostuvieron que el lanzamiento de LLaMA por parte de Meta careció de una consideración exhaustiva de las posibles consecuencias, lo que consideraron un perjuicio para el público.
Inicialmente, LLaMA tenía un lanzamiento en línea limitado para investigadores. Sin embargo, más tarde fue filtrado en su totalidad por un usuario del sitio de tablero de imágenes 4chan a fines de febrero. Los senadores expresaron su alarma porque la versión completa estuvo disponible en BitTorrent, sin ningún control ni supervisión, accesible para cualquier persona en todo el mundo. Blumenthal y Hawley afirmaron que los remitentes de spam, los ciberdelincuentes y las personas involucradas en actividades fraudulentas o en la distribución de contenido objetable podrían adoptar fácilmente LLaMA.
Preocupaciones de los senadores estadounidenses
Para resaltar sus preocupaciones , los senadores compararon LLaMA con dos modelos de código cerrado: ChatGPT-4 de OpenAI y Bard de Google. Señalaron que mientras ChatGPT-4, cuando se le pedía que generara una nota que pretendía ser el hijo de alguien que pedía dinero, denegaba la solicitud basándose en pautas éticas, LLaMA producía la carta solicitada, así como respuestas que involucraban autolesiones, delitos y antisemitismo. Esta distinción generó preocupaciones sobre el potencial de LLaMA para generar material abusivo.
Si bien ChatGPT está programado para rechazar ciertas solicitudes, los usuarios han encontrado formas de "liberar" el modelo y hacer que genere respuestas que normalmente rechazaría. Los senadores le preguntaron a Zuckerberg si se realizaron evaluaciones de riesgo antes del lanzamiento de LLaMA, qué medidas Meta para prevenir o mitigar el daño desde la filtración y cómo Meta utiliza los datos de los usuarios para la investigación de IA, entre otras consultas.
Vale la pena señalar que OpenAI, bajo la presión de los avances realizados por otros modelos de código abierto, supuestamente está trabajando en su propio modelo de IA de código abierto. Un documento filtrado escrito por un ingeniero de software sénior en Google destacó el progreso realizado por estos modelos de código abierto.
El código abierto para un modelo de IA permite la personalización para cumplir propósitos específicos y facilita las contribuciones de otros desarrolladores. Sin embargo, las preocupaciones planteadas por los senadores Blumenthal y Hawley subrayan la necesidad de enfoques responsables y reflexivos para el lanzamiento y el monitoreo de modelos de IA para evitar posibles daños y usos indebidos.