La campaña para presionar a los gobiernos a que acuerden límites internacionales vinculantes para reducir el abuso de la tecnología de IA se ha intensificado hasta el nivel de la ONU, ya que más de 200 políticos, científicos y líderes de opinión destacados, incluidos 10 ganadores del Premio Nobel, han emitido una advertencia sobre los riesgos de la tecnología.
La declaración, publicada el lunes en la apertura de la Semana de Alto Nivel de la Asamblea General de las Naciones Unidas, se denomina Llamamiento Global para la Eliminación de las Líneas Rojas de la IA. Argumenta que la trayectoria actual de la IA presenta peligros sindenty exige que los países trabajen para alcanzar un acuerdo internacional sobre restricciones claras y verificables para finales de 2026.
Los ganadores del Premio Nobel lideran la petición en la ONU.
La petición fue revelada por la Premio Nobel de la Paz y periodista Maria Ressa, quien aprovechó su discurso inaugural para instar a los gobiernos a “prevenir riesgos universalmente inaceptables” y defilo que nunca se le debe permitir hacer a la IA.
Entre los firmantes de la declaración se encuentran ganadores del Premio Nobel de Química, Economía, Paz y Física, junto con autores célebres como Stephen Fry y Yuval Noah Harari. Ladent irlandesa Mary Robinson y eldent colombiano Juan Manuel Santos, también ganador del Premio Nobel de la Paz, también prestaron sus nombres.
Geoffrey Hinton y Yoshua Bengio, conocidos popularmente como los “padrinos de la IA” y ganadores del Premio Turing, considerado ampliamente el Premio Nobel de la informática, también agregaron sus firmas a la declaración.
“Este es un punto de inflexión”, dijo Harari. “La humanidad debe acordar límites claros para la IA antes de que la tecnología transforme la sociedad más allá de nuestra comprensión y destruya los cimientos de nuestra humanidad”
Los esfuerzos anteriores para alertar sobre la IA se han centrado a menudo en compromisos voluntarios de empresas y gobiernos. En marzo de 2023, más de 1000 líderes tecnológicos, entre ellos Elon Musk, pidieron una pausa en el desarrollo de sistemas de IA potentes. Unos meses después, ejecutivos de IA como Sam Altman de OpenAI y de Google DeepMind firmaron una breve declaración en la que equiparaban los riesgos existenciales de la IA con los de una guerra nuclear y las pandemias.
La IA aviva los temores a riesgos existenciales y sociales
La semana pasada, AI estuvo implicada en casos que van desde el suicidio de un adolescente hasta informes sobre su uso para manipular el debate público.
Los firmantes del llamamiento argumentan que estos riesgos inmediatos podrían verse pronto eclipsados por amenazas mayores. Diversos analistas han advertido que, si no se controlan, los sistemas avanzados de IA podrían provocar desempleo masivo, pandemias artificiales omatic de los derechos humanos.
Algunos de los elementos de la lista embargada incluyen la prohibición de armas autónomas letales, la prohibición de sistemas de inteligencia artificial autorreplicantes y la garantía de que la inteligencia artificial nunca se utilice en una guerra nuclear.
“Es de vital interés para todos evitar que la IA cause daños graves y potencialmente irreversibles a la humanidad, y debemos actuar en consecuencia”, declaró Ahmet Üzümcü, exdirector general de la Organización para la Prohibición de las Armas Químicas, que ganó el Premio Nobel de la Paz en 2013 bajo su liderazgo.
Más de 60 organizaciones de la sociedad civil han firmado la carta, entre ellas el centro de estudios británico Demos y el Instituto de Seguridad y Gobernanza de la IA de Pekín. La iniciativa está siendo coordinada por tres organizaciones sin fines de lucro: el Centro para la IA Compatible con los Humanos de la Universidad de California, Berkeley; The Future Society; y el Centro Francés para la Seguridad de la IA.
A pesar de los recientes compromisos de seguridad de empresas como OpenAI y Anthropic, que han acordado que el gobierno pruebe sus modelos antes de su lanzamiento, las investigaciones sugieren que las empresas están cumpliendo solo alrededor de la mitad de sus compromisos.
“No podemos permitirnos esperar”, dijo Ressa. “Debemos actuar antes de que la IA avance más allá de nuestra capacidad de control”

