El Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST) se mostró proactivo en la resolución de los desafíos asociados con la inteligencia artificial (IA) mediante la publicación de cuatro borradores diseñados para garantizar la seguridad, protección y fiabilidad de los sistemas de IA. Durante este período, que finaliza el 2 de junio de 2024, los borradores estarán abiertos a comentarios públicos. Esto refleja la respuesta del NIST a la Orden Ejecutiva sobre IA de octubre de 2023, que enfatiza la mitigación de los efectos de las tecnologías de IA, a la vez que promueve la innovación responsable y el mantenimiento del liderazgo tecnológico de EE. UU.
Aliviar los riesgos de la IA generativa
Un área de preocupación principal en del NIST son las amenazas a la seguridad derivadas de las tecnologías de IA generativa. El perfil de IA RMF AI Generative AI AI proporciona 12 riesgos que abarcan desde la alta accesibilidad a información sensible hasta la propagación de discursos de odio y contenido malicioso. Abordar estos riesgos ha sido un área clave de enfoque para el NIST, que ha identificado dent de 400 posibles acciones de gestión de riesgos que las organizaciones pueden considerar. Este marco proporciona una estructura que los desarrolladores pueden seguir y alinear sus objetivos y prioridades.
Minimizar los riesgos de los datos de entrenamiento
Otro contenido clave presentado en los borradores es cómo proteger los datos utilizados en el entrenamiento de sistemas de IA. El borrador de la publicación sobre Prácticas Seguras de Desarrollo de Software para IA Generativa y Modelos Fundamentales de Doble Uso, que forma parte de la guía existente del NIST, se generó para garantizar la integridad de los sistemas de IA ante la preocupación por los datos de entrenamiento maliciosos. El NIST sugiere algunas maneras de proteger el código informático y ofrece soluciones para los problemas relacionados con los datos, incluyendo su recopilación y uso. Esto aumentará la seguridad de los sistemas de IA frente a posibles amenazas.
Fomentar la transparencia en el contenido creado con IA
Como respuesta al rápido aumento de materiales digitales sintetizados, el NIST está desarrollando medidas de mitigación para combatir los riesgos que estos representan en su próximo documento sobre la Reducción del Riesgo que representan los Materiales Sintéticos. Mediante marcas de agua digitales y el registro de metadatos, el NIST busca posibilitar el tracedentde medios alterados, lo que se espera que evite algunos resultados negativos, como la distribución de imágenes íntimas no consensuadas y material de abuso sexual infantil.
Impulsar el compromiso global con los estándares de IA
Reconociendo que la cooperación internacional es clave para establecer estándares relacionados con la IA, el NIST elaboró un borrador del Plan de Participación Global sobre de IA . El objetivo de este plan es fomentar la cooperación y la coordinación entre aliados internacionales, organizaciones de desarrollo de estándares y el sector privado para acelerar la estandarización tecnológica de la IA. Al priorizar el conocimiento del origen del contenido y los métodos de prueba, el NIST busca desarrollar un tron que garantice la seguridad y la ética en el funcionamiento de las tecnologías de IA en todo el mundo.
Iniciando NIST GenAI
El @CommerceGov anunció nuevas medidas relacionadas con la Orden Ejecutiva sobre IA, como un nuevo programa llamado NIST GenAI Challenge. Este programa evaluará y medirá las tecnologías de IA generativa. Obtenga más información sobre el desafío y las demás medidas: https://t.co/C2roy7KYfs pic.twitter.com/O27BV84sGB
— Instituto Nacional de Estándares y Tecnología (@NIST) 1 de mayo de 2024
Además, el instituto ha creado NIST GenAI, una herramienta de software que evalúa y cuantifica las capacidades de las herramientas de inteligencia artificial generativa. NIST GenAI será un instrumento con el que el Instituto de Seguridad de IA del NIST podrá generar problemas de desafío y realizar evaluaciones piloto para ayudar al Instituto de Seguridad de IA de EE. UU. del NIST a diferenciar entre la información aportada por el algoritmo de IA y el contenido producido por humanos. El objetivo principal de esta iniciativa es promover la fiabilidad de la información y brindar orientación sobre la dimensión ética de la creación de contenido en la era de la IA.
El anuncio del NIST de estos informes preliminares y el lanzamiento de NIST GenAI marcan una iniciativa activa y orientada al desarrollo para resolver los problemas relacionados con la IA que desafían a nuestra sociedad, a la vez que se asegura la innovación. Mediante la solicitud de aportaciones del NIST a las principales partes interesadas, como las empresas que han desarrollado o implementado tecnologías de IA, la plataforma puede influir en la determinación de las directrices de seguridad y estándares de la IA. Mediante su participación activa en este proceso, las partes interesadas pueden ayudar a establecer las prácticas más recomendadas y el enfoque estándar de la industria, lo que en última instancia conduce a un ecosistema de IA seguro y confiable.

