El progreso del Reino Unido en la implementación de medidas éticas y de seguridad en torno a la inteligencia artificial (IA) cobró impulso con la introducción del conjunto de herramientas Inspect AI, creado por el Instituto de Seguridad del Reino Unido. Concebido como una herramienta para garantizar la seguridad de la IA, Inspect ofrece un algoritmo completo para la evaluación de de IA , lo que marca un hito crucial en la búsqueda de un desarrollo transparente y responsable de la IA.
El nuevo organismo de seguridad de la IA del gobierno del Reino Unido lanza Inspect, una herramienta de evaluación de las capacidades de los modelos de IA, incluyendo el conocimiento fundamental de los modelos y su capacidad de razonamiento (@kyle_l_wiggers / TechCrunch)https://t.co/IuYAtYHcIX
— Techmeme (@Techmeme) 11 de mayo de 2024
📫 Suscríbete: https://t.co/OyWeKSRpIMhttps://t.co/MJQ20I1Jff
Un enfoque revolucionario para las pruebas de seguridad de la IA
La principal característica de Inspect reside en su capacidad para resolver las autoridades de algoritmos complejos de IA. Debido a su opacidad, que puede implicar la ocultación de aspectos críticos como las infraestructuras subyacentes y los datos de entrenamiento, estos modelos representan un gran desafío. Inspection supera este problema gracias a su arquitectura altamente flexible, que permite complementar fácilmente las tecnologías y los métodos de prueba ya existentes.
Incluye tres módulos principales: conjuntos de datos, solucionadores y evaluadores. Los módulos están organizados para facilitar un proceso de pruebamatic . Los conjuntos de datos son el recurso para las pruebas evaluativas utilizando poblaciones de muestra; los evaluadores evalúan el resultado de la ejecución de los solucionadores y las puntuaciones se compilan en métricas agregadas. Un aspecto fundamental es que el marco de Inspect se puede mejorar mediante la incorporación de paquetes externos de Python, lo que aumenta la eficiencia y la utilidad de Inspect.
Colaboración pionera e impacto global
El lanzamiento de Inspect simboliza la unión de la comunidad de IA y la promoción de la transparencia y la cooperación en todo el planeta. Además de basarse en principios de código abierto y fomentar una cultura colaborativa, el AI Safety Institute UK tiene la misión de aportar un enfoque compartido a las pruebas de seguridad de IA, superando las divisiones geográficas y organizativas. Ian Hogarth, presidente del Safety Institute, afirma que el enfoque colectivo es clave. Inspect debería ser el punto de referencia para evaluaciones estandarizadas y de alto nivel entre todas las partes involucradas, incluidos los sectores y las partes interesadas.
Deborah Raj, experta en ética de IA e investigadora de Mozilla, considera que el desarrollo de Inspect es uno de los ejemplos de los efectos transformadores de la inversión pública en herramientas de responsabilidad de IA de código abierto. El lanzamiento de Inspect tiene repercusión más allá del ámbito académico y la industria, ya que Clément Delangue, director ejecutivo de la startup de IA Hugging Face, aboga por su inclusión en las bibliotecas de modelos actuales y por la creación de una tabla de clasificación pública donde se muestren los resultados de la evaluación.
Un cambio de paradigma transatlántico en la gobernanza de la IA
La presentación de Inspect se enmarca en un amplio reconocimiento de la necesidad de gobernanza y rendición de cuentas a nivel internacional en materia de IA. Estados Unidos y el Reino Unido colaboran, tomando como ejemplo los acuerdos de la Cumbre de Seguridad de IA en Bletchley Park, para desarrollar conjuntamente protocolos de prueba para modelos avanzados de IA. Para empezar, Estados Unidos planea crear un instituto de seguridad de IA, cuya creación se ajusta al objetivo general dedenty resolver los riesgos relacionados con la IA y la IA generativa.
Inspect, la aplicación de IA de última generación, representa un hito importante en el camino de la IA, donde un tema central que lo conecta todo es la transparencia, la rendición de cuentas y la gobernanza responsable. La preocupación por mantener la inteligencia artificial responsable en mente, tanto por parte de las naciones como de las organizaciones, inspira iniciativas como Inspect, que pronostican un futuro prometedor en el que la IA será cada vez más aceptable para los humanos gracias a unatronconsideración del desarrollo de la confianza, la integridad y los valores centrados en el ser humano.

