Microsoft ha prohibido a las fuerzas policiales de Estados Unidos obtener servicios de IA generativa que se ejecuten en Azure OpenAI Service. Este nuevo enfoque, incluido en las condiciones de servicio actualizadas el miércoles, busca responder al creciente dilema ético que enfrenta la IA en las fuerzas del orden.
La actualización de la política destaca las preocupaciones éticas
Las condiciones revisadas establecen expresamente que dichas integraciones no pueden ser utilizadas por ni para las agencias policiales de Estados Unidos. Esta restricción también incluye los modelos de análisis de texto y voz, lo que subraya de Microsoft en el uso responsable de la IA. Como regulación adicional, se ha introducido una cláusula independiente que prohíbe específicamente el uso de la tecnología de reconocimiento facial en tiempo real en cámaras móviles, incluidas las cámaras corporales y las cámaras para salpicadero, en entornos no controlados.
Microsoft prohíbe a los departamentos de policía de EE. UU. utilizar herramientas de inteligencia artificial empresarial https://t.co/OxrFO5scO9
— TechCrunch (@TechCrunch) 2 de mayo de 2024
El detonante de estos movimientos podríadenten los recientes avances de la industria tecnológica. Axon, la reconocida empresa tecnológica especializada en el ámbito militar y policial, acaba de anunciar un producto que utiliza el modelo verbalizador de OpenAI con texto generativo GPT-4 para sintetizar el audio que registran las cámaras corporales. La información falsa generada y su sesgo racial en los datos de entrenamiento se abordaron para mostrar de inmediato las preocupaciones de algunos críticos.
Implicaciones y margen de interpretación
Si bien la política actualizada representa la postura decisiva de Microsoft, aún permite una interpretación. La prohibición del servicio Azure OpenAI se aplica únicamente a la policía estadounidense mientras continúa el despliegue internacional. Además, las limitaciones al uso de la tecnología de reconocimiento facial se aplican únicamente a su uso por parte de las fuerzas del orden estadounidenses, excluyendo las cámaras fijas en entornos controlados.
Esta metodología equilibrada se ajusta a la amplia estrategia de IA de Microsoft para las fuerzas del orden y la defensa. Mientras tanto, a pesar de la prohibición de ciertos usos, la cooperación entre OpenAI y agencias gubernamentales, entre las que el Pentágono es un claro ejemplo, ha ido creciendo paulatinamente. Estas colaboraciones indican un cambio de postura tanto para OpenAI como para Microsoft, que busca aplicaciones de IA en tecnologías militares.
Participación del gobierno y dinámica de la industria
La adopción del de Microsoft por parte de las agencias gubernamentales se ha acelerado gracias a que Azure Government incluye herramientas adicionales de cumplimiento y gestión para casos de uso de las fuerzas del orden. Candice Ling, vicepresidenta sénior dent Microsoft Federal, se encargará de obtener más aprobaciones del Departamento de Defensa para el Servicio Azure OpenAI, demostrando así la utilidad de la plataforma en misiones urgentes.
El dinámico ámbito de la ética y la regulación de la IA exige que las empresas tecnológicas tomen medidas meditadas con antelación. Con su decisión de evitar el uso de la IA en las fuerzas del orden, Microsoft demuestra una tendencia más amplia en la industria a aumentar la responsabilidad y la transparencia en su implementación. Durante las conversaciones sobre la regulación de la IA, los proveedores de tecnología, los responsables políticos y los grupos activistas deberán colaborar para resolver los nuevos problemas de forma ética.
La decisión de Microsoft de impedir que los departamentos de policía de EE. UU. utilicen Azure OpenAI Service en determinados escenarios demuestra el enfoque deliberado y centrado que la compañía está adoptando para abordar las preocupaciones éticas sobre la implementación de la IA. De hecho, la enmienda revela la sinceridad de los responsables políticos y las complejidades que implica este equilibrio. Considerando la evolución de los debates sobre la ética de la IA, las partes interesadas deben participar siempre en un diálogo constructivo para impulsar el crecimiento y la implementación de la IA de forma responsable.

