Microsoft se encuentra entre los desarrolladores de IA que defienden estándares tecnológicos éticos. Por ello, ha lanzado la versión 3 de su estándar de IA responsable. Esta noticia ilustra el espíritu indomable de Facebook al orientar la gobernanza de la IA hacia el beneficio, evitando posibles daños. Theo Watson, asesor corporativo principal y abogado de Microsoft Sudáfrica, explicó que el proceso de desarrollo de la IA, y su posterior uso, es comparable a las cuestiones éticas derivadas de la naturaleza de la energía nuclear en desarrollo.
La hoja de ruta de Microsoft sobre IA ética es, en general, bien conocida
La ética en los sistemas de IA no solo concierne a sus ejecutivos y desarrolladores, sino que también involucra a clientes, instituciones académicas, actores de la industria y entidades gubernamentales, conformando así un ecosistema que se rige por valores éticos fundamentales. La Oficina para la IA Responsable, un elemento clave en este marco, prioriza la ética en la investigación, la formulación de políticas y la ingeniería, y realiza evaluaciones periódicas a lo largo del ciclo de vida de los productos y servicios que involucran IA.
Los esfuerzos de Microsoft por seguir las directrices éticas en su estrategia de IA responsable incluyen equidad, fiabilidad y seguridad, privacidad, diversidad y accesibilidad, transparencia y rendición de cuentas. Los principios relacionados con estos temas no solo abordan los desafíos inherentes, como la accesibilidad y los sesgos, sino que también enfatizan la importancia de un mecanismo de supervisión y de implementación claros. Al enfatizar la transparencia y la rendición de cuentas, Microsoft cumple con el principio fundamental de su director ejecutivo, Satya Nadella, según el cual la confianza es clave para el uso generalizado de cualquier mejora tecnológica.
Operacionalización de la IA ética
Ahora, los principios de IA propuestos por Microsoft se traducen en las reglas operativas que conducen al uso apropiado y seguro de sus tecnologías. Además de defilos objetivos del proyecto, los equipos siguen los parámetros éticos, que incluyen la medición diferida para la trayectoria del régimen y la revisión de datos para verificar la imparcialidad o la inclusión. Esto indica que las empresas trabajarán ahora bajo este modelo, donde la ética se evaluará durante la fase de prediseño y posteriormente hasta que el producto llegue al mercado.
El avance de la tecnología de IA y sus múltiples implicaciones éticas implican que Microsoft, como potencia tecnológica e IA, debe actualizar constantemente sus principios y estándares éticos en materia de IA. La evaluación y la adaptación a medida son elementos esenciales para que la empresa no solo se adapte a las condiciones cambiantes, sino que también aprenda sobre la marcha e incorpore las aportaciones de las partes interesadas.
Promover la accesibilidad y la innovación en IA
Microsoft ha reconocido que la accesibilidad de la IA es un área que requiere una atención especial, por lo que se ha fijado objetivos ambiciosos para ampliar la disponibilidad de su tecnología de IA, lo que contribuye tanto al crecimiento de la innovación como a la creación de nuevas fuerzas competitivas. Los compromisos de la compañía con los clientes de IA y su programa de garantía de IA se han adaptado para satisfacer las necesidades específicas de los sectores altamente regulados, abordando específicamente el intercambio de experiencia y recursos.
La colaboración con fabricantes de semiconductores, centros de datos y varios socios, centrándose en la difusión de los beneficios de la IA, se establece como un resultado del proceso para difundir la utilidad de la IA en todo el mundo, simplemente como una influencia de manipulación de la IA defendida por Microsoft en todo el planeta.
En la Declaración de Bletchley sobre la seguridad de la IA, los 30 países presentaron una declaración que generó el consenso de la comunidad internacional de que las estrategias responsables y el despliegue de la IA deben ser la base de las estrategias de desarrollo e implementación de la IA. Microsoft, al participar en este debate global, promueve un enfoque humanista para responsabilizar a la IA y garantizar que todos los beneficios que brinda a la humanidad se utilicen correctamente.
Protegiendo el futuro con barandillas de IA
Microsoft también ha implementado medidas de seguridad específicas, como el uso de sistemas de IA con frenos de seguridad integrados para aplicaciones de alto riesgo. La interacción de las partes interesadas con la implementación de los protocolos en los diversos sectores sigue siendo importante para articular la supervisión humana. La transparencia en estos procesos es vital, ya que seremos transparentes sobre nuestros proyectos de IA aplicada y aspiramos a establecer alianzas para la implementación de soluciones conjuntas basadas en IA que puedan ayudar a superar los desafíos sociales y de desarrollo.
La colaboración con el Programa de las Naciones Unidas para el Desarrollo y la Unión Africana demuestra el esfuerzo de Microsoft por desarrollar políticas de IA verdaderamente inclusivas, beneficiosas para las diversas comunidades del mundo. Estas iniciativas impulsan el crecimiento basado en la IA y resuelven los principales problemas en un mundo abierto que integra a los gobiernos con el desarrollo social.
Es posible que los principios éticos de IA actualizados de Microsoft demuestren una actitud madura hacia diversos aspectos éticos de la tecnología de IA. La empresa no solo aboga por un enfoque basado en principios para desarrollar una industria de IA justa y transparente, sino que también insta a todas las partes interesadas a construir una industria caracterizada por la ética en la era de la IA, donde la confianza y la responsabilidad son cruciales. Mediante la combinación de esfuerzos y evaluaciones periódicas, Microsoft busca lograr un punto en el que las tecnologías de IA generen innovación y, al mismo tiempo, compartan estándares sociales beneficiosos para la sociedad en su conjunto.

