El reciente lanzamiento de modelos de lenguaje avanzados como ChatGPT4, Bard y Bing Chat ha despertado un interés generalizado en la ética de la IA. Muchos buscan comprender los conceptos subyacentes que rigen los riesgos potenciales que plantean estas tecnologías de vanguardia. Este artículo tiene como objetivo analizar ideas cruciales presentadas en una charla de 2021 sobre ética de la IA, enfatizando la necesidad de una comprensión más profunda más allá de la mera explicabilidad y justicia.
Si bien la explicabilidad a menudo se promociona como un aspecto crucial de la IA ética, es insuficiente por sí sola. La verdadera pregunta radica en si las explicaciones proporcionadas son viables. Tomemos, por ejemplo, la denegación de un préstamo mediante un algoritmo. En lugar de justificar la decisión, el sistema debería ofrecer recursos viables, permitiendo a las personas rectificar su situación para futuras solicitudes de préstamos. Este concepto de recurso procesable se vuelve primordial en las decisiones que afectan la vida de las personas.
La contestabilidad en el centro
La impugnabilidad sugiere incorporar mecanismos para cuestionar y estar en desacuerdo con los resultados de la IA dentro del núcleo del sistema. Esto desafía la práctica común de agregar la resolución de disputas como una capa externa después de que se hayan producido posibles errores. La idea es construir sistemas que inviten activamente al desacuerdo y al cuestionamiento, fomentando un panorama de IA más resiliente y responsable.
Abordar la equidad y los prejuicios es crucial, pero no garantiza por sí solo una IA ética. La investigación de Gender Shades sobre el reconocimiento facial reveló disparidades significativas en la precisión según el género y el color de la piel. El énfasis debería pasar de simplemente igualar el desempeño entre grupos a cuestionar los fundamentos subyacentes, el despliegue y la propiedad de las tareas de IA. La dinámica, la creación y el uso del poder desempeñan papeles fundamentales en las consideraciones éticas.
Implicaciones dañinas a escala
La escala a la que se implementa la IA puede exacerbar las preocupaciones éticas. El programa Robodebt en Australia, que utiliza la automatización para crear deudas ilegales, ejemplifica el lado oscuro de la capacidad del aprendizaje automático para centralizar el poder. Los sistemas automatizados, que carecen de mecanismos de verificación de errores, pueden provocar daños generalizados y replicar sesgos a una escala dent precedentes, como se ve en varios ejemplos del mundo real.
Un aspecto de la ética de la IA que a menudo se pasa por alto es el reconocimiento inmediato de los problemas por parte de aquellos directamente afectados. Casos como el uso indebido del reconocimiento facial en protestas o el papel de Facebook en el genocidio de Myanmar resaltan la importancia de escuchar las preocupaciones planteadas por las comunidades afectadas. Dar voz y vías de participación a los más afectados es crucial para mitigar los riesgos éticos.
Bucles de retroalimentación y cambio de poder
Los bucles de retroalimentación, donde los modelos de IA crean los resultados que predicen, plantean desafíos adicionales. Los datos contaminados por resultados sesgados y la amplificación de los sesgos existentes en los modelos de aprendizaje automático subrayan la necesidad de cuestionar no solo la equidad sino también el cambio en la dinámica de poder. Las aplicaciones de IA deben evaluarse en función de cómo redistribuyen o concentran el poder en la sociedad.
El artículo concluye con recursos prácticos para implementar prácticas éticas de IA. El kit de herramientas de ética tecnológica del Centro Markkula de Ética Aplicada proporciona prácticas viables para las organizaciones, enfatizando la importancia de ampliar el círculo ético para considerar a todas las partes interesadas. La guía Diverse Voices del Tech Policy Lab de la Universidad de Washington ofrece información sobre cómo reunir diversos paneles para garantizar que se considere una amplia gama de perspectivas.
En el panorama cambiante de la IA, es fundamental comprender e implementar principios éticos más allá de los conceptos superficiales. Este artículo destaca las complejidades involucradas en la ética de la IA, instando a las partes interesadas a profundizar en los recursos procesables, la impugnabilidad y los impactos en las comunidades marginadas. Al adoptar enfoques participativos y democráticos, el campo puede avanzar hacia una integración más responsable y ética de las tecnologías de IA.