Un informe reciente de la UNESCO ha arrojado luz sobre el persistente sesgo de género perpetuado por los modelos contemporáneos de Inteligencia Artificial ( IA ). A pesar de los esfuerzos en curso para mitigar los prejuicios, el estudio encontró que los sistemas de inteligencia artificial, incluidos los modelos de lenguaje grande (LLM), son propensos a amplificar los prejuicios sociales, particularmente en torno al género.
Sesgo de género en los modelos de IA
El informe reveló que los LLM populares a menudo generan contenido sexista y misógino, lo que refleja prejuicios sociales. Por ejemplo, cuando se le solicitaron oraciones que mencionaran el género y la dent sexual, el modelo Llama 2 de código abierto de Meta produjo resultados que contenían lenguaje sexista o misógino en el 20% de los casos. Si bien algunos modelos de IA, como ChatGPT, mostraron un mejor comportamiento, los sesgos seguían presentes incluso después de realizar ajustes.
La UNESCO advirtió que, si no se aborda, el sesgo algorítmico podría arraigarse más profundamente en sectores críticos como la salud y las finanzas. Los algoritmos de IA sesgados podrían exacerbar las disparidades de género existentes en estos campos, obstaculizando los esfuerzos para lograr la igualdad de género.
Una de las preocupaciones importantes destacadas en el informe es el impacto de los datos médicos sesgados en los sistemas de salud impulsados por IA. Históricamente, las prácticas de recopilación de datos han favorecido a los sujetos masculinos, lo que ha generado brechas de género en los datos de entrenamiento de IA. Este sesgo tiene consecuencias tangibles, como lo demuestra un estudio de herramientas de inteligencia artificial utilizadas para detectar enfermedades hepáticas, que omitió el 44% de los casos en mujeres debido a datos de entrenamiento sesgados hacia los hombres.
Abordar el desequilibrio
Sandy Carter, directora de operaciones de Unstoppable Domains, enfatizó la importancia de abordar la brecha de género en los datos de capacitación de IA. Abogó por una mayor transparencia de los datos para resaltar los sesgos de género y propuso enfoques novedosos como la obtención colectiva de datos sobre la salud de las mujeres o la generación de datos sintéticos para mitigar las discrepancias.
Carter subrayó la necesidad de una representación justa en los datos de entrenamiento para desarrollar sistemas de IA equitativos. Al incorporar diversas fuentes de datos y adoptar la transparencia en las prácticas de recopilación de datos, los desarrolladores pueden trabajar para minimizar los sesgos en los modelos de IA.
El informe de la UNESCO sirve como un claro recordatorio del desafío actual que plantea el sesgo de género en la IA. Para construir de IA que sirvan a todos los usuarios de manera equitativa, se necesitan esfuerzos concertados para abordar los sesgos en cada etapa del desarrollo, desde la recopilación de datos hasta la implementación del modelo.
Al generar conciencia sobre estos problemas y abogar por prácticas inclusivas, las partes interesadas pueden trabajar para aprovechar el potencial de la IA para promover la igualdad de género en la atención médica y más allá. Sólo a través de una acción colaborativa y un compromiso con la justicia se podrá hacer realidad la promesa de la tecnología de IA para todas las personas, independientemente de su género.