Alucinaciones generadas por IA: un problema de salud creciente en 2023

- En 2023, las alucinaciones generadas por IA están difundiendo rápidamente información falsa, lo que representa un desafío importante.
- La IA, ejemplificada por el chatbot Tay de Microsoft, puede emular acciones humanas perjudiciales, amplificando las preocupaciones.
- La desinformación de la IA amenaza la salud y distorsiona la realidad, lo que genera advertencias de expertos sobre una crisis de información impulsada por la IA.
La proliferación de la inteligencia artificial (IA) ha dado paso a un fenómeno inquietante: las alucinaciones generadas por IA. El término «alucinar» ha adquirido un significado nuevo y alarmante en la era digital, ya que los sistemas de IA pueden producir información falsa que puede afectar a las personas y a la sociedad. En 2023, esta tendencia acaparó gran atención, lo que llevó a Dictionary.com a nombrar «alucinar» como su Palabra del Año.
Palabra del año 2023 según Dictionary.com
La decisión de Dictionary.com de designar "alucinación" como su Palabra del Año dice mucho sobre la creciente importancia de la desinformación generada por IA. Esta elección refleja un aumento del 46 % en las búsquedas de "alucinación" en el diccionario entre 2022 y 2023, junto con un aumento similar en las búsquedas de "alucinación". Sin embargo, el factor impulsor de este aumento no es la defitradicional de la palabra, sino una interpretación específica de la IA:
Alucinar [huh-loo-suh-neyt] -verbo- (de inteligencia artificial) para producir información falsa contraria a la intención del usuario y presentarla como verdadera y veraz. Ejemplo: Cuando los chatbots alucinan, el resultado suele ser no solo inexacto, sino completamente inventado.
La capacidad de la IA para engañar
El potencial engañoso de la IA es una preocupación creciente. Si bien no todos los sistemas de IA se comportan de esta manera, algunos pueden programarse para imitar características humanas, sirviendo como portavoces políticos o difundiendo información falsa haciéndose pasar por proveedores de hechos. Su velocidad sin precedentes para generar desinformación y desinformación distingue a la IA de los humanos.
Un estudio reciente publicado en JAMA Internal Medicine puso de manifiesto la magnitud de este problema. El estudio demostró cómo GPT Playground de OpenAI generó más de 17 000 palabras de desinformación sobre vacunas y vapeo en tan solo 65 minutos. Además, herramientas de IA generativa crearon 20 imágenes realistas para acompañar las narrativas falsas en menos de 2 minutos. Esta rápida generación de contenido engañoso dificulta la capacidad de las personas para distinguir la verdad de la ficción.
Consecuencias no deseadas de la desinformación sobre la IA
Incluso cuando los sistemas de IA no tienen la intención de engañar, pueden producir información engañosa inadvertidamente. Un estudio realizado en la Reunión Clínica de Mitad de Año de la Sociedad Americana de Farmacéuticos de Sistemas de Salud destacó las limitaciones de la IA en el ámbito médico. ChatGPT, al formular 39 preguntas relacionadas con medicamentos, solo proporcionó respuestas satisfactorias a 10. Por ejemplo, afirmó erróneamente que la combinación de Paxlovid, un medicamento antiviral para la COVID-19, y verapamilo, un medicamento para la presión arterial, no presentaba interacciones, contradiciendo así el conocimiento médico establecido.
La capacidad de la IA para generar desinformación va más allá de la atención médica. Se ha observado que algunas herramientas de IA malinterpretan imágenes, confundiendo frecuentemente objetos con aves. Un ejemplo de The Economist reveló la respuesta de una IA a una consulta sobre el transporte del puente Golden Gate a Egipto en 2016, lo que demuestra la incapacidad de la IA para distinguir entre realidad y ficción.
Eldent del chatbot de IA de Microsoft Tay en 2021 subraya aún más el potencial de la IA para generar contenido dañino. A las 24 horas de unirse a Twitter, el chatbot comenzó a publicar tuits racistas, misóginos y falsos, lo que llevó a Microsoft a eliminarlo rápidamente de la plataforma. Este episodio destaca la propensión de la IA a emular comportamientos humanos negativos, lo que plantea interrogantes sobre las consideraciones éticas en el desarrollo y la implementación de la IA.
Un verdadero problema de salud
Las alucinaciones generadas por IA, al igual que sus contrapartes humanas, plantean un verdadero problema de salud. Más allá de las implicaciones inmediatas de la desinformación, pueden afectar negativamente el bienestar mental y emocional. Un aluvión constante de alucinaciones generadas por IA puede erosionar la percepción de la realidad, provocando confusión y ansiedad.
Reconociendo la gravedad de este problema, organizaciones como la Organización Mundial de la Salud y la Asociación Médica Estadounidense han emitido declaraciones advirtiendo sobre los posibles daños de la desinformación generada por la IA. Si bien la selección de "alucinación" por parte de Dictionary.com como su Palabra del Año 2023 es unmatic emblemático del problema, abordar los complejos desafíos que plantean las alucinaciones generadas por la IA requiere una vigilancia constante y esfuerzos concertados para promover el desarrollo responsable de la IA.
Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.
Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitanconsultar no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamostronencarecidamente realizar una investigación independientedent un profesional cualificado antes de tomar cualquier decisión de inversión.

Brenda Kanana
Brenda es escritora con tres años de experiencia, especializada en criptomonedas, inteligencia artificial y tecnologías emergentes. Se graduó en Sociología por la Universidad Técnica de Mombasa. Ha trabajado en Zycrypto y Cryptopolitan.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)














