Cómo la aptitud de la IA para la desinformación revela capacidades impresionantes pero inquietantes de ChatGPT-3

- Los generadores de texto de IA como ChatGPT-3 pueden producir de manera convincente información tanto veraz como falsa, lo que genera preocupación por la desinformación en las redes sociales.
- A las personas les cuesta distinguir entre el contenido generado por humanos y el generado por IA, lo que revela la sofisticación de ChatGPT-3.
- La urgente necesidad de alfabetización digital y vigilancia para abordar el posible mal uso de la tecnología de IA en la difusión de desinformación.
Una investigación reciente publicada en Science Advances destaca las extraordinarias capacidades de los generadores de texto con IA, como ChatGPT-3 de OpenAI, para difundir de forma convincente información veraz y falsa en las redes sociales. El estudio enfatiza los desafíos dedentel contenido generado por IA y el impacto de la desinformación generada por IA en la salud individual y pública. El Dr. Federico Germani, coautor e investigador del Instituto de Ética Biomédica e Historia de la Medicina de la Universidad de Zúrich, enfatiza la necesidad de comprender los riesgos asociados a la información falsa y la influencia de la IA en el panorama informativo.
¿Cuál es la diferencia entre desinformación y desinformación?
La información errónea es información falsa o inexacta: tergiversar los hechos. La desinformación es información falsa con la intención deliberada de engañar: tergiversar los hechos intencionalmente. Según la Asociación Estadounidense de Psicología, la información errónea y la desinformación han afectado nuestra capacidad para mejorar la salud pública, abordar el cambio climático, mantener una democracia estable, entre otros aspectos. Cualquiera que hable sobre temas polémicos en las redes sociales puede verse envuelto en una gran controversia. ¿Cómo pueden protegerse al comunicar los hechos y qué pueden hacer las instituciones para apoyarlos? La mentalidad de masas en las redes sociales hace que el público sea vulnerable a la supuesta autoridad de la IA, es decir, que estos datos son “científicos” y, por lo tanto, aceptables. Pero ¿es realmente inteligente la IA?
El poder de ChatGPT-3 para la desinformación
ChatGPT-3 de OpenAI, presentado en 2020, ha revolucionado el panorama de la IA gracias a su asombrosa capacidad para producir textos auténticos a partir de indicaciones. Los usos potenciales de los generadores de texto de IA parecen infinitos, desde la creación de chatbots interactivos hasta la asistencia a la investigación académica y la generación de contenido creativo como poesía y relatos.
El estudio arroja luz sobre importantes preocupaciones en torno al posible uso indebido de los generadores de texto de IA, en particular su capacidad para generar desinformación y contenido engañoso. Con el auge de las redes sociales, la velocidad y el alcance de la información, incluyendo la desinformación, se han intensificado, lo que hace más urgente abordar este problema.
Otro estudio empírico reveló que las personas suelen sobreestimar su capacidad para detectar información falsa o engañosa, lo que se conoce como el "punto ciego de la información falsa". Eventos recientes como la pandemia de COVID-19 y la invasión rusa de Ucrania han demostrado la influencia de la desinformación en la opinión pública, los comportamientos de salud y las decisiones políticas.
Desafíos para las empresas de redes sociales
A pesar de los esfuerzos de las empresas por combatir la información falsa en sus plataformas, el Informe de Amenazas Adversas del primer trimestre de 2023 de Meta reconoce que las operaciones de influencia encubiertas, el espionaje cibernético y las redes privadas de desinformación continúan planteando problemas importantes en las redes sociales.
El Dr. Germani y sus colegas realizaron un estudio para evaluar la capacidad de las personas para distinguir entre contenido generado por humanos y texto creado con ChatGPT-3. El estudio involucró a 11 sujetos susceptibles a la desinformación, y se crearon tuits sintéticos que contenían información veraz y falsa utilizando ChatGPT-3. También se incluyeron tuits auténticos de Twitter sobre los mismos temas para fines de comparación.
Se pidió a los participantes del estudio quedentsi un tuit contenía información verdadera o falsa y si había sido creado por una persona o por ChatGPT-3. Los resultados revelaron que las personas eran más competentes paradentdesinformación en tuits "orgánicos falsos" (escritos por usuarios reales) que en tuits "sintéticos falsos" (creados por ChatGPT-3). Por el contrario, era más probable que las personas reconocieran correctamente la información precisa en tuits "sintéticos verdaderos" (generados por ChatGPT-3) que en tuits "orgánicos verdaderos" (escritos por usuarios reales).
El desafío de la diferenciación
El estudio destacó que los participantes tenían dificultades para diferenciar entre los tuits escritos por humanos y los generados por ChatGPT-3. Los investigadores sugieren que el texto de GPT-3 podría ser más fácil de leer y comprender, lo que podría contribuir a esta dificultad. Curiosamente, ChatGPT-3 no tuvo un mejor rendimiento que los humanos en el reconocimiento de información y desinformación, lo que demuestra su desconocimiento de la precisión de la información que producía.
El Dr. Germani enfatiza la necesidad de realizar estudios a mayor escala en las plataformas de redes sociales para comprender cómo interactúan las personas con la información generada por IA y cómo esta influye en el comportamiento y la adherencia a las recomendaciones de salud pública. El estudio destaca las capacidades sindentde los generadores de texto de IA y enfatiza la urgencia de la alfabetización digital en la era de la IA.
Monitoreo y mitigación de efectos negativos
Los investigadores enfatizan la importancia de evaluar críticamente las implicaciones de grandes modelos lingüísticos como ChatGPT-3 y tomar medidas para mitigar cualquier efecto negativo que puedan tener en la sociedad. A medida que la tecnología de IA continúa evolucionando, la vigilancia es crucial para garantizar su uso responsable y abordar posibles abusos.
Los hallazgos del estudio revelan la impresionante, aunque inquietante, capacidad de los generadores de texto de IA para generar desinformación de forma más convincente que los humanos. A medida que aumenta la influencia y la popularidad de los generadores de texto de IA, el estudio subraya la necesidad de medidas proactivas para combatir la desinformación y garantizar el uso responsable de la tecnología de IA.
Nota: La imagen destacada muestra una figura robótica impulsada por IA que genera una nube de texto distorsionado que la rodea, fría y calculadora por diseño.
No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.
Descargo de responsabilidad: La información proporcionada no constituye asesoramiento financiero. Cryptopolitanno se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostronencarecidamente realizar una investigación independientedent o consultar con un profesional cualificado antes de tomar cualquier decisión de inversión.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)















