Como sabemos, el concepto de endogamia implica la corrupción del genoma cuando individuos de un grupo genéticamente similar se reproducen. Esto suele provocar deformidades y otros problemas de salud en los recién nacidos. Lo mismo ocurre actualmente con los modelos de IA, que se entrenan con contenido de otra IA, ya que internet se llena cada vez más de contenido generado por IA. Esta endogamia de la IA resultará en una producción de contenido poco fiable y de peor calidad, lo que, según los expertos, afectará negativamente a las elecciones estadounidenses de este año.
Cuando se lanzaron los modelos de IA para optimizar tareas y ahorrar tiempo a los creadores de contenido, se entrenaron con contenido generado por humanos, incluyendo texto, audio y videos. Y ahora, la mayor parte del contenido disponible en línea es generado principalmente por IA, ya que internet está inundado de contenido y los modelos de IA procesan datos de baja calidad para su entrenamiento.
Esto tendrá consecuencias a largo plazo para la sociedad humana y la evolución de la tecnología de IA, ya que el acervo genético limpio se está reduciendo. Por acervo genético limpio, nos referimos al contenido creado originalmente por humanos y disponible para el entrenamiento de la IA. Según los expertos, se estima que en pocos años, el contenido generado por IA podría alcanzar casi el 90 % del contenido total disponible en internet. Plataformas como ChatGPT, Gemini y Dall-E difunden diariamente enormes volúmenes de contenido en las plataformas en línea, desde blogs hasta redes sociales e incluso en los principales medios de comunicación.

IA estéril por delante
Según los expertos, la IA generativa podría estar en declive, ya que podríamos haber alcanzado su punto álgido. Silicon Valley también está preocupado por esta crisis, pues temen que la inteligencia artificial esté a punto de estallar, ya que los inversores podrían considerarla una moda pasajera y que ya no se le puede sacar mucho provecho.
Bernard Marr, autor y asesor de empresas tecnológicas, respaldó un artículo de Forbes junto con su propia opinión.
La #IAGenerativa corre el riesgo de generar endogamia, donde el contenido generado por IA utilizado para entrenar futuras IAs conlleva una disminución de la calidad y la #diversidad , similar a los efectos de la endogamia genética. Esto podría degradar la capacidad de la IA para simular el lenguaje humano y la #creatividad. https://t.co/lgVvx6VqOK
—Bernard Marr (@BernardMarr) 28 de marzo de 2024
SwissCognitive, firma de investigación y asesoría en IA, también afirmó que la endogamia generada por la IA representa un riesgo para la creatividad y la diversidad. Añadió que se requieren datos recientes generados por humanos para mantener la eficacia y la solidez de la IA.
La endogamia en IA podría causar estragos en las elecciones estadounidenses
La endogamia en la IA es un riesgo real. Supongamos que se está entrenando un modelo de IA con datos de otro modelo, ya que solo se dispone de datos de esfuerzos anteriores. Imaginemos que los datos anteriores presentaban diversos sesgos y discrepancias, o conjuntos de datos mal elaborados. Ahora, el nuevo modelo de IA solo respaldará esos sesgos. Con la inmensa cantidad de desinformación sobre las elecciones, incluyendo deepfakes, las noticias falsas sobre candidatos y trabajadores políticos pueden tener los mismos efectos negativos en las próximas elecciones, según los expertos.
El Washington Post dijo en un artículo:
Los anuncios políticos nunca se han caracterizado por representar con precisión al oponente del candidato, y ahora la inteligencia artificial amenaza con hacer que la tergiversación sea más realista que nunca. En lugar de esperar a que la IA sembre el caos en las elecciones de 2024, los reguladores, legisladores y partidos políticos deberían actuar ya
Fuente: Washington Post .
Podemos darnos cuenta de lo devastadores que pueden ser los efectos del contenido manipulado con inteligencia artificial por opositores, partidarios acérrimos o actores extranjeros que intentan desestabilizar el proceso democrático.
Issue One, un grupo de reforma política de Washington, compartió un tuit que incluía una noticia de The Philadelphia Inquirer. El tuit de Issue One es solo un vistazo a las preocupaciones que estos grupos albergan.
Los expertos electorales temen el potencial de la IA para causar estragos en las elecciones: pruebas falsas de mala conducta de los candidatos, videos falsos de trabajadores electorales destruyendo papeletas o impidiendo que la gente vote, etc. https://t.co/C94E2CuGAp
— Número uno (@IssueOneReform) 9 de abril de 2024
Como sabemos, las herramientas de IA pueden manipular fácilmente la información en su contra, y están disponibles para cualquiera que desee usarlas. Junto con los grupos patrocinados por estados, se ha convertido en una seria amenaza, y la disponibilidad de las redes sociales para viralizar el contenido es la guinda del cake . Un pequeño ejemplo son las noticias falsas de la plataforma X sobre "Irán atacando a Israel con misiles pesados", que pueden cambiar drásticamente el estado de ánimo del público. Lo gracioso es que la noticia fue generada por el propio chatbot de la plataforma.
Y no olviden la llamada falsa que imitaba la voz de Biden, intentando disuadir al público de votar antes de las primarias, a solo dos días de la jornada electoral. Tanto si aman como si odian a Biden, estas tácticas malignas influyen. Estamos a punto de presenciar algunos acontecimientos interesantes.

