OpenAI, la principal startup de inteligencia artificial de Estados Unidos, solo prohibió múltiples cuentas en ChatGPT, acusándolas de estar involucrados en el desarrollo de una herramienta de vigilancia.
Según un informe de la compañía publicado en febrero de 2025, las cuentas suspendidas supuestamente tienen lazos con China. Según los informes, estas cuentas utilizaban los modelos de OpenAI para generar descripciones detalladas de una herramienta de escucha en las redes sociales, que según ellos se utilizó para proporcionar comentarios en tiempo real sobre las protestas en Occidente a los servicios de seguridad chinos.
Las cuentas prohibidas también habían encontrado una manera de usar los modelos de OpenAI para depurar el código aparentemente destinado a implementar dicha herramienta.
Por qué se sospecha de China
Operai tiene políticas establecidas para evitar el uso de IA para monitorear las comunicaciones o la vigilancia no autorizada de las personas, incluidas las actividades por o en nombre de los gobiernos que buscan suprimir las libertades y los derechos personales.
Operai pudodentlas cuentas en cuestión basadas en patrones de comportamiento, entre otros hallazgos. Según los informes, algunas de las cosas que las cuentas estaban utilizando los modelos de OpenAI para ayudar a analizar documentos, generar argumentos de venta, descripciones de herramientas para monitorear la actividad de las redes sociales e investigar actores y temas políticos.
Se sospecha que las cuentas tienen orígenes chinos porque sus actividades ocurrieron principalmente durante el horario comercial de China continental, y las cuentas provocaron los modelos de OpenAI con el idioma chino.
OpenAi también descubrió que aquellos detrás de las cuentas estaban utilizando las herramientas de manera consistente con la solicitud manual en lugar de la automatización. En algunos casos, la firma de IA descubrió que una cuenta puede haber tenido múltiples operadores.
Una de las principales actividades de la operación implicó generar descripciones detalladas, consistentes con los argumentos de venta, para lo que se describió como el "Asistente de IA de AI de Opinion Public de Qianyue en el extranjero".
Esta herramienta fue diseñada para analizar publicaciones y comentarios de plataformas como X, Facebook, YouTube, Instagram, Telegram y Reddit y alimentar a las autoridades chinas lo que aprende.
Desafortunadamente, Operai no ha podido verificardentestas descripciones, y eldent ha puesto a los Estados Unidos en alerta máxima. Según el investigador principal de OpenAi, Ben Nuimmo, este caso es un ejemplo de cómo regímenes autoritarios como China pueden tratar de aprovechar la tecnología construida por Estados Unidos contra los Estados Unidos y sus aliados.
"Esta es una visión bastante preocupante de la forma en que un actor no democrático intentó usar la IA democrática o con sede en los Estados Unidos para fines no democráticos, de acuerdo con los materiales que estaban generando ellos mismos".
Operai también ha revelado que las cuentas hicieron referencia a otras herramientas de IA, incluida una versión de Llama, el modelo de IA de código abierto de Meta.
Este caso viene no mucho después de la creación de Deepseek
Operai ha estado sonando la alarma sobre los peligros de la IA china, especialmente después de que Deepseek se derritió con su modelo de razonamiento R1, que venció a muchos otros modelos hechos en los Estados Unidos en puntos de referencia y causó una gran venta de tecnología en los mercados estadounidenses.
Deepseek es discutible, y sus creadores afirman haberlo creado a una fracción del costo que la mayoría de los modelos estadounidenses utilizan para construir los suyos. Este reclamo se ha encontrado con reacciones mixtas del público, pero muchos expertos están convencidos de que fue una exageración.
Operai no solo está convencido de que el equipo detrás de Deepseek gastó más en él, sino que también ha acusado a Deepseek de destilar el resultado de sus modelos para hacer la suya.
Según un informe de Bloomberg, Microsoft, un importante inversor en OpenAI, ahora está investigando si los datos que pertenecen a la empresa se han utilizado sin autorización.
David Sacks, la recientemente designada de la Casa Blanca "AI y Crypto Czar", ha hecho eco de las preocupaciones de OpenAI, lo que sugiere que Deepseek puede haber utilizado los modelos de la empresa estadounidense de IA para mejorar, un proceso denominado destilación de conocimiento.
"Hay evidencia sustancial de que lo que hizo Deepseek aquí es que destilaron el conocimiento de los modelos de OpenAi", dijo .
Agregó que en los próximos meses, las compañías líderes de IA en Estados Unidos comenzarán a tomar medidas para evitar la destilación con la esperanza de que ralentice algunos de los modelos de imitación.
Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora