ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

ChatGPT finalmente menciona "David Mayer", pero falla en 5 nombres en medio de demandas por inteligencia artificial

PorShraddha SharmaShraddha Sharma
Lectura de 2 minutos.
El logotipo de OpenAI de Chatgpt sobre un fondo negro
  • ChatGPT ya no se bloquea cuando se pregunta por “David Mayer”
  • La herramienta OpenAI deja de responder cuando se le pregunta por otros nombres específicos.
  • Las demandas en curso enfatizan la necesidad de que las empresas de IA prioricen la privacidad de los datos.

Las herramientas de inteligencia artificial (IA) como ChatGPT de OpenAI pueden realizar diversas funciones, pero los usuarios ocasionalmente detectan fallos. Recientemente, surgieron informes de que ChatGPT dejó de funcionar al consultar sobre ciertos nombres, como David Mayer.

La comunidad ahora cuestiona el manejo que hace el modelo de datos sensibles o legalmente complejos. Podemos esperar a que las herramientas de IA aborden más preocupaciones sobre la privacidad en medio de varias demandas.

ChatGPT no revela quién es David Mayer

de OpenAI dejó de funcionar el fin de semana pasado al ser consultado sobre nombres específicos. TechCrunch citó a usuarios que reportaron una lista de nombres que no se podían usar, entre ellos "David Mayer", lo que provocó que el chatbot se bloqueara o fallara sin responder.

Cuando Cryptopolitan verificó el martes cómo respondía el chatbox basado en el modelo de lenguaje Generative Pre-trained Transformer (GPT), los resultados fueron similares pero no exactamente iguales.

¿Cómo respondió ChatGPT a una consulta sobre David Mayer?
Así respondió ChatGPT a una consulta sobre David Mayer

Resulta que David Mayer ya un nombre prohibido. Según ChatGPT-4o, Mayer es un nombre bastante común, aunqueno pudo especificar a la persona. Cuando se le preguntó sobre el fallo anterior, ChatGPT lo minimizó diciendo:

¡Entiendo a qué te refieres! Puede que haya habido casos de fallos o errores de formato, ortografía o generación de contenido, pero nada relacionado específicamente con escribir mal el nombre «David Mayer» constantemente

También recomendó informar sobre las respuestas “extrañas e inconsistentes”.

Otros nombres (Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber y Guido Scorza) provocaron un mal funcionamiento del sistema durante el fin de semana y nuevamente el martes cuando lo revisamos.

OpenAI podría estar manejando datos confidenciales de manera diferente
OpenAI podría estar manejando datos confidenciales de manera diferente - Informe

El informe revela que estos nombres pertenecen a figuras públicas o semipúblicas, como periodistas, abogados o personas que podrían haber estado involucradas en disputas legales o de privacidad con OpenAI. Por ejemplo, ChatGPT supuestamente tergiversó la identidad de Hood en el pasado, lo que dio lugar a discusiones legales con OpenAI.

Las demandas se han acumulado contra las empresas

TechCrunch cree que OpenAI podría ser cauteloso con la lista de nombres para gestionar de forma diferente la información sensible o legalmente protegida. Podría ser para cumplir con las leyes de privacidad o acuerdos legales. Sin embargo, un fallo en el código podría provocar que el chatbot falle al buscar información sobre los nombres mencionados.

varias demandas se han contra empresas de IA por generar información incorrecta o infringir la normativa. En el caso de 2020, Janecyk contra International Business Machines, el fotógrafo Tim Janecyk alegó que IBM utilizó indebidamente imágenes que él mismo había tomado con fines de investigación sin su consentimiento. No hace mucho, la IA Gemini de Google fue objeto de críticas por sus capacidades de generación de imágenes, lo que provocó su suspensión temporal. En la demanda colectiva PM contra OpenAI LP, presentada en 2023, OpenAI fue acusada de utilizar información privada robada sin consentimiento.

En 2024, la agencia de noticias india ANI presentó una demanda contra OpenAI por utilizar material protegido por derechos de autor de la empresa de medios para entrenar el programa LLM.

A medida que las herramientas de IA se integran cada vez más en la vida cotidiana,dentcomo estos subrayan la importancia de las consideraciones éticas y legales en su desarrollo. Ya sea para proteger la privacidad, garantizar la precisión de la información o evitar fallos de funcionamiento relacionados con datos sensibles, empresas como OpenAI se enfrentan a la tarea de generar confianza mientras perfeccionan su tecnología. Estos desafíos nos recuerdan que incluso los sistemas de IA más avanzados requieren una vigilancia constante para abordar las complejidades técnicas, éticas y legales.

Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.

Comparte este artículo

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO