COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

ChatGPT finalmente dice 'David Mayer' pero falla en 5 nombres en medio de demandas de IA

En esta publicación:

  • ChatGPT ya no falla cuando se le pregunta sobre "David Mayer".
  • La herramienta OpenAI deja de responder cuando se le pregunta sobre otros nombres específicos.
  • Las demandas en curso enfatizan la necesidad de que las empresas de inteligencia artificial den prioridad a la privacidad de los datos.

Las herramientas de inteligencia artificial (IA) como ChatGPT de OpenAI pueden realizar varias funciones, pero los usuarios ocasionalmente descubren fallos. Recientemente, surgieron informes de que ChatGPT dejó de funcionar cuando se le preguntó sobre ciertos nombres, como David Mayer.

La comunidad ahora cuestiona el manejo que hace el modelo de datos confidenciales o legalmente complejos. Podemos esperar a que las herramientas de inteligencia artificial aborden más preocupaciones sobre la privacidad en medio de varias demandas.

ChatGPT no revela quién es David Mayer

de OpenAI dejó de funcionar cuando se le preguntó sobre nombres específicos el fin de semana pasado. TechCrunch citó a usuarios que informaron sobre una lista de nombres prohibidos, que incluía a "David Mayer", lo que hizo que el chatbot se congelara o fallara sin responder.

Cuando Cryptopolitan comprobó cómo respondía el chatbox basado en el modelo de lenguaje Generative Pre-trained Transformer (GPT) el martes, los resultados fueron similares pero no exactamente iguales.

¿Cómo respondió ChatGPT a una consulta sobre David Mayer?
Así respondió ChatGPT a una consulta sobre David Mayer

Resulta que David Mayer ya un nombre prohibido. Según ChatGPT-4o, Mayer es un nombre bastante común, aunque no pudo especificar la persona. Cuando se le preguntó sobre el fallo anterior, ChatGPT lo restó importancia y dijo: "

¡Ya veo a qué te refieres! Es posible que haya habido casos en los que se produjeron fallos o errores con el formato, la ortografía o la generación de contenido, pero nada específicamente relacionado con la mala ortografía constante del nombre 'David Mayer'.

También recomendó informar sobre respuestas "extrañas e inconsistentes".

Ver también  Meta Platforms despide a más de 100 empleados en la reestructuración de laboratorios de la realidad

Otros nombres (Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber y Guido Scorza) provocaron un mal funcionamiento del sistema durante el fin de semana y nuevamente el martes cuando lo comprobamos.

OpenAI podría estar manejando datos confidenciales de manera diferente
OpenAI podría estar manejando datos confidenciales de manera diferente: Informe

El informe encuentra que estos nombres pertenecen a figuras públicas o semipúblicas, como periodistas, abogados o personas que pueden haber estado involucradas en disputas legales o de privacidad con OpenAI. Por ejemplo, se informó que ChatGPT tergiversó al individuo llamado Hood en el pasado, lo que llevó a discusiones legales con OpenAI.

Se han acumulado demandas contra empresas

TechCrunch supone que OpenAI podría ser cauteloso con la lista de nombres para manejar la información confidencial o legalmente protegida de manera diferente. Posiblemente podría ser para cumplir con leyes de privacidad o acuerdos legales. Sin embargo, un mal funcionamiento del código puede provocar que el chatbot falle cada vez que se busca información sobre los nombres mencionados.

A lo largo de los años, se llevaron a cabo varios casos entre empresas de inteligencia artificial por generar información incorrecta o violar el marco de . En un caso de 2020, Janecyk contra International Business Machines, el fotógrafo Tim Janecyk afirmó que IBM utilizó indebidamente imágenes en las que los fotógrafos hicieron clic con fines de investigación sin consentimiento. No hace mucho, la IA Gemini de Google enfrentó críticas por sus capacidades de generación de imágenes, lo que llevó a su suspensión temporal. En la demanda colectiva PM contra OpenAI LP presentada en 2023, OpenAI fue acusada de utilizar "información privada robada" sin consentimiento.

Ver también  China se compromete a la 'autosuficiencia' en la IA para desafiar el dominio de la tecnología estadounidense

En 2024, la agencia de noticias india ANI supuestamente presentó una demanda contra OpenAI por utilizar material protegido por derechos de autor de la empresa de medios para formar el LLM.

A medida que las herramientas de IA se integran cada vez más en la vida diaria,dentcomo estos subrayan la importancia de las consideraciones éticas y legales en su desarrollo. Ya sea salvaguardando la privacidad, garantizando información precisa o evitando fallas relacionadas con datos confidenciales, empresas como OpenAI enfrentan la tarea de generar confianza mientras perfeccionan su tecnología. Estos desafíos nos recuerdan que incluso los sistemas de IA más avanzados requieren una vigilancia continua para abordar complejidades técnicas, éticas y legales.

Academia Cryptopolitan: Próximamente, una nueva forma de obtener ingresos pasivos con DeFi en 2025. Obtenga más información

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Mas leido

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

elección del editor

Cargando artículos elegidos por el editor...

- El boletín de cifrado que te mantiene por delante -

Los mercados se mueven rápidamente.

Nos movemos más rápido.

Suscríbase a Cryptopolitan diariamente y obtenga ideas criptográficas oportunas, agudas y relevantes directamente a su bandeja de entrada.

Únete ahora y
nunca te pierdas un movimiento.

Entra. Obtén los hechos.
Adelantarse.

Suscríbete a CryptoPolitan