FREE REPORT: A New Way to Earn Passive Income in 2025 DOWNLOAD

El CEO de Anthrope dice que los modelos de IA "probablemente" alucinan menos que los humanos

En esta publicación:

  • El CEO de Anthrope, Dario Amodei, dijo que los modelos actuales de IA alucinan menos que los humanos.
  • También señaló que las alucinaciones de IA no son una limitación para el camino de Anthrope hacia AGI.
  • El CEO de la firma tambiéndent en que los modelos de IA presentan cosas falsas, ya que los hechos pueden ser un problema.

El CEO de Anthrope, Dario Amodei, dijo que los modelos actuales de IA alucinan menos que los humanos. También dijo que los modelos de IA de hoy están inventando las cosas y presentándolas como si fueran ciertas, lo que no limitará el camino de Anthrope hacia AGI.

Durante la sesión informativa de la prensa en el primer evento de desarrollador de Anthrope, Code With Claude, en San Francisco el jueves, AmoDei también argumentó que los emisores de televisión, los políticos y los humanos en todo tipo de profesiones cometen errores todo el tiempo. Según él, el hecho de que AI también comete errores también no es un golpe en su inteligencia. 

Amodei dice que las alucinaciones de IA no descarrilarán los objetivos de Anthrope

Amodei hizo los comentarios al tiempo que reconoció que las alucinaciones de IA no están limitando el camino de Anthrope hacia los sistemas AGI-AI con inteligencia a nivel humano o mejor. Ha sido uno de los líderes más optimistas de la industria sobre las perspectivas de que los modelos de IA logran a AGI.

En un artículo ampliamente circulado que escribió el año pasado, el ejecutivo de la firma cree que AGI podría llegar tan pronto como 2026. Durante la sesión informativa de la prensa del jueves, Amodei mencionó que vio un progreso constante con ese fin, señalando que el " agua está aumentando en todas partes".

Otros líderes en el espacio de IA creen que la alucinación presenta un gran obstáculo para lograr AGI. A principios de esta semana, el CEO de Google Deepmind, Demis Hassabis, reconoció que los modelos de IA de hoy tienen demasiados "agujeros" y se equivocan con demasiadas preguntas obvias. También argumentó que para él, para algo que se llame AGI, tendría que ser mucho más consistente en todos los ámbitos.

"Realmente depende de cómo lo midas, pero sospecho que los modelos de IA probablemente alucinan menos que los humanos, pero alucinan de manera más sorprendente".

-Dario amodei, CEO de antrópico.

A principios de este mes, un abogado que representa a Anthrope se vio obligado a disculparse después de usar Claude para crear citas en una presentación judicial. El problema era que el chatbot AI alucinó y cometió nombres y títulos incorrectos.

Ver también  Trump dice que tiene muchas personas ricas interesadas en comprar Tiktok

La afirmación de Amodei no es fácilmente verificable, en gran parte porque la mayoría de los puntos de referencia de alucinación se enfrentan a los modelos de IA; No comparan modelos con los humanos. Los modelos de IA también parecen reducir las tasas de alucinación con ciertas técnicas, como obtener acceso a búsquedas en la web.

Los modelos de IA reducen las tasas de alucinación con ciertas técnicas

OpenAi encontró evidencia que sugiere que las alucinaciones están empeorando en los modelos de IA de razonamiento avanzado. Según la compañía de tecnología, sus modelos O3 y O4-Mini tienen tasas de alucinación más altas que sus modelos de razonamiento de generación anterior, y la empresa no entiende por qué.

Anthrope también ha investigado la tendencia de los modelos de IA a engañar a los humanos, un problema que parecía frecuente en el Claude Opus 4 recientemente lanzado de la compañía. Apollo Research, un instituto de terceros que tiene acceso temprano para probar el modelo de IA, reveló que una versión temprana de Claude Opus 4 mostró una gran tendencia a los humanos y los engañó.

Según un informe de seguridad que Anthrope publicó el jueves, el Instituto también encontró que Opus 4 parecía ser mucho más proactivo en sus intentos de subversión que los modelos pasados. La firma también descubrió que el modelo AI a veces duplicaba su engaño cuando se hacía preguntas de seguimiento.

Apollo reconoció que los modelos de IA tienen más probabilidades de tomar pasos inesperados, y posiblemente inseguros, para lograr tareas delegadas. La firma destacó que las primeras versiones de los modelos O1 y O3 de OpenAI lanzados en el año pasado trataron de engañar a los humanos más que los modelos de generación anterior.

Ver también  Ilya SutsKever toma el mando de la superinteligencia segura mientras salta bruto se envía a Meta

En su informe de seguridad, Anthrope también señaló evidencia de comportamiento engañoso de Opus 4. La firma dijo que OPUS4 a veces haría una limpieza amplia de algún código, incluso cuando se le pidió que haga solo un cambio pequeño y específico. Según la compañía, OPUS4 también intentaría silbar si percibiera a un usuario dedicado a irregularidades.

Tus noticias de criptografía merecen atención: Key Difference Wire te pone en más de 250 sitios superiores

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Mas leido

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

elección del editor

Cargando artículos elegidos por el editor...

- El boletín de cifrado que te mantiene por delante -

Los mercados se mueven rápidamente.

Nos movemos más rápido.

Suscríbase a Cryptopolitan diariamente y obtenga ideas criptográficas oportunas, agudas y relevantes directamente a su bandeja de entrada.

Únete ahora y
nunca te pierdas un movimiento.

Entra. Obtén los hechos.
Adelantarse.

Suscríbete a CryptoPolitan