ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

Anthropic, fabricante de Claude, ve cómo su valor implícito se dispara hasta un nuevo máximo histórico de 1,4 billones de dólares antes de su salida a bolsa

PorJai HamidJai Hamid
3 minutos de lectura
Anthropic, fabricante de Claude, ve cómo su valor implícito se dispara hasta un nuevo máximo histórico de 1,4 billones de dólares antes de su salida a bolsa
  • En los mercados online, Anthropic está siendo valorada en 1,4 billones de dólares antes de su salida a bolsa.
  • El valor implícito de la empresa ha aumentado un 1.067% desde octubre de 2025.
  • Según se informa, los ingresos anuales de Anthropic aumentaron de 100 millones de dólares en 2023 a 45 mil millones de dólares en la actualidad.

Anthropic ahora cotiza a un valor implícito previo a su salida a bolsa de 1,4 billones de dólares en los mercados en cadena, el nivel más alto alcanzado hasta la fecha por el creador de Claude antes de su cotización en bolsa. Esta cifra representa un aumento del 40 % en 24 días, según datos de negociación previos a la salida a bolsa vinculados a instrumentos listados en Jupiter.

Los mismos datos indican que el valor implícito de Anthropic ha aumentado un 1067 % desde octubre de 2025. Los instrumentos previos a la salida a bolsa en Jupiter están respaldados 1:1 por la exposición a SPV, por lo que las operaciones se utilizan como una lectura en tiempo real de dónde creen los inversores que podría situarse Anthropic cuando finalmente salga a bolsa.

Dado que la empresa aún es privada, son los productos tokenizados y los productos del mercado privado en la cadena de bloques los que determinan el precio antes de que Wall Street tenga su momento de presentación oficial a los inversores tras la salida a bolsa.

Los operadores de Onchain valoran Anthropic como si fuera una acción de IA valorada en un billón de dólares antes de su salida a bolsa

La última estimación surge tras los informes que indican que los ingresos anuales de Anthropic se han disparado, pasando de 100 millones de dólares en 2023 a 45 mil millones en la actualidad. Se trata de un aumento masivo para la empresa en un solo año. En los últimos doce meses, los ingresos anualizados de Anthropic aumentaron un 1400 %.

Esta es una de las razones por las que los inversores previos a la salida a bolsa comparan a Anthropic con las principales empresas tecnológicas que cotizan en bolsa, antes de que las ofertas de acciones ordinarias estén disponibles para el público en general.

Los inversores también siguen de cerca cómo Anthropic transforma su asistente de IA, Claude, en aplicaciones comerciales. Según FIS, Claude impulsa el Agente de IA para Delitos Financieros, destinado a los equipos de cumplimiento normativo que participan en investigaciones contra el blanqueo de capitales. La aplicación está diseñada para que los especialistas en cumplimiento normativo puedan completar su trabajo en minutos, en lugar de horas.

El sistematracinformación de las plataformas bancarias y analiza la actividad de las cuentas de los clientes comparándola con la base de datos de esquemas de lavado de dinero conocidos, priorizando los casos sospechosos para su investigación. La IA opera en un entorno financiero altamente sensible, donde la velocidad, la transparencia y tracson primordiales. No hay margen para manipular la información personal de los clientes.

Según FIS, BMO y Amalgamated Bank estarán entre las primeras instituciones en implementar el agente, y se prevé una mayor disponibilidad para el segundo semestre de 2026.

FIS también destacó que el equipo de IA aplicada de Anthropic, junto con ingenieros desplegados en el terreno, participan en el proyecto. Colaboran con FIS en el diseño de la plataforma y en la creación de otros agentes mediante la tecnología Claude. El producto combina la plataforma bancaria de FIS, los datos de transacciones y los sistemas de cumplimiento normativo con los modelos de IA de Claude. «Los datos de los clientes siempre permanecerán dentro de los sistemas controlados por FIS», afirmó la compañía.

“Además de cumplir con los altos requisitos regulatorios de cumplimiento, FIS seleccionó a Claude como la opción correcta para nuestro agente de IA contra delitos financieros porque fue capaz de razonar con precisión en investigaciones complejas, explicar sus hallazgos y operar de forma segura dentro de un flujo de trabajo regulatorio”, dijo Jonathan Pelosi, director de servicios financieros de Anthropic.

OpenAI abre su modelo cibernético a Europa mientras Anthropic mantiene Mythos bajo revisión

Mientras Anthropic se enfrenta a su propia batalla por el acceso a la IA cibernética en Europa, OpenAI anunció el lunes que dará acceso a GPT-5.5-Cyber, una versión cibernética de su último modelo de IA, a los países de la UE. A diferencia de GPT-5.5, OpenAI aún no ha ofrecido un acceso anticipado similar al último modelo Mythos de Anthropic.

OpenAI anunció que empresas, gobiernos, agencias de ciberseguridad e instituciones de la UE, como la Oficina de IA de la UE, tendrán acceso al modelo. Inicialmente, se ofrecerá acceso de prueba a equipos de ciberseguridad previamente seleccionados por OpenAI. Esta actualización llega un mes después del lanzamiento de Mythos por parte de Anthropic, lo que generó preocupación por los ciberataques a sistemas de software críticos.

Thomas Regnier, de la Comisión Europea, declaró: «Nos complace la transparencia de OpenAI al permitir el acceso a su nuevo modelo a la Comisión». Regnier confirmó que OpenAI y la Comisión Europea habían tratado el asunto en reuniones anteriores y que continuarán el diálogo esta semana. «De esta forma, podremos supervisar la implementación del modelo y abordar cualquier problema de seguridad», añadió.

Sin embargo, según Thomas Regnier, la UE también está en contacto con Anthropic; no obstante, las conversaciones se encuentran en una fase distinta a las mantenidas con OpenAI. Se han celebrado «cuatro o cinco» reuniones con Anthropic; sin embargo, las conversaciones aún están lejos de la solución presentada por OpenAI.

George Osborne, director de OpenAI en el país, afirmó que «un laboratorio de IA como el nuestro no puede juzgar unilateralmente si un sistema es seguro, ya que depende de socios de confianza que trabajen en conjunto». Osborne añadió que «es hora de que la tecnología de IA cibernética más avanzada esté disponible para todos los defensores de Europa, no solo para unos pocos elegidos»

Según él, el Plan de Acción Cibernética de la UE colaborará con los responsables políticos, las instituciones y las organizaciones empresariales europeas para facilitar el acceso a herramientas con fines de defensa y seguridad pública.

Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.

Comparte este artículo
MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO