Your bank is using your money. You’re getting the scraps.WATCH FREE

DeepSeek revela un coste de 294.000 dólares para entrenar su modelo de IA

En esta publicación:

  • Una empresa china de inteligencia artificial afirma que entrenar su modelo costó solo 294.000 dólares.
  • La cifra está muy por debajo de la de sus rivales estadounidenses, lo que plantea nuevos interrogantes en el sector.
  • DeepSeek niega haber copiado resultados de modelos de competidores.

DeepSeek de China afirmó que su sistema de inteligencia artificial estrella, conocido como R1, fue entrenado por solo 294.000 dólares, lo que es una fracción de las sumas que se cree que gastaron sus competidores estadounidenses.

Los detalles se publicaron en un artículo revisado por pares en Nature esta semana, y es probable que aviven el debate sobre las ambiciones de Pekín en la carrera global de la inteligencia artificial. La compañía con sede en Hangzhou afirmó que el modelo, centrado en el razonamiento, se entrenó con 512 chips Nvidia H800. Este hardware se diseñó específicamente para China después de que Estados Unidos prohibiera la venta de los procesadores H100 y A100, más potentes.

El documento, coescrito por el fundador Liang Wenfeng, marca la primera vez que la empresa revela dichos costos.

DeepSeek utiliza una fracción del costo de los modelos estadounidenses

En enero, el lanzamiento de las herramientas de IA más económicas de DeepSeek desestabilizó los mercados globales, lo que provocó una venta masiva de acciones tecnológicas ante el temor de que pudieran perjudicar a gigantes establecidos como Nvidia y OpenAI.

Sin embargo, Liang y su equipo han mantenido un perfil bajo, apareciendo desde entonces sólo para actualizaciones esporádicas de productos.

El precio informado de 294.000 dólares contrasta marcadamente con las estimaciones de las empresas estadounidenses.

El director ejecutivo de OpenAI, Sam Altman, declaró en 2023: «Entrenar modelos fundamentales cuesta mucho más de 100 millones de dólares». Sin embargo, no ofreció un desglose específico.

El entrenamiento de grandes modelos lingüísticos implica el funcionamiento de bancos de chips potentes durante largos periodos, con un consumo enorme de electricidad durante el procesamiento de texto y código. Los analistas del sector llevan tiempo asumiendo que la factura de estos proyectos asciende a decenas o incluso cientos de millones.

Esta suposición ahora está siendo cuestionada, y en un documento complementario, DeepSeek admitió poseer chips A100 y haberlos utilizado en las primeras etapas del desarrollo, antes de trasladar el entrenamiento a gran escala a su clúster H800. Según la empresa tecnológica, el modelo funcionó durante 80 horas en su etapa final de entrenamiento.

Véase también:  UBS implementa clones de IA de analistas para satisfacer la demanda de contenido de vídeo de inversión de formato corto al estilo TikTok.

Aunque Nvidia ha insistido en que la startup china solo tiene acceso a sus procesadores H800, las autoridades estadounidenses se muestran escépticas. Hace unos meses, fuentes estadounidenses informaron a Reuters que DeepSeek posee ilegalmente grandes volúmenes de chips H100 cuya exportación a China está prohibida.

Poniendo la innovación bajo el microscopio

El R1 ha llamado la atención no sólo por sus bajos costos de capacitación, sino también porque puede ser el primer modelo importante en someterse a una revisión formal por pares.

“Este es undentmuy bienvenido, y si no tenemos esta norma de compartir, se vuelve muy difícil evaluar los riesgos”, dijo Lewis Tunstall, ingeniero de aprendizaje automático en Hugging Face que revisó el artículo de Nature.

El proceso de revisión impulsó a DeepSeek a aclarar detalles técnicos, incluido cómo se entrenó su modelo y qué medidas de seguridad estaban implementadas.

“Pasar por un riguroso proceso de revisión por pares ciertamente ayuda a verificar la validez y utilidad del modelo”, afirmó Huan Sun, investigador de IA en la Universidad Estatal de Ohio.

El gran avance de DeepSeek radicó en el uso de un enfoque de aprendizaje por refuerzo. En lugar de basarse en ejemplos de razonamiento elaborados por humanos, según el artículo, el modelo era recompensado por resolver problemas correctamente y, gradualmente, desarrollaba sus propias estrategias de resolución de problemas.

La empresa dice que este sistema de prueba y error permitió a R1 verificar su funcionamiento sin copiar tácticas humanas.

Véase también:  Google se asocia con un desarrollador de energía solar respaldado por BlackRock en Taiwán en medio del auge de la IA.

“Este modelo ha sido muy influyente”, añadió Sun. “Casi todo el trabajo de aprendizaje por refuerzo en 2025 podría haberse inspirado en R1 de una forma u otra”

DeepSeek niega las acusaciones de copia

Poco después del lanzamiento de R1, comenzaron a surgir especulaciones de que DeepSeek se había apoyado en resultados rivales, particularmente de OpenAI, para acelerar el entrenamiento; sin embargo, la compañía ahora ha negado rotundamente esa acusación.

En correspondencia con los revisores, DeepSeek insistió en que R1 no copió los ejemplos de razonamiento generados por OpenAI. Sin embargo, como la mayoría de los modelos de lenguaje grandes, se entrenó con texto de internet. Esto significa que inevitablemente se incluyó contenido generado por IA, y la explicación ha convencido a algunos revisores.

No puedo estar 100% seguro de que R1 no se haya entrenado con ejemplos de OpenAI. Sin embargo, los intentos de replicación de otros laboratorios sugieren que el aprendizaje por refuerzo es suficiente por sí solo, dijo Tunstall.

DeepSeek afirma que R1 está diseñado para sobresalir en tareas que requieren razonamiento intensivo, como codificación y matemáticasmaticA diferencia de la mayoría de los sistemas cerrados desarrollados por empresas estadounidenses, se lanzó como un modelo de peso abierto, que los investigadores pueden descargar gratuitamente. En el sitio web de la comunidad de IA Hugging Face, ya ha sido descargado más de 10 millones de veces.

La empresa invirtió alrededor de 6 millones de dólares en el desarrollo del modelo base sobre el que se basa el R1, pero incluso con ese incremento, sus costos son muy inferiores a los de sus competidores. Para muchos en el sector, esto hace que el R1 seatrac.

Sun y sus colegas probaron recientemente el sistema en tareas de datos científicos y descubrieron que no era el más preciso, pero sí uno de los mejores en términos de relación costo-rendimiento.

 

Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan