Si bien las hostilidades internacionales siguen siendo un tema candente, los fabricantes de chips y los proveedores de servicios en la nube chinos parecen estar realizando esfuerzos concertados para apoyar a DeepSeek y otros modelos de IA creados localmente.
DeepSeek está recibiendo atención especial de su país de origen, que también tiene algunas de las empresas tecnológicas más grandes del mundo.
Para mayor información, el sábado, Huawei Technologies anunció su colaboración con la startup de inteligencia artificial SiliconFlow para ofrecer los modelos de DeepSeek a sus clientes. Lo hará a través de su servicio en la nube Ascend.
Una carta de @deepseek_ai reconociendo el apoyo de @Huawei #DeepSeek #Huawei pic.twitter.com/cRgGCS1iZ3
— Viviendo en Armonía ⭕☯Ⓜ🔥🥉🏅🔄🦾🍞🆙🆗📢🎯🔑💼🛡️👑 (@LivingInHarmony) 5 de febrero de 2025
Huawei también produce sus propios chips de IA. Esto significa que su colaboración podría proporcionar chips de IA a la startup.
El lunes, Moore Threads y Hygon Information Technology, empresas que desarrollan procesadores de IA, anunciaron que sus clústeres de computación y aceleradores serán compatibles con los modelos R1 y V3 de DeepSeek. Ambas compañías trabajan para competir con Nvidia.
Moore Threads declaró: «Rendimos homenaje a DeepSeek». Añadió que el progreso de los modelos de DeepSeek que utilizan unidades de procesamiento gráfico (GPU) de fabricación nacional «podría revolucionar la industria china de la IA»
Gitee AI, un sitio web de servicios integrales con sede en Shenzhen para desarrolladores de IA, anunció la oferta de cuatro modelos basados en DeepSeek-R1. Los modelos estarán disponibles a través de servidores con GPU de MetaX, el diseñador de chips con sede en Shanghái.
DeepSeek todavía tiene seguidores en todo el mundo
DeepSeek se unió a los chatbots de IA de EE. UU. al ofrecer un asistente de IA gratuito. Sin embargo, la compañía afirmó que su asistente de IA gratuito consume menos datos y cuesta una fracción del costo de los servicios existentes. Sin duda, su estrategia destaca.
Algunas empresas han adoptado los modelos de la startup china de inteligencia artificial a pesar de las controversias. De hecho, la aplicación superó a su rival estadounidense ChatGPT en descargas desde la App Store de Apple, lo que desencadenó una ola de ventas global de acciones tecnológicas.
Deepseek ha lanzado un modelo tras otro en un plazo inusualmente corto. Lanzó su nuevo modelo DeepSeek-V3 en diciembre de 2024. Posteriormente, DeepSeek-R1, DeepSeek-R1-Zero y DeepSeek-R1-Distill salieron al mercado el 20 de enero de 2025. El 27 de enero de 2025, la compañía añadió un nuevo modelo de IA, Janus-Pro-7B, centrado en la visión.
El modelo DeepSeek-R1-Zero tiene 671 mil millones de parámetros, mientras que la serie DeepSeek-R1-Distill incluye modelos con entre 1.5 mil millones y 70 mil millones de parámetros.
Actualmente, Amazon Web Services (AWS), Microsoft y Google Cloud ofrecen el modelo a sus clientes. Sin embargo, por ahora, no han comenzado a utilizar el sistema de precios por token que utilizan otros modelos de IA, como Llama 3 de Meta.
Además, el lunes, los servicios en la nube de Alibaba Group ofrecieron los modelos de IA de DeepSeek en su plataforma. Los servicios en la nube de Baidu y Tencent también anunciaron que ofrecerán los modelos de DeepSeek a sus usuarios.
Los analistas de Bernstein dijeron: “ DeepSeek demuestra que se pueden implementar modelos de lenguaje grande (LLM) competitivos en los chips 'suficientemente buenos' de China, lo que alivia la dependencia del hardware estadounidense de última generación”.
Sin embargo, países como Italia y los Países Bajos han bloqueado el servicio y están investigando la aplicación de inteligencia artificial de DeepSeek debido a problemas de privacidad.
La inteligencia artificial de DeepSeek revoluciona los modelos de precios
Los analistas de mercado insisten en que los proveedores de la nube se beneficiarán más del alquiler de infraestructura que de las tarifas directas por el uso del modelo.
Alquilar servidores en la nube para tareas de IA es técnicamente más caro que usar modelos mediante API. AWS cobra hasta $124 por hora por un servidor en la nube optimizado para IA. Esto cuesta aproximadamente $90,000 al mes con uso 24/7.
Los usuarios de Microsoft Azure no necesitan alquilar servidores especiales para DeepSeek. Sin embargo, pagan por la potencia de procesamiento que utilizan. Esto significa que el costo puede variar según la eficacia de la ejecución del modelo.
Por otro lado, los grupos que usan Llama 3.1 de Meta a través de AWS pagan $3 por cada millón de tokens. Estos tokens son fragmentos de texto, y 1000 tokens equivalen a aproximadamente 750 palabras.
Empresas de nube más pequeñas, como Together AI y Fireworks AI, han empezado a utilizar un sistema de precios sencillo. Cobran una cantidad fija por cada token con su modelo DeepSeek-R1.
Otra opción más barata para DeepSeek-R1 es a través de la API de su empresa matriz a $2,19 por millón de tokens. Esto es tres o cuatro veces más barato que algunos proveedores de nube occidentales.

