Alibaba ha lanzado un nuevo modelo de IA como parte de la serie Quen. El gigante tecnológico afirma que este modelo es capaz de procesar video, audio, imágenes y texto. Además, es lo suficientemente eficiente como para funcionar directamente en computadoras portátiles y teléfonos móviles.
La compañía ha mencionado que el nuevo modelo, disponible en GitHub y Hugging Face, puede utilizarse en agentes de IA. Estos agentes ayudarán a las personas con discapacidad visual a navegar por su entorno mediante audiodescripción en tiempo real.
Alibaba ha sido bastante rápido con sus nuevos lanzamientos. El gigante tecnológico aparentemente está apostando por la IA en 2025. Apenas unos días después del lanzamiento de DeepSeek, el gigante del comercio electrónico lanzó una nueva versión de su modelo Quen. A principios de marzo, también lanzó una versión más reciente de Quart, su aplicación de asistente de IA.
Alibaba no es la única empresa que trabaja en IA multimodal. Competidores como OpenAI y Google (de Alphabet Inc.) también han introducido herramientas de IA generativa que pueden gestionar diferentes tipos de entrada, como texto y audio. El martes, OpenAI añadió funciones avanzadas de generación de imágenes a ChatGPT, ampliando aún más sus capacidades.
La compañía ha declarado que planea invertir más en su red de IA y computación en la nube que en la última década. Alibaba aspira a convertirse en un socio clave para las empresas que desarrollan y aplican IA en entornos prácticos a medida que los modelos se vuelven más avanzados y requieren mayor potencia de procesamiento.
Mientras tanto, los servicios de IA de bajo costo de China están compitiendo con las ofertas más caras de las principales empresas estadounidenses, lo que ejerce presión sobre sus modelos de negocio. Sin embargo, aún no todos están convencidos de si estos lanzamientos de IA superan o igualan la tecnología occidental de vanguardia.

