En un avance significativo hacia la incorporación de la IA Generativa a los iPhones, los investigadores de Apple han introducido un método innovador para sortear las limitaciones de RAM en los dispositivos móviles. Los Modelos de Lenguaje de Gran Tamaño (LLM), como ChatGPT 4 de OpenAI, son conocidos por sus enormes demandas computacionales, que suelen requerir servidores potentes para su procesamiento. Sin embargo, la reciente IA Gemini de Google, diseñada para competir con GPT-4, ofrece una variante "Nano" adaptada a smartphones. Esta adaptación emplea técnicas de cuantificación para reducir los parámetros del modelo a 1.800 millones o 3.600 millones. Actualmente, una de estas variantes Nano impulsa los smartphones Pixel 8 Pro de Google, ya disponibles a un precio reducido de 799 $ en Amazon.
Si bien los esfuerzos de Google con Gemini Nano representan un avance significativo, Qualcomm afirma que su nuevo SoC Snapdragon 8 Gen 3 puede soportar LLM de IA generativa con hasta 10 mil millones de parámetros. Si bien esto supera las capacidades de Google, aún está muy lejos de los 1,7 billones de parámetros necesarios para que GPT-4 funcione óptimamente. La cuantificación, si bien facilita el procesamiento en SoC móviles, inevitablemente sacrifica la precisión y la eficacia. Por lo tanto, la capacidad de integrar LLM más grandes en dispositivos móviles se vuelve crucial para mejorar su rendimiento.
La ingeniosa solución de Apple
Uno de los principales obstáculos para habilitar la IA generativa en smartphones es el alto requerimiento de RAM. Por ejemplo, un modelo LLM reducido a 8 bits por parámetro con 7 mil millones de parámetros, como el Llama 2 de Meta compatible con el Snapdragon 8 Gen 3, requeriría un smartphone con al menos 7 GB de RAM. La serie iPhone 15 Pro de Apple cuenta con 8 GB de RAM, lo que indica que un modelo LLM desarrollado por Apple, como el Llama 2, se acercaría al límite superior de las capacidades actuales del iPhone. Para superar esta limitación de RAM, los investigadores de Apple han ideado un novedoso enfoque.
Aumento del almacenamiento flash
En un artículo de investigación titulado "LLM en un instante: Inferencia eficiente de modelos de lenguaje grandes con memoria limitada", los investigadores de IA generativa de Apple presentan un método que aprovecha el almacenamiento flash de un iPhone para complementar la RAM integrada del sistema. Si bien el ancho de banda del almacenamiento flash no es comparable al de la RAM móvil LDDR5/X, los investigadores de Apple han superado ingeniosamente esta limitación inherente. Su método combina el "windowing", que permite al modelo de IA reutilizar datos previamente procesados y almacenados en el almacenamiento flash, con la "agrupación de filas y columnas", una técnica que organiza de forma óptima los datos LLM para obtener velocidades de lectura más rápidas.
Perspectivas futuras de la IA generativa en iPhones
Si bien Apple aún no ha presentado un producto basado en LLM, los rumores sugieren la inminente llegada de una Siri más inteligente basada en LLM, que debutará con iOS 18 y funcionará en los modelos iPhone 16 Pro de próxima generación. Cuando esto se materialice, Apple estará bien posicionada para emplear su innovador método de extensión de RAM para ofrecer un modelo LLM con la mayor cantidad de parámetros posibles para su ejecución en el dispositivo.
El panorama de la IA generativa en 2024
A medida que la industria tecnológica continúa su incansable búsqueda de mejoras en las capacidades de la IA generativa, 2024 parece ser el año en que esta se convertirá en una característica común en los smartphones. Samsung, una empresa líder en este sector, se prepara para presentar sus ofertas mejoradas de IA generativa con el lanzamiento de la serie Galaxy S24 el próximo mes. Con el innovador método de aumento de RAM de Apple y los próximos desarrollos de Samsung, los consumidores pueden anticipar una transformación sustancial en las capacidades y el rendimiento de las funciones basadas en IA en sus dispositivos móviles.
El enfoque pionero de Apple para superar las limitaciones de RAM y facilitar la ejecución en el dispositivo de Modelos de Lenguaje Grandes marca un paso significativo hacia la implementación de la IA Generativa en los iPhone. A medida que el panorama competitivo se intensifica, con el avance del Gemini Nano de Google y el Snapdragon 8 Gen 3 de Qualcomm, el año 2024 promete ser un punto de inflexión para la integración de la IA Generativa en las experiencias cotidianas de los smartphones.

