Apple a révélé son choix d'utiliser les unités de traitement tensoriel (TPU) de Google pour sa nouvelle infrastructure logicielle d'IA, comme le détaille un article de recherche publié lundi. Ce choix marque une rupture significative avec la norme du secteur, où les GPU de Nvidia sont généralement privilégiés pour l'entraînement des modèles d'IA.
D'après le dernier document technique d'Apple, son système AFM et le serveur AFM qui le prend en charge fonctionnent sur les clusters TPU de Google Cloud. Ces informations laissent supposer qu'Apple a sous-loué l'espace serveur auprès des infrastructures de cloud computing de Google pour les calculs complexes nécessaires à ses frameworks d'IA.
Apple dévoile un nouveau système d'IA
Apple a également dévoilé son système d'intelligence artificielle, Apple Intelligence, accompagné d'un document technique. Ce nouveau système propose une version améliorée de Siri, un traitement du langage naturel optimisé et des résumés générés par l'IA. De plus, Apple prévoit d'intégrer l'année prochaine des capacités d'IA générative, notamment la génération d'images et d'emojis, ainsi qu'une version améliorée de Siri capable d'extraire et d'utiliser des informations provenant d'applications.
Le document technique indiquait également que le module AFM embarqué d'Apple avait été entraîné avec 2 048 puces TPU v5p et le serveur AFM avec 8 192 puces TPU v4. Le modèle actuel est le TPU v5p de Google, annoncé en décembre, qui améliore l'efficacité des calculs d'IA. Les TPU de Google, commercialisés depuis 2017, figurent toujours parmi les puces personnalisées les plus performantes pour l'exécution d'opérations d'IA.
Nvidia demeure le principal fournisseur de GPU utilisés pour l'entraînement des réseaux neuronaux. Cependant, en raison de leurs coûts élevés et de leur disponibilité limitée, les entreprises se tournent vers d'autres solutions. Parmi les clients clés de Nvidia figurent OpenAI, Microsoft et Anthropic. D'autres géants de la tech, tels que Google, Meta, Oracle et Tesla, manifestent également un intérêt pour le développement de l'intelligence artificielle.
Les dirigeants du secteur technologique évaluent les risques et les avantages de l'investissement dans l'IA
Mark Zuckerberg, PDG de Meta, et Sundar Pichai, PDG d'Alphabet, ont récemment exprimé leurs inquiétudes quant au surinvestissement dans l'infrastructure d'IA, tout en reconnaissant qu'un manque d'investissement représente un risque important de retard dans cette technologie qui révolutionnera l'avenir. Google, l'un des plus gros clients de Nvidia, utilise également des TPU pour l'entraînement de ses modèles d'IA et propose des GPU Nvidia via ses services cloud.
Comme l'indique Apple, les TPU de Google permettent de concevoir des modèles d'IA plus complexes et plus vastes. L'étude détaillée, qui intègre également des informations dévoilées lors de la Worldwide Developers Conference d'Apple en juin, montre que ces TPU offrent la puissance de calcul nécessaire aux projets d'IA avancée de l'entreprise. Lorsque Apple déploiera ses fonctionnalités d'IA auprès des utilisateurs bêta cette semaine, l'impact de ses choix matériels sera plus évident.

