Une récente révélation a mis en lumière les critiques suscitées par le dévoilement par Google de son modèle d'intelligence artificielle (IA) Gemini, soulevant des questions sur les capacités réelles de cette technologie et sa position concurrentielle face à ChatGPT .
Bien que la démonstration initiale de Gemini par Google ait impressionné, il s'avère désormais que la présentation était soigneusement mise en scène et ne reflétait pas fidèlement les interactions en temps réel avec le système d'IA. Cette révélation jette le doute sur les capacités de Gemini et laisse penser que Google a encore du chemin à parcourir dans la course à l'IA.
Un examen plus approfondi de la démo
Le modèle d'intelligence artificielle Gemini de Google a attiré l'attention grâce à une démonstration spectaculaire, mais un examen plus approfondi a révélé que la présentation ne reflétait pas fidèlement ses capacités. Selon Bloomberg, Google a apporté plusieurs modifications aux interactions avec Gemini pour créer cette démonstration, ce qui soulève des doutes quant à la véracité de ses affirmations.
Une modification notable concerne la réduction de la latence lors de la démonstration. Cela signifie que les temps de réponse réels de l'IA pourraient être nettement plus longs que ceux présentés dans la vidéo. De plus, la sortie de Gemini a été raccourcie par souci de concision, ce qui implique que les réponses affichées dans la démonstration pourraient ne pas refléter les réactions typiques de l'IA dans des situations réelles.
La révélation la plus importante est peut-être que la démonstration n'a pas été réalisée en temps réel ni au format vocal. Elle a été construite à partir d'images fixes extraites de vidéos et d'instructions textuelles. Autrement dit, Geminidentdu contenu dans des images statiques au lieu de participer à une conversation dynamique en temps réel, comme le laissait entendre la présentation de Google. Ce décalage entre la démonstration et la réalité a amené beaucoup de personnes à s'interroger sur la fiabilité des capacités de Gemini.
Comparaison de Gemini avec ChatGPT d'OpenAI
La démonstration de Google affirmait également que Gemini surpassait le modèle GPT-4 d'OpenAI dans presque tous les tests de performance. Cependant, une analyse plus détaillée des résultats révèle une avance moins significative pour Gemini. Bien que GPT-4 soit disponible depuis près d'un an, Gemini n'a réussi à le devancer que de quelques points de pourcentage dans de nombreux tests. Cela suggère que Gemini n'a peut-être rattrapé le d'OpenAI et laisse entrevoir la possibilité d'un changement de situation avec l'introduction de GPT-5.
Les utilisateurs de Gemini Pro, la version qui équipe Google Bard, ont exprimé leur mécontentement vis-à-vis du modèle d'IA. Des témoignages sur X (anciennement Twitter) indiquent que Gemini est sujet aux « hallucinations » courantes que rencontrent d'autres chatbots. Par exemple, lorsqu'on lui a demandé de fournir un mot de six lettres en français, Gemini a sansdentproduit un mot de cinq lettres, soulignant ainsi ses limites dans les langues autres que l'anglais.
Les utilisateurs ont également rencontré des difficultés pour obtenir une génération de code précise et un résumé de sujets d'actualité sensibles via Gemini. Même des tâches relativement simples, comme citer les derniers lauréats des Oscars, ont donné des résultats incorrects. Ces retours d'expérience suggèrent que, pour le moment, Gemini ne répond pas aux attentes élevées suscitées par la démonstration convaincante de Google.

