Un analyste de Google prévient que les réponses de l'IA ne sont « pas parfaites et ne peuvent pas remplacer votre cerveau »

- L'analyste de Google, Gary Illyes, a averti que les LLM présentent encore des lacunes en matière de précision.
- Les modèles ont besoin d'un œil humain pour vérifier le contenu qu'ils produisent.
- Il a déclaré que les gens ne devraient pas se fier aux réponses de l'IA sans vérifier les sources faisant autorité.
L'analyste de Google, Gary Illyes, a averti que les grands modèles de langage – la technologie qui sous-tend les chatbots d'IA générative comme ChatGPT – présentent encore des lacunes en matière de précision et nécessitent une intervention humaine pour vérifier le contenu qu'ils produisent. Ces commentaires interviennent quelques jours seulement après le lancement par OpenAI de SearchGPT, un nouveau moteur de recherche basé sur l'IA qui concurrencera directement Google.
Illyes a partagé ces commentaires sur LinkedIn en réponse à une question reçue dans sa boîte de réception, sans toutefois la préciser. Il a indiqué qu'il ne fallait pas se fier aux réponses de l'IA sans les vérifier auprès d'autres sources fiables. OpenAI ambitionne de détrôner Google de sa position dominante sur le marché des moteurs de recherche.
Les réponses de l'IA ne sont pas « nécessairement factuellement correctes »
Illyes, qui travaille chez Google depuis plus de dix ans, a déclaré que si les réponses de l'IA peuvent être proches de la réalité, elles ne sont pas « nécessairement factuellement correctes ». En effet, les grands modèles de langage (LLM) ne sont pas à l'abri des informations erronées qui circulent sur Internet, a-t-il expliqué.
« À partir de leurs données d'entraînement, les LLM trouvent les mots, expressions et phrases les plus appropriés qui correspondent au contexte et au sens d'une consigne », écrit Illyes. « Cela leur permet de générer des réponses pertinentes et cohérentes, mais pas nécessairement factuellement correctes. »
L'analyste de Google a déclaré que les utilisateurs devront toujours valider les réponses de l'IA en fonction de leurs connaissances sur le sujet posé au LLM ou en consultant des ressources complémentaires faisant autorité pour leur requête
Pour garantir la fiabilité des contenus générés par l'IA, les développeurs ont notamment recours à une pratique appelée « ancrage ». Ce processus consiste à intégrer des éléments humains aux informations créées par la machine afin de limiter les erreurs. Selon Illyes, l'ancrage pourrait toutefois s'avérer insuffisant.
« L’ancrage peut aider à formuler des réponses plus exactes, mais il n’est pas parfait ; il ne remplace pas votre cerveau », a-t-il déclaré. « Internet regorge de désinformation, intentionnelle ou non, et vous ne croiriez pas tout ce que vous lisez en ligne, alors pourquoi le feriez-vous pour les réponses à un LLM ? »
Elon Musk accuse Google de contrôler l'accès à l'information publique
Traditionnellement, la question de la confiance a toujours été problématique avec les moteurs de recherche comme Google et autres plateformes d'intelligence artificielle, et la manière dont ils exercent un certain contrôle sur les informations qu'ils transmettent aux utilisateurs.
L'un de ces incidentsdentdentdent dentdentdentdent dentdent Trump. Elon Musk a suggéré que Google interdise l'apparition de cet incidentdent ses résultats de recherche, déclenchant un important débat sur les réseaux sociaux quant à l'influence des géants du numérique.
Waouh, Google a interdit les recherches concernant ledent Donald Trump !
Ingérence électorale ? pic.twitter.com/dJzgVAAFZA
— Elon Musk (@elonmusk) 29 juillet 2024
Dans le flot de réactions, un faux compte prétendant appartenir à la vice-présidente de Googledent Ana Mostarac, a alimenté le débat en partageant de fausses excuses de l'entreprise pour avoir prétendument bloqué du contenu sur Trump.
« Les besoins d’information des utilisateurs ne cessent de croître, c’est pourquoi nous poursuivons l’évolution et l’amélioration de la Recherche. Toutefois, il semble nécessaire de redéfinir notre conception de l’exactitude. L’exactitude est subjective, et la recherche de l’exactitude absolue peut nuire à la réalisation des projets », a publié le faux compte sur X.
« Soyez assurés que notre équipe travaille d'arrache-pied pour veiller à ce que notre souci de l'exactitude ne devienne pas unetracqui entrave notre vision de l'avenir », a-t-on ajouté.
La communauté X a immédiatement signalé le tweet, indiquant que son auteur usurpait l'identité du vice-président de Google. Cet exemple illustre la facilité avec laquelle l'information peut être déformée et montre que les modèles d'IA peuvent avoir du mal à distinguer le vrai du faux sans vérification humaine.
Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














