Le spam, tel que nous le connaissons, existe depuis toujours. Avant ChatGPT, il représentait près de 2 % des résultats de recherche, mais la situation a radicalement changé. Le spam automatisé, ou spam généré par l'IA, est omniprésent et représente désormais 10 % des résultats.
Il ne s'agit pas seulement du contenu racoleur, mais aussi de l'IA, car elle a beaucoup plus de chances de passer entre les mailles du filet et est beaucoup plus facile et peu coûteuse à produire. Google déréférence désormais manuellement des sites, ce qui a aussi des conséquences, car Google perd également des revenus publicitaires. On pourrait alors se demander pourquoi Google dépense de l'argent pour déréférencer ces sites ? Eh bien, c'est encore une question de revenus.
Le spam IA représente une menace manifeste pour Google.
Il y a de fortes chances que ce contenu de piètre qualité éloigne les utilisateurs de Google, déjà lassés des titres racoleurs et sans intérêt qui pullulent dans les résultats de recherche sponsorisés. Le Web était autrefois un lieu de découvertes en dehors des grands noms, et aujourd'hui, ce spam généré par l'IA menace l'ensemble du web. Filtrer et bloquer ce type de contenu s'avère complexe.

Éliminer l'IA et les spammeurs utilisant l'IA pourrait être une solution en automatisant le processus d'dentdes tricheurs, mais cette solution présente aussi des problèmes. Le premier obstacle est que l'IA est encore en développement et que son contenu généré deviendra de plus en plus sophistiqué. La vaincre n'est donc pas chose aisée, car elle peut développer des techniques pour contourner un système automatisé.
Un autre problème réside dans son coût, car il est gourmand en ressources et exige des sommes colossales, un peu comme aller jouer à une table de casino en état d'ivresse et risquer de se retrouver seul sur la Lune. Vous souvenez-vous de la promesse d'un milliardaire ? Bill Gates avait promis que le monde serait débarrassé du spam d'ici 2006, mais même un milliardaire peut se tromper.
La situation est pire pour tous
La situation est défavorable à Google et aux autres acteurs souhaitant intégrer l'IA aux résultats de recherche et à l'interface utilisateur. En effet, le système devra être entraîné sur des données déjà fortement polluées, et se pose à nouveau la question de la répartition des revenus. On ignore encore comment cela fonctionnera concrètement, car le résultat se présentera sous la forme d'un bref rapport plutôt que d'une liste de liens. Or, nous savons que Google est rémunéré lorsque nous cliquons sur les liens, et non lorsque nous lisons le texte de sa page web.

Alors, comment les publicités seront-elles intégrées ? Peut-être dans le court rapport écrit, mais cela réduira la part de revenus du fournisseur de contenu et le pénalisera. Ce ne sera avantageux pour personne.
Google a débuté avec d'excellents algorithmes et un site web impeccable. L'entreprise savait ce qu'était un bon site, sa structure et ses composantes. Les sites de meilleure qualité généraient plus de revenus et de visibilité, et Google en tirait également davantage de profit. Cependant, jouer franc jeu n'est généralement pas chose aisée, et nombreux sont ceux qui cherchent à contourner le système. Dans ce cas, les revenus sont partagés entre les tricheurs et, bien sûr, Google. Cela a permis à Google et à d'autres acteurs similaires de manipuler le système à leur avantage, au détriment des autres.
Si l'IA trompe Google, quelles sont les solutions ? Les sites sont tenus d'afficher une déclaration de confidentialité claire concernant les cookies et autres, et doivent désormais également fournir une déclaration d'assurance qualité. Par exemple, des indicateurs pour le contenu , le marketing ou la propriété intellectuelle liés à l'IA. Mais avant tout, il s'agit de savoir si ces géants sont réellement honnêtes quant au respect de leurs propres règles. Ils devront privilégier le contenu de qualité, se conformer aux politiques, bloquer les tricheurs reconnus coupables et ne plus jamais les diffuser aux utilisateurs.

