Spam, wie wir ihn kennen, begleitet uns von Anfang an. Vor ChatGPT machte Spam knapp zwei Prozent der Suchergebnisse aus, doch die Dynamik hat sich grundlegend verändert. Robo-Spam, also KI-generierter Spam, ist allgegenwärtig und macht mittlerweile zehn Prozent der Ergebnisse aus.
Es geht nicht nur um Clickbait-Inhalte, sondern auch um KI, da diese viel leichter mehrere Filter durchdringen kann und sehr einfach und kostengünstig zu erstellen ist. Google entfernt Seiten nun manuell aus den Suchergebnissen, was wiederum Konsequenzen hat, da Google dadurch Werbeeinnahmen verliert. Man könnte sich nun fragen: Warum gibt Google dann eigenes Geld für die Entfernung dieser Seiten aus? Nun, es geht wieder einmal ums Geldverdienen.
KI-Spam stellt eine klare Bedrohung für Google dar
Es besteht eine große Gefahr, dass diese billigen Inhalte Nutzer von Google abschrecken, da sie die vor der KI-Ära üblichen Clickbait-Schrottanzeigen in den gesponserten Suchergebnissen bereits satt haben. Das Web war einst ein Ort, um Dinge abseits der großen Namen zu entdecken, und nun ist dieser KI-Spam zu einer Bedrohung für das gesamte Web geworden. Solche Inhalte zu filtern und zu stoppen, ist schwierig.

Die Entfernung von KI und KI-Spammern könnte eine Lösung sein, indem der Prozess derdentautomatisiert wird. Doch auch hier gibt es Probleme. Das erste Problem ist, dass sich die KI noch in der Entwicklung befindet und ihre generierten Inhalte immer ausgefeilter werden. Daher ist es nicht einfach, gegen sie zu gewinnen, da sie Strategien entwickeln kann, um ein automatisiertes System zu umgehen.
Ein weiteres Problem sind die Kosten, da es ressourcenintensiv ist und enorme Summen an Einnahmen erfordert – vergleichbar mit einem betrunkenen Besuch an einem High-Roller-Tisch im Casino, der womöglich dazu führt, dass man am Ende allein auf dem Mond sitzt. Erinnern Sie sich an die kühne Behauptung eines Milliardärs? Bill Gates versprach, die Welt würde Spam bis 2006 loswerden, aber selbst ein Milliardär kann das nicht garantieren.
Die Situation ist für alle schlechter
Die Situation ist ungünstig für Google und andere Anbieter, die KI in Suchergebnisse und die Benutzeroberfläche integrieren wollen. Warum? Weil das System mit bereits stark verfälschten Daten trainiert werden muss, und außerdem stellt sich erneut das Problem der Umsatzverteilung. Es ist noch unklar, wie das Ganze funktionieren soll, da das Ergebnis eher ein kurzer Bericht als eine Linkliste sein wird. Und wir wissen, dass Google Geld verdient, wenn wir auf die Links klicken, nicht wenn wir Texte auf der Webseite lesen.

Wie werden also Anzeigen integriert? Vielleicht in einem schriftlichen Kurzbericht, aber das würde dem Inhaltsanbieter einen Teil der Einnahmen entziehen und ihm schaden. Das wäre für niemanden eine vorteilhafte Situation.
Google startete mit guten Algorithmen und einer übersichtlichen, perfekten Website. Sie wussten, was gute Websites ausmacht, wie sie strukturiert sind und welche weiteren Komponenten sie besitzen. Websites mit höherer Qualität erzielten mehr Umsatz und Reichweite, und auch Google verdiente mehr an ihnen. Doch faires Spielen ist selten einfach, daher versuchen viele, das System zu manipulieren. In diesem Fall werden die Einnahmen zwischen den Betrügern und natürlich Google aufgeteilt. Google und ähnliche Unternehmen erhielten dadurch die Ressourcen, das gesamte System zu ihrem eigenen Vorteil auszunutzen, was für andere unfair war.
Wenn KI Google austrickst, welche Möglichkeiten gibt es dann? Webseiten müssen bereits eine Datenschutzerklärung für Cookies und ähnliches veröffentlichen und nun auch eine Qualitätssicherungserklärung bereitstellen. Diese kann beispielsweise Kennzeichnungen für KI-generierte Inhalte , Marketing oder die Urheberschaft enthalten. Doch zunächst muss geklärt werden, wie ehrlich diese Giganten ihre eigenen Regeln einhalten. Sie müssen guten Inhalten Priorität einräumen, die Richtlinien befolgen, Betrüger bei Entdeckung sperren und deren Inhalte den Nutzern dauerhaft ausblenden.

