NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

KI-Suchmaschinen leiten 96 % weniger Referral-Traffic an Nachrichtenseiten und Blogs weiter als die herkömmliche Google-Suche

VonHannah CollymoreHannah Collymore
3 Minuten Lesezeit
Google KI-Suche
  • KI-Suchmaschinen wie OpenAI und Perplexity leiten 96 % weniger Referral-Traffic an Publisher weiter als die traditionelle Google-Suche.
  • Verlage gehen juristisch gegen KI-Unternehmen wegen Urheberrechtsverletzungen vor; bemerkenswerte Beispiele sind die Klagen von Chegg und anderen gegen Google und Perplexity.
  • Experten warnen davor, dass der Aufstieg des KI-gestützten Web-Scrapings zu einem „KI-Mischmasch“ führen könnte, der die Qualität von Internetinhalten und die Überlebensfähigkeit von Verlagen bedroht.

Unternehmen wie OpenAI und Perplexity versprachen in der Vergangenheit, dass die von ihren Modellen angebotenen KI-Suchmaschinen neue Einnahmequellen für Verlage schaffen würden, indem sie den Traffic auf deren Seiten lenkten. 

Einem Bericht der Content-Lizenzierungsplattform TollBit zufolge, der Forbes vorliegt, wurde jedoch bekannt, dass KI-Suchmaschinen tatsächlich weniger als 96 % des Datenverkehrs auf Nachrichtenseiten und Blogs lenken als die herkömmliche Google-Suche. 

In der Zwischenzeit hat die Zahl der KI-Entwickler, die Daten von Webseiten extrahieren, weiter zugenommen, was die Frustration vieler Verlage gegenüber diesen Tools noch verstärkt. 

Eine Benutzeroberfläche der ChatGPT-Suche von OpenAI
Eine Benutzeroberfläche der ChatGPT-Suche von OpenAI. Quelle: OpenAI (X/Twitter)

Wie KI-gestützte Suchmaschinen die Show stehlen 

Um den sich entwickelnden Konflikt zwischen Verlagen und KI-Suchmaschinen zu verstehen, müssen wir zu den Ursprüngen zurückkehren. 

Suchmaschinenoptimierung wurde enorm wichtig, als Yahoo! 1994 von einem reinen Verzeichnisdienst zu einer Suchfunktion wechselte. Sie war die Antwort auf die Suche nach Informationen im Internet, und nachdem Google 1997 die erste wirklich gute Suchmaschine wurde, dominierte sie schnell das Web und wurde für Webnutzer unerlässlich.

Google wurde zur besten Suchmaschine des Internets dank seines PageRank-Bewertungsmechanismus, der die Suchergebnisse danach einordnete, wie viele andere Websites auf den jeweiligen Treffer verlinkten.

Heutzutage, mit der Verbreitung von KI-gestützten Suchmaschinen, entscheiden sich die Nutzer entweder für einfache KI-Antwortagenten oder für die komplexeren KI-Recherchetools im Stil von „Deep Research“, die von verschiedenen KI-Laboren angeboten werden, um Online-Anfragen durchzuführen. 

Diese wachsende Beziehung zwischen KI-Suchmaschinen und Inhaltsanbietern stellt den „sozialentrac“ in Frage, der traditionelle Suchmaschinen wie Google für Verlage relevant gehalten hat. 

Gemäß demtracstellten Verlage Inhalte im Austausch für Weiterleitungsverkehr von Suchmaschinen bereit. Dies bildete die Grundlage für eine symbiotische Beziehung, die das Online-Medienökosystem über Jahrzehnte hinweg aufrechterhielt. 

Da wir nun aber KI-generierte Zusammenfassungen haben, die es Nutzern, die direkte Informationen benötigen, ersparen, die Originalquellen aufzurufen, hat sich die Dynamik deutlich verändert. 

Die neue Entwicklung bedroht nicht nur die Einnahmemodelle der Content-Ersteller, sondern zwingt uns auch dazu, die Nachhaltigkeit des Qualitätsjournalismus zu hinterfragen. 

Nathan Schultz, der CEO des Edtech-Unternehmens Chegg, meint , es sei an der Zeit, „Nein“ zu sagen, und erklärt, dass estracnicht richtig sei, 

Es ist offensichtlich, dass KI gekommen ist, um zu bleiben, und mit der Zeit werden sich immer mehr Menschen bei Fragen an KI-Assistenten wenden. Ein Experte ist der Ansicht, dass dies daran liegt, dass KI einen Schritt weiter geht und ein tieferes Verständnis vermittelt, anstatt nur dabei zu helfen, das Gesuchte zu finden. 

Das ist zwar eine tolle Funktion, hat aber verheerende Auswirkungen auf Websites, die auf Empfehlungsverkehr angewiesen sind. Nehmen wir Chegg als Beispiel: Der Traffic brach im Januar im Vergleich zum Vorjahr um 49 % ein – ein deutlicher Rückgang gegenüber dem Minus von 8 % im zweiten Quartal des Vorjahres, als Google die KI-Zusammenfassungen veröffentlichte. 

überlegt, ob es privatisiert oder übernommen werden soll laut in einer Telefonkonferenz zu den Geschäftszahlen

Wie Nachrichtenverlage mit der neuen Entwicklung umgegangen sind 

Laut einem Bericht von TollBit generieren KI-Suchmaschinen weniger Referral-Traffic als herkömmliche Google-Suchanfragen. Gleichzeitig hat das Web-Scraping durch KI-Unternehmen deutlich zugenommen; einige scrapten Websites im letzten Quartal 2024 durchschnittlich zwei Millionen Mal. Leider führt dieses Scraping selten zu mehr Traffic für die betroffenen Websites. 

Verlage sind darüber verärgert und haben hauptsächlich mit Klagen gegen KI-Unternehmen wegen Urheberrechtsverletzungen reagiert. Forbes schickte Perplexity im Juni eine Unterlassungserklärung und warf dem Unternehmen Urheberrechtsverletzungen vor. Im Oktober verklagten die New York Post und Dow Jones das Unternehmen wegen angeblicher Urheberrechtsverletzungen und der Verbreitung erfundener Fakten in den Medien. 

Perplexity AI veröffentlicht Statistiken zur Leistung seines Suchtools Deep Research AI.
Perplexity AI veröffentlicht Statistiken zur Leistungsfähigkeit seines Suchtools Deep Research AI. Quelle: Perplexity AI (X/Twitter)

Perplexity antwortete damals, die Klage spiegele eine Haltung wider, die „grundlegend kurzsichtig, unnötig und selbstzerstörerisch“ sei.

Anfang dieses Monats reichte eine Gruppe von Verlagen, darunter Condé Nast, Vox und The Atlantic, ebenfalls eine Klage gegen das KI-Unternehmen Cohere . Sie werfen ihm vor, 4.000 urheberrechtlich geschützte Werke aus dem Internet gesammelt und diese zum Trainieren seiner umfangreichen Sprachmodelle verwendet zu haben. 

Das Problem wird dadurch noch komplizierter, dass KI-Unternehmen ihre Webcrawler nicht richtigdent, was es Verlagen erschwert, den Zugriff auf ihre Inhalte zu verwalten. 

Um diesen Herausforderungen zu begegnen, haben sich einige Verlage für Inhaltslizenzverträge mit KI-Unternehmen entschieden, die ihnen eine Vergütung für die Nutzung ihrer Daten garantieren. Andere, wie TollBit, haben Modelle entwickelt, um KI-Unternehmen das Scraping von Inhalten in Rechnung zu stellen. 

Da sich die Dinge weiterentwickeln, werden die rechtlichen Rahmenbedingungen für Datenschutz und geistiges Eigentum zu entscheidenden Schlachtfeldern, auf denen die Rechte von Verlagen potenziell verteidigt und erweitert werden. 

Wenn die Dinge ungehindert weitergehen, könnten wir laut Analysten in eine Ära geraten, die von „KI-Müll“ dominiert wird. Das bedeutet eine Situation, in der hochkarätige Inhaltsanbieter aus dem Geschäft gedrängt werden, was zu einer erheblichen Verwässerung der Qualität der verfügbaren Informationen führt.

Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtronempfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführendent oder einen qualifizierten Fachmann zu konsultieren

Hannah Collymore

Hannah Collymore

Hannah ist Autorin und Redakteurin mit fast zehn Jahren Erfahrung im Bloggen und in der Eventberichterstattung. Sie absolvierte ihr Studium der Betriebswirtschaftslehre an der Arcadia University. Derzeit arbeitet sie für Cryptopolitanund berichtet dort über die neuesten Entwicklungen in den Bereichen Kryptowährungen, Gaming und KI.

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS