Google-Analyst warnt: KI-Antworten sind „nicht perfekt, können Ihr Gehirn nicht ersetzen“

- Google-Analyst Gary Illyes warnte davor, dass LLMs immer noch Lücken in der Genauigkeit aufweisen.
- Die Modelle benötigen ein menschliches Auge, um die von ihnen erzeugten Inhalte zu überprüfen.
- Er sagte, man solle KI-Antworten nicht vertrauen, ohne vorher verlässliche Quellen zu konsultieren.
Google-Analyst Gary Illyes warnte davor, dass große Sprachmodelle – die Technologie hinter generativen KI-Chatbots wie ChatGPT – noch immer Ungenauigkeiten aufweisen und die von Menschen generierten Inhalte überprüfen müssen. Diese Warnung erfolgte nur wenige Tage nach dem Start von SearchGPT, einer neuen KI-gestützten Suchmaschine, die direkt mit Google konkurrieren wird.
Illyes teilte die Kommentare auf LinkedIn als Antwort auf eine Frage, die er per E-Mail erhalten hatte, ohne die Frage selbst zu nennen. Er betonte, man solle KI-Antworten nicht blind vertrauen, ohne andere, verlässliche Quellen zu konsultieren. OpenAI hat sich zum Ziel gesetzt, mit seinem Suchtool Googles Dominanz auf dem Suchmaschinenmarkt zu brechen.
KI-Antworten sind nicht „notwendigerweise faktisch korrekt“.
Illyes, der seit über zehn Jahren bei Google arbeitet, sagte, dass KI-Antworten zwar nahe an der Wahrheit liegen mögen, aber nicht unbedingt „faktisch korrekt“ seien. Das liege daran, dass große Sprachmodelle (LLMs) nicht davor gefeit seien, sich von falschen Informationen aus dem Internet beeinflussen zu lassen, erklärte er.
„LLMs finden anhand ihrer Trainingsdaten die passendsten Wörter, Phrasen und Sätze, die dem Kontext und der Bedeutung einer Aufforderung entsprechen“, schrieb Illyes. „Dadurch können sie relevante und kohärente Antworten generieren. Allerdings nicht unbedingt faktisch korrekte.“
Der Google-Analyst sagte, dass die Nutzer die KI-Antworten weiterhin anhand ihres eigenen Wissens über das Thema, zu dem sie den LLM befragt haben, oder durch zusätzliche Recherchen in für ihre Anfrage maßgeblichen Quellen überprüfen müssen.
Eine Methode, mit der Entwickler die Zuverlässigkeit KI-generierter Inhalte gewährleisten wollen, ist das sogenannte „Grounding“. Dabei werden maschinell erstellte Informationen mit menschlichen Elementen angereichert, um Fehler zu vermeiden. Laut Illyes reicht Grounding möglicherweise noch nicht aus.
„Grundlagen können helfen, faktisch korrektere Antworten zu geben, aber sie sind nicht perfekt; sie ersetzen nicht Ihr Gehirn“, sagte er. „Das Internet ist voll von beabsichtigten und unbeabsichtigten Fehlinformationen, und Sie würden ja auch nicht alles glauben, was Sie online lesen, warum sollten Sie also Antworten aus dem Bereich der Grundlagenforschung glauben?“
Elon Musk wirft Google vor, öffentliche Informationen zu kontrollieren.
Traditionell war Vertrauen immer schon ein Problem bei Suchmaschinen wie Google und anderen Plattformen für künstliche Intelligenz und der Art und Weise, wie sie eine gewisse Kontrolle über die Informationen ausüben, die sie an die Nutzer weitergeben.
Ein solcher Vorfalldentdentdent dentdentdentdent dentdent Trump. Elon Musk schlug vor , Google solle den Vorfall aus seinen Suchergebnissen verbannendent was in den sozialen Medien eine heftige Debatte über den Einfluss der großen Technologiekonzerne auslöste.
Wow, Google hat eine Suchsperre fürdent Donald Trump verhängt!
Wahlbeeinflussung? pic.twitter.com/dJzgVAAFZA
— Elon Musk (@elonmusk) 29. Juli 2024
Inmitten der Flut von Reaktionen beteiligte sich auch ein gefälschter Account, der vorgab, der Google-Vizepräsidentin Ana Mostarac zu gehören,dent der Debatte und teilte eine gefälschte Entschuldigung des Unternehmens für die angebliche Sperrung von Inhalten über Trump.
„…Der Informationsbedarf der Menschen wächst stetig, daher werden wir die Suche kontinuierlich weiterentwickeln und verbessern. Allerdings müssen wir offenbar überdenken, was wir unter Genauigkeit verstehen. Was als genau gilt, ist subjektiv, und das Streben nach Genauigkeit kann die eigentliche Arbeit behindern“, postete der gefälschte Account auf X.
„Sie können sicher sein, dass unser Team hart daran arbeitet, sicherzustellen, dass unsere Ehrfurcht vor Genauigkeit nicht zu einertracwird, die unserer Vision für die Zukunft im Wege steht“, hieß es weiter.
Die Community auf X wiesen umgehend auf den Tweet hin und gab an, dass sich die Person als Google-Vizepräsident ausgab. Dies ist ein Beispiel dafür, wie leicht Informationen verfälscht werden können und wie KI-Modelle ohne menschliche Überprüfung möglicherweise nicht zwischen korrekten und falschen Angaben unterscheiden können.
Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.
Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)














