Eine Großmutter aus San Diego entging nur knapp dem Verlust von Tausenden von Dollar durch einen Betrug mit KI-generierter Stimme, die ihren geliebten Enkel imitierte. Derdent ereignete sich, als Maureen, eine Großmutter aus dem Norden des Landkreises, einen Anruf von einer unbekannten Nummer erhielt, den sie zunächst für einen Anruf ihrer Schwester mit unterdrückter Nummer hielt. Die Stimme am anderen Ende der Leitung klang jedoch unheimlich nach ihrem verstörten Enkel.
Überzeugende KI-Täuschung
Der Anrufer gab sich als Maureens Enkel aus und teilte ihr mit, er sei in einendentverwickelt gewesen, trage eine Halskrause und sei auf dem Weg zur Polizeiwache. Er verlangte dringend 8.200 Dollar Kaution. Die täuschend echt wirkende, KI-generierte Stimme war so überzeugend, dass Maureen sofort glaubte, es sei ihr Enkel. Ein angeblicher Anwalt schaltete sich ebenfalls in das Gespräch ein und verstärkte die Glaubwürdigkeit des Betrugs, indem er behauptete, ihr Enkel habe bei demdenteinen Diplomaten angefahren und betonte die Notwendigkeit der Geheimhaltung innerhalb von 72 Stunden.
Aus Angst um die Sicherheit ihres Enkels fiel Maureen auf den Betrug herein. Hastig sammelte sie das vermeintliche Kautionsgeld ein und eilte zur Bank, um weiteres Geld abzuheben. Bevor sie jedoch ihr hart verdientes cashaushändigte, kontaktierte sie klugerweise ihre Tochter, um sich nach dem Wohlergehen ihres Enkels zu erkundigen. Zu ihrer Erleichterung erfuhr sie, dass ihr Enkel wohlauf war und an einem Golfturnier teilnahm. Diese Enthüllung erzürnte den Betrüger, der seinem Ärger in einem anschließenden Telefonat mit Maureens Tochter Luft machte.
KI-gestützte Betrugsmaschen nehmen zu
Betrugsmaschen wie der sogenannte „Oma-Betrug“ beinhalten, dass sich Betrüger als vertrauenswürdige Personen ausgeben, um Opfer durch vorgetäuschte Notfälle zur Geldüberweisung zu bewegen. Dieser Trend, insbesondere unter älteren Menschen, nimmt zu und bereitet den Strafverfolgungsbehörden zunehmend Sorgen. Künstliche Intelligenz verschärft das Problem, da sie Stimmenimitationen zugänglicher und kostengünstiger macht.
KI-Tools wie ElevenLabs und Stable Diffusion können Stimmen und Mundbewegungen manipulieren, wodurch es immer schwieriger wird, authentische Audio- oder Videoaufnahmen von Fälschungen zu unterscheiden. Laut der Federal Trade Commission (FTC) waren Betrugsmaschen mit Identitätsdiebstahl im Jahr 2022 die zweithäufigste Betrugsart in den USA, mit über 36.000 gemeldeten Fällen und einem Schaden von über 11 Millionen US-Dollar, der auf telefonischedentzurückzuführen ist.
Schutz vor KI-Betrug
Angesichts der zunehmenden Bedrohung durch KI-gesteuerte Betrugsversuche entwickelte Maureens Familie eine Schutzstrategie, das sogenannte „Sicherheitswort“. Dieses einzigartige Wort ist nur Familienmitgliedern bekannt und dient der Verifizierung bei verdächtigen Anrufen. Wichtig ist, das Wort nicht per SMS oder E-Mail weiterzugeben, sondern es direkt am Telefon zu kommunizieren.
Maureen betonte die durch den Betrug verursachte emotionale Belastung und äußerte ihren Wunsch, andere vor ähnlichen Erfahrungen zu bewahren. Die Verwendung von Codewörtern und die direkte telefonische Kommunikation sind ein proaktiver Ansatz, um der wachsenden Herausforderung KI-gestützter Täuschung entgegenzuwirken.
Die Geschichte von Oma Maureen, die beinahe Opfer eines KI-gestützten Stimmklon-Betrugs geworden wäre, verdeutlicht die zunehmende Raffinesse von Betrügern. Angesichts der Weiterentwicklung der KI-Technologie wird es für Einzelpersonen und Familien unerlässlich, Schutzmaßnahmen wie Codewörter und direkte telefonische Kommunikation zu ergreifen, um sich vor emotionalem und finanziellem Leid durch diese betrügerischen Machenschaften zu schützen.

