Jedes dritte Unternehmen in Großbritannien sorgt sich um die Sicherheit seiner Daten bei der Verwendung von Large Language Models (LLMs), da diese sich von Assistenten, die auf Befehle oder Fragen reagieren, zudent Systemen entwickelt haben, die ohne ständiges menschliches Eingreifen agieren.
Daher zögern diese Organisationen, KI-Systeme in ihre Betriebssysteme zu integrieren, da sie befürchten, die Kontrolle über ihre Daten und ihre Sicherheit an Maschinen zu verlieren, die „selbstständig denken“ können.
Die britische Regierung ergreift Maßnahmen, um diesen Herausforderungen zu begegnen. Kabinettsminister Pat McFadden gab die Freigabe einer Geheimdienstanalyse bekannt, die darauf hinweist, dass KI die Cyberbedrohungen in den kommenden Jahren verschärfen wird.
Im Jahr 2024 gingen beim NCSC fast 2.000 Meldungen über Cyberangriffe ein, von denen knapp 90 als „bedeutend“ und 12 als „äußerst schwerwiegend“ eingestuft wurden. Dies entspricht einer Verdreifachung der Anzahl schwerwiegender Angriffe im Vergleich zum Vorjahr.
Britische Unternehmen warnen vor Datensicherheit in LLM-Programmen
Unternehmen in Großbritannien müssen strenge Vorschriften einhalten, die die Daten der Menschen schützen und deren Missbrauch verhindern sollen, wie beispielsweise den britischen Data Protection Act und die EU-Datenschutzgrundverordnung (DSGVO).
Unternehmen, die gegen diese Gesetze verstoßen, riskieren rechtliche Schritte und Reputationsschäden und überdenken daher ihre LLM-Strategien. Künstliche Intelligenz könnte ohne sorgfältige menschliche Aufsicht oder präzise Eingaben private Informationen offenlegen oder irreführende Ergebnisse liefern.
Anfänglich lieferten KI-Tools wie Chatbots nur vorgegebene Antworten, während intelligente Thermostate die Temperatur lediglich nach einfachen Regeln anpassten, ohne dabei zu denken oder aus neuen Daten, vorherigen Aktionen oder den Ergebnissen ihrer Entscheidungen zu lernen. Moderne KI-Agenten hingegen nutzen Lernmodelle, um aus Daten zu lernen, ihr Handeln an neue Informationen anzupassen und verschiedene Probleme durch menschenähnliches Denken zu lösen.
Das ist jedoch nur ein kleiner Teil eines viel größeren Problems, denn Nutzer können den Agenten auch anweisen, eine Aufgabe zu erledigen. Dieser zerlegt die Aufgabe dann in kleinere Schritte, bearbeitet jeden Schritt einzeln und wertet anschließend die Ergebnisse aus. Darüber hinaus können manche Agenten zusammenarbeiten, um komplexe Aufgaben zu bewältigen. Dabei erledigt einer die eigentliche Aufgabe, während der andere die Ergebnisse überprüft und optimiert.
Obwohl dieses Wachstum Unternehmen hilft, Abläufe zu automatisieren und den Zeitaufwand menschlicher Teams zu reduzieren, birgt es auch eine Gefahr. Denn je mehr Entscheidungen diese Systeme selbstständig treffen, desto schwieriger wird es für uns, ihr Handeln vollständig zu verstehen, vorherzusagen oder zu kontrollieren. Ebenso können die Folgen ihrer Fehler exponentiell wachsen, da diese KI-Systeme ohne menschliches Eingreifen agieren.
Unternehmen setzen KI-Agenten abteilungsübergreifend vorsichtig ein
Viele Unternehmen in Großbritannien setzen KI-Agenten in ihren täglichen Abläufen ein, wobei Abteilungen wie Kundenservice, Personalwesen und Marketing die Tools langsam testen und genau überwachen.
Ein gutes Beispiel aus der Wirtschaft ist Pets at Home, das einen KI-Agenten für sein tierärztliches Personal entwickelt hat, um bei Untersuchungen von Haustieren schnelle Antworten und Unterstützung zu bieten. Dies zeigt, wie nützlich KI-Agenten auch für kleinere Aufgaben in realen Berufen sind.
Aktuell benötigen die meisten KI-Systeme mit Agentenunterstützung menschliche Anleitung, Überprüfung und Fehlerbehebung, da sie noch nicht in der Lage sind, Menschen ohne Aufsicht vollständig zu ersetzen. Zukünftig könnten Unternehmen jedoch vor schwierigen Entscheidungen stehen, die es ihnen ermöglichen, KI-Agenten in Systeme zu integrieren und gleichzeitig die Kontrolle zu behalten.

