Wird geladen...

Microsoft verbessert die KI-Chatbot-Sicherheit, um Betrügern das Handwerk zu legen

TL;DR

Haftungsausschluss. Die bereitgestellten Informationen sind keine Handelsberatung. Cryptopolitan.com haftet nicht für Investitionen, die auf der Grundlage der auf dieser Seite bereitgestellten Informationen getätigt wurden. Wir tron dringend unabhängige dent und/oder Beratung durch einen qualifizierten Fachmann, bevor Sie Anlageentscheidungen treffen.

Microsoft Corp hat dem Azure AI Studio eine Reihe von Sicherheitsfunktionen hinzugefügt, die im Laufe der Zeit die Wahrscheinlichkeit weiter verringern sollen, dass Benutzer KI-Modelle in einen Modus konfigurieren, der dazu führen würde, dass sie ungewöhnlich oder unangemessen agieren. Das multinationale Technologieunternehmen mit Sitz in Redmond, Washington erläuterte die Verbesserungen in einem Blogbeitrag und betonte dabei die Gewährleistung der Integrität von KI-Interaktionen und die Förderung des Vertrauens in die Benutzerbasis.

Sofortige Schilde und mehr 

Zu den wichtigsten Entwicklungen gehört die Schaffung von „Prompt Shields“, einer Technologie, die darauf ausgelegt ist, Prompt-Injektionen während der Kommunikation mit KI-Chatbots zu finden und abzuwehren. Hierbei handelt es sich um sogenannte Jailbreaks, bei denen es sich im Wesentlichen um Eingaben von Benutzern handelt, die absichtlich so gestaltet sind, dass sie eine unerwünschte Reaktion der KI-Modelle hervorrufen.

Beispielsweise trägt Microsoft seinen Teil indirekt mit prompten Injektionen bei, bei denen die Ausführung böser Befehle möglich ist und ein solches Szenario schwerwiegende Sicherheitsfolgen wie Datendiebstahl und Systemhijacking nach sich ziehen kann. Laut Sarah Bird, Chief Product Officer für Responsible AI bei Microsoft, sind die Mechanismen der Schlüssel zur Erkennung und Reaktion auf diese einzigartigen Bedrohungen in Echtzeit.

Microsoft fügt hinzu, dass es bald Warnungen auf dem Bildschirm des Benutzers geben wird, die darauf hinweisen, wenn ein Modell wahrscheinlich falsche oder irreführende Informationen preisgibt, was für mehr Benutzerfreundlichkeit und Vertrauen sorgt.

Vertrauen in KI-Tools aufbauen 

Die Bemühungen von Microsoft sind Teil einer größeren Initiative, die darauf abzielt, den Menschen Vertrauen in die immer beliebter werdende generative KI zu geben, die in großem Umfang in Diensten für Privatkunden und Unternehmenskunden eingesetzt wird. Microsoft hat nach den Vorfällen eine gründliche Analyse vorgenommen, bei der Benutzer die Möglichkeit hatten, den Copilot-Chatbot so zu manipulieren, dass er bizarre oder schädliche Ausgaben produzierte. Dies wird ein Ergebnis unterstützen, das die Notwendigkeit tron Abwehrmaßnahmen gegen die genannten manipulativen Taktiken zeigt, die mit KI-Technologien und allgemeinem Wissen wahrscheinlich zunehmen werden. Das Vorhersagen und anschließende Abmildern erfolgt durch das Erkennen von Angriffsmustern, z. B. wenn ein Angreifer wiederholt Fragen stellt oder zu Rollenspielen auffordert.

Als größter Investor und strategischer Partner von OpenAI verschiebt Microsoft die Grenzen bei der Integration und Entwicklung verantwortungsvoller, sicherer generativer KI-Technologien. Beide setzen sich für den verantwortungsvollen Einsatz und die grundlegenden Modelle generativer KI für Sicherheitsmaßnahmen ein. Bird räumte jedoch ein, dass diese großen Sprachmodelle, auch wenn sie zunehmend als Grundlage für einen Großteil der zukünftigen KI-Innovationen angesehen werden, nicht manipulationssicher sind.

Um auf diesen Grundlagen aufzubauen, ist viel mehr erforderlich, als sich nur auf die Modelle selbst zu verlassen. Es wäre ein umfassender Ansatz für die KI-Sicherheit erforderlich.

Microsoft hat kürzlich die Verstärkung der Sicherheitsmaßnahmen für sein Azure AI Studio angekündigt, um proaktive Maßnahmen zum Schutz der sich verändernden KI-Bedrohungslandschaft aufzuzeigen und zu garantieren.

Ziel ist es, den Missbrauch von KI zu verhindern und die Integrität und Zuverlässigkeit der KI-Interaktion durch die Einbeziehung rechtzeitiger Überprüfungen und Warnungen zu wahren.

Angesichts der ständigen Weiterentwicklung der KI-Technologie und ihrer Einführung in viele Bereiche des täglichen Lebens wird es für Microsoft und den Rest der KI-Community höchste Zeit, eine sehr wachsame Sicherheitshaltung beizubehalten.

Haftungsausschluss. Die bereitgestellten Informationen sind keine Handelsberatung. Cryptopolitan.com haftet nicht für Investitionen, die auf der Grundlage der auf dieser Seite bereitgestellten Informationen getätigt wurden. Wir tron dringend unabhängige dent und/oder Beratung durch einen qualifizierten Fachmann, bevor Sie Anlageentscheidungen treffen.

Einen Link teilen:

Johannes Palmer

John Palmer ist ein begeisterter Krypto-Autor mit Interesse an Bitcoin , Blockchain und technischer Analyse. Seine Forschung konzentriert sich auf die tägliche Marktanalyse und hilft Händlern und Investoren gleichermaßen. Sein besonderes Interesse an digitalen Geldbörsen und Blockchain kommt seinem Publikum zugute.

Meist gelesen

Die meisten gelesenen Artikel werden geladen...

Bleiben Sie über Krypto-Neuigkeiten auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang

Ähnliche Neuigkeiten

Thomson Reuters
Kryptopolitan
Abonnieren Sie CryptoPolitan