NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Microsoft stellt neue Sicherheitsfunktionen für Azure AI vor, um vor KI-Halluzinationen zu schützen

VonEmman OmwandaEmman Omwanda
3 Minuten Lesezeit
Microsoft
  • Die KI-Tools von Microsoft priorisieren Sicherheit und verhindern Fehlinformationen.
  • Azure AI führt die Erkennung von Schwachstellen und Bedrohungen in Echtzeit ein.
  • Erweiterte Kontrolloptionen schützen Azure-Benutzer vor Missbrauch.

Microsoft hat ein fortschrittliches Toolkit mit Funktionen zur Verbesserung der Sicherheit der Azure AI-Plattform veröffentlicht. Sarah Bind, leitende Produktmanagerin der Microsoft Sentient AI Initiative, wird eine Reihe von Tools vorstellen, die speziell für die Minimierung der Risiken KI-gestützter Anwendungen entwickelt wurden. 

In der Vorschauphase werden die neuen Sicherheitsvorkehrungen Azure AI vor Bedrohungen schützen, abgesicherte Antworten liefern und vor der aktiven und versteckten Einschleusung bösartiger Prompts schützen, ohne dass spezielle Red Teams erforderlich sind.

Die fortschrittlichen KI-Sicherheitstools von Microsoft Azure

Die Berücksichtigung dieser Bedenken ist von größter Bedeutung für die effektive Integration der KI-Technologie in den öffentlichen Sektor, da es entscheidend ist, unvorhergesehene Risiken und Bedenken zu mindern, die ihre Implementierung und ihren langfristigen Erfolg behindern könnten.

Es wurden auch die Spitze des Eisbergs vorgestellt, etwa Tools wie Prompt Shields, Groundedness Detection und aufwändige Schwachstellenanalysen, die dabei helfen, die Schwachstellen des Modells aufzudecken. 

Die Prompt Shields bieten ein Gateway, das die Einschleusung bösartiger Prompts blockiert und Benutzer vor dem Risiko des Einsatzes von KI gegen die digitale Welt durch KI-Modelle schützt, indem die Verwendung verbotener Sprache/versteckter Prompts untersagt wird, da diese zur Ausnutzung von Benutzereingaben und Daten Dritter führen könnten. 

Dies ist besonders wichtig, wenn es darum geht, die Produktion von falschem oder ungenauem Material über historische Ereignisse zu vermeiden, was bei KI-gesteuerten Modellen eine Herausforderung darstellte

KI-Sicherheit und Halluzinationsabwehr im Azure-Ökosystem

Die textbasierte Halluzinationsminderung, ein weiterer wesentlicher Bestandteil von Microsofts Sicherheitstoolkit, zielt auf die Neutralisierung von Halluzinationen ab. Dadurch wird eine Umgebung geschaffen, in der nicht jede Idee akzeptabel ist; nur solche, die durch Beweise gestützt und überprüfbar sind, eignen sich als Eingaben für KI-Systeme. 

Darüber hinaus ermöglichen Sicherheitsbewertungen eine detaillierte Überwachung der Schwachstellen von Modellen, sodass diese umgehenddentund die Sicherheitsmaßnahmen anschließend bedarfsgerecht angepasst werden können. Microsoft ist somit bestens gerüstet, um auf individuelle Kundenbedürfnisse einzugehen und angemessene KI-Sicherheitsmaßnahmen bereitzustellen. 

Azure-Kunden können ihre Einstellungen individuell anpassen, indem sie geschlechterdiskriminierende Inhalte, Hassreden und andere abwertende Inhalte, die ihren spezifischen Bedürfnissen entsprechen, ein- oder ausschließen. 

Ebenso wird ein solches zukünftiges Upgrade Administratoren dabei helfen, festzustellen, ob ein Benutzer ein echter Tester oder ein böswilliger Benutzer ist, indem es eine Berichtsfunktion bereitstellt.

Microsofts wegweisender Ansatz für eine sichere und ethische KI-Entwicklung

Die Bedeutung dieser Sicherheitsmaßnahmen liegt nicht nur in den unmittelbaren Sicherheitsvorteilen, sondern auch darin, dass die IT-Branche einen ganzheitlichen und sozial verantwortlichen Ansatz für die KI-Entwicklung verfolgt. Die Integration von Tools wie Llama in führende Versionen wie GPT-4 und Llama 2 würde bedeuten, dass zahlreiche KI-Anwendungen auf Azure AI von verbesserten Betrugs- und Fehlerkontrollmaßnahmen abhängig wären. 

Dass weniger verbreitete Open-Source-Modelle unter Umständen eine manuelle Integration der Sicherheitsfunktionen in das Hauptsystem erfordern, ist jedoch nebensächlich. Diese Sicherheitsmaßnahmen sind Teil der umfassenden Strategie von Microsoft, ein sicheres und ethisches KI-Umfeld zu schaffen. Azure-KI-Kunden (z. B. KPMG, AT&T, Reddit) zählen zu den führenden Unternehmen, die Fortschritte in verschiedenen Bereichen vorantreiben wollen. 

Daher wird erwartet, dass ihre Auswirkungen weitreichend sein werden. Darüber hinaus beweist Microsoft durch die Partnerschaft mit OpenAI und die Einführung des Azure OpenAI-Dienstes seine führende Rolle im Bereich KI und bietet Entwicklern und Organisationen die Werkzeuge, die sie benötigen, um Kompetenz in KI-Anwendungen zu erlangen.

Die neueste Sicherheitsfunktion von Microsoft ist als Reaktion auf die großen Risiken zu verstehen, die von Technologien der künstlichen Intelligenz ausgehen. Indem Microsoft Wege erforscht, wie KI vor Sicherheitsbedrohungen geschützt und die Genauigkeit der Live-Ausgaben von KI-Tools verbessert werden kann, defidas Unternehmen damit einen neuen Standard für KI-Sicherheit. So werden die Sicherheit, Integrität und Zuverlässigkeit von KI-Lösungen verbessert und die KI-Nutzung im Dialog weiterentwickelt.

Je weiter sich künstliche Intelligenz entwickelt, desto wichtiger wird eine sichere Überwachung. Mit diesen neuartigen Sicherheitstechnologien setzt Microsoft neue Maßstäbe für ein wirklich sicheres und ethisches KI-Paradigma. Dank dieser Schutzmaßnahmen können Azure-Kunden KI-Systemedent in ihre Betriebsabläufe integrieren und dabei alle potenziellen Risiken der künstlichen Intelligenz vollständig verstehen.

Originalmeldung von https://thehorizon.ai/microsofts-new-safety-system-can-catch-hallucinations-in-its-customers-ai-apps

Ihre Bank nutzt Ihr Geld. Sie bekommen nur die Krümel. Sehen Sie sich unser kostenloses Video an, wie Sie Ihre eigene Bank werden können.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS