Microsoft Corp har lagt till ett antal säkerhetsfunktioner i Azure AI Studio som över tid bör fortsätta minska sannolikheten för att dess användare konfigurerar AI-modeller till ett läge som skulle få dem att agera onormalt eller olämpligt. Det multinationella teknikföretaget baserat i Redmond, Washington, beskrev förbättringarna i ett blogginlägg, med betoning på att garantera integriteten hos AI-interaktioner och främja förtroende för användarbasen.
Snabba sköldar och mer
Bland de stora utvecklingarna är skapandet av "prompt shields", en teknik som är designad för att hitta och döda snabba injektioner samtidigt som man pratar med AI-chatbots. Dessa är de så kallade jailbreaks och är i princip indata från användare som är avsiktliga att bilda på ett sådant sätt att de framkallar ett oönskat svar från AI-modellerna.
Till exempel spelar Microsoft sin roll indirekt med snabba injektioner, där det är möjligt att utföra onda order, och ett scenario som det kan leda till allvarliga säkerhetskonsekvenser som datastöld och systemkapning. Mekanismerna är nyckeln till att upptäcka och reagera på dessa unika hot i realtid, enligt Sarah Bird, Microsofts produktchef för ansvarsfull AI.
Microsoft tillägger att det snart kommer att finnas varningar på användarens skärm, som kommer att peka ut när en modell sannolikt kommer att uttrycka falsk eller vilseledande information, vilket säkerställer mer användarvänlighet och förtroende.
Bygga förtroende för AI-verktyg
Microsoft-satsningen är en del av ett större initiativ, menat att ge människor förtroende för den alltmer populära generativa AI som används flitigt i tjänster som riktar sig till enskilda konsumenter och företagskunder. Microsoft gick igenom med en finkammad kam, efter att ha ådragit sig fallen, där användare hade förmågan att spela Copilot-chatboten för att producera bisarra eller skadliga utdata. Detta kommer att stödja ett resultat som visar behovet av tron försvar mot de nämnda manipulativa taktikerna, som sannolikt kommer att stiga med AI-teknologier och populär kunskap. Att förutsäga och sedan mildra är i erkännande av attackmönster, till exempel där en angripare upprepar förhör eller uppmanar till rollspel.
Som OpenAI:s största investerare och strategiska partner tänjer Microsoft på gränserna för hur man införlivar och skapar ansvarsfulla, säkra generativa AI-teknologier. Båda är engagerade i den ansvarsfulla implementeringen och grundmodellerna för Generativ AI för säkerhetsåtgärder. Men Bird medgav att dessa stora språkmodeller, även om de kommer att ses som en grund för mycket av den framtida AI-innovationen, inte är manipulationssäkra.
Att bygga på dessa grunder kommer att kräva mycket mer än att bara förlita sig på själva modellerna; det skulle behövas en heltäckande strategi för AI-säkerhet och säkerhet.
Microsoft tillkännagav nyligen en förstärkning av säkerhetsåtgärderna för sin Azure AI Studio för att visa och garantera proaktiva åtgärder som vidtas för att skydda det skiftande AI-hotlandskapet.
Den strävar efter att undvika missbruk av AI och bevara integriteten och tillförlitligheten av AI-interaktion genom att införliva aktuella skärmar och varningar.
Med den ständiga utvecklingen av AI-teknik och dess användning i många inkluderande av det dagliga livet, kommer det att vara hög tid för Microsoft och resten av AI-communityt att upprätthålla en mycket vaksam säkerhetshållning.