Chargement...

Microsoft améliore la sécurité des chatbots IA pour contrecarrer les escrocs

TL; DR

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Microsoft Corp a ajouté un certain nombre de fonctionnalités de sécurité dans Azure AI Studio qui devraient, au fil du temps, continuer à réduire la probabilité que ses utilisateurs configurent les modèles d'IA dans un mode qui les ferait agir de manière anormale ou inappropriée. La société technologique multinationale basée à Redmond, Washington a décrit les améliorations dans un article de blog, mettant l'accent sur la garantie de l'intégrité des interactions de l'IA et sur le renforcement de la confiance dans la base d'utilisateurs.

Boucliers rapides et plus encore 

Parmi les développements majeurs figure la création de « boucliers d’invite », une technologie conçue pour détecter et éliminer les injections d’invite tout en conversant avec des chatbots IA. Il s'agit de ce qu'on appelle les jailbreaks et sont essentiellement des entrées d'utilisateurs intentionnellement formées de telle manière qu'elles suscitent une réponse indésirable de la part des modèles d'IA.

Par exemple, Microsoft joue son rôle indirectement avec des injections rapides, où l'exécution d'ordres malveillants est possible, et un tel scénario peut entraîner de graves conséquences en matière de sécurité, comme le vol de données et le détournement du système. Ces mécanismes sont essentiels pour détecter et répondre à ces menaces uniques en temps réel, selon Sarah Bird, directrice des produits pour l'IA responsable chez Microsoft.

Microsoft ajoute qu'il y aura bientôt des alertes sur l'écran de l'utilisateur, qui indiqueront quand un modèle est susceptible d'exprimer des informations fausses ou trompeuses, garantissant ainsi plus de convivialité et de confiance.

Bâtir la confiance dans les outils d’IA 

L'effort de Microsoft fait partie d'une initiative plus vaste visant à donner confiance aux gens dans l'IA générative de plus en plus populaire, largement appliquée dans les services ciblant les particuliers et la clientèle d'entreprise. Microsoft est passé au peigne fin, après avoir rencontré des cas dans lesquels les utilisateurs avaient la possibilité de manipuler le chatbot Copilot pour qu'il produise des sorties bizarres ou nuisibles. Cela viendra étayer un résultat qui montre la nécessité de défenses tron contre les tactiques de manipulation mentionnées, qui sont susceptibles de se développer avec les technologies de l’IA et le savoir populaire. Prédire, puis atténuer, consiste à reconnaître des modèles d'attaque, tels que le fait qu'un attaquant répète des questions ou des invites lors d'un jeu de rôle.

En tant que plus grand investisseur et partenaire stratégique d'OpenAI, Microsoft repousse les limites de la manière d'incorporer et de créer des technologies d'IA générative responsables et sûres. Tous deux s’engagent en faveur du déploiement responsable et des modèles fondamentaux de l’IA générative pour les mesures de sécurité. Mais Bird a reconnu que ces grands modèles de langage, même s’ils sont de plus en plus considérés comme le fondement d’une grande partie de l’innovation future en matière d’IA, ne sont pas à l’épreuve des manipulations.

Bâtir sur ces fondations nécessitera bien plus que de s’appuyer uniquement sur les modèles eux-mêmes ; cela nécessiterait une approche globale de la sûreté et de la sécurité de l’IA.

Microsoft a récemment annoncé le renforcement des mesures de sécurité pour son Azure AI Studio afin de montrer et de garantir les mesures proactives prises pour protéger le paysage changeant des menaces liées à l'IA.

Il s'efforce d'éviter les utilisations abusives de l'IA et de préserver l'intégrité et la fiabilité de l'interaction de l'IA en intégrant des écrans et des alertes en temps opportun.

Avec l’évolution constante de la technologie de l’IA et son adoption dans de nombreux aspects de la vie quotidienne, il sera grand temps pour Microsoft et le reste de la communauté de l’IA de maintenir une position de sécurité très vigilante.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Jean Palmier

John Palmer est un rédacteur de crypto enthousiaste qui s'intéresse au Bitcoin , à la Blockchain et à l'analyse technique. En mettant l'accent sur l'analyse quotidienne du marché, ses recherches aident les commerçants et les investisseurs. Son intérêt particulier pour les portefeuilles numériques et la blockchain aide son public.

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Médicaments
cryptopolite
Abonnez-vous à CryptoPolitan