Chargement...

Apprentissage profond collaboratif : applications d'apprentissage automatique en cryptographie

Dans le domaine de l'apprentissage profond, il existe des cas où les données provenant d'une source unique sont insuffisantes pour entraîner un modèle. Cela a conduit à un intérêt croissant parmi les propriétaires de données non seulement pour utiliser leurs propres données, mais également pour incorporer des données provenant d'autres sources. Une approche pour faciliter cela consiste à utiliser un modèle basé sur le cloud qui peut apprendre de plusieurs sources de données. Cependant, une préoccupation majeure est la protection des informations sensibles.  

Cela a donné naissance au concept de deep learning collaboratif, qui s’articule autour de deux stratégies principales : le partage de données d’entraînement cryptées et le partage de gradients cryptés. Le principe primordial ici est l'utilisation d'un cryptage entièrement homomorphique pour garantir que toutes les données, y compris celles utilisées pour les opérations dans le cloud, restent cryptées tout au long du processus d'apprentissage.

Partager des données cryptées pour garantir la confidentialité

Il existe des approches innovantes pour garantir la confidentialité lors de l’apprentissage profond collaboratif. L’une de ces méthodes implique à la fois les propriétaires de données et un système basé sur le cloud. Voici comment cela fonctionne:

  1. Les propriétaires de données créent des clés publiques, des clés secrètes et des clés d'évaluation. Ils chiffrent ensuite leurs données (comme les données d'entraînement et les cibles souhaitées) à l'aide de leurs clés publiques et transmettent ces données chiffrées vers le cloud.
  2. Le cloud, dès réception de ces données cryptées, procède à l'entraînement du modèle à l'aide des clés publiques et d'évaluation fournies par les propriétaires des données.
  3. Une fois que le processus d'apprentissage met à jour les pondérations chiffrées, le cloud renvoie ces pondérations chiffrées aux propriétaires de données respectifs.
  4. Enfin, les propriétaires de données décryptent de manière collaborative les données reçues pour obtenir des pondérations individuelles mises à jour. Ce processus de décryptage exploite des techniques de calcul multipartites sécurisées.

Une autre méthode plus complexe a été proposée pour éliminer la nécessité pour les propriétaires de données de communiquer pendant le processus de décryptage. Cela implique une entité supplémentaire, un centre agréé (AU), et utilise une combinaison de techniques de double cryptage et de cryptage multi-clés entièrement homomorphe. Les étapes sont les suivantes :

  1. Les propriétaires de données créent leurs clés publiques et secrètes et chiffrent leurs données, qui sont ensuite envoyées vers le cloud. L'UA conserve également une copie des clés secrètes des propriétaires de données.
  2. Le cloud, après avoir reçu les données cryptées mais sans clés d'évaluation, introduit du bruit dans les données et les transmet à l'UA.
  3. L'UA décrypte ces données à l'aide des clés secrètes des propriétaires des données et les rechiffre avec une clé publique unique avant de les renvoyer vers le cloud.
  4. Le cloud peut désormais calculer des pondérations cryptées et mises à jour à l'aide de ces données uniformément cryptées. Une fois cela fait, les résultats sont envoyés à l'UA pour être rechiffrés à l'aide des clés publiques individuelles des propriétaires de données.
  5. Chaque propriétaire de données reçoit ensuite ses résultats respectifs, qu'il peut décrypter à l'aide de ses clés secrètes.

Il a été démontré que ce système maintient la sécurité sémantique, à condition que le système à clé publique utilisé soit également sémantiquement sécurisé. De plus, la confidentialité des paramètres d’apprentissage profond, comme les pondérations, reste intacte tant que le cloud et l’UA ne conspirent pas.

Lors de progrès récents, des améliorations ont été apportées à la méthode de base en introduisant un cryptage multi-schéma entièrement homomorphe. Cela permet aux propriétaires de données d’utiliser divers schémas de chiffrement lorsqu’ils participent à un apprentissage profond collaboratif. De plus, la précision de certaines fonctions d'activation et la précision globale ainsi que la rapidité des tâches de classification ont été améliorées par rapport aux méthodes antérieures.

Apprentissage profond collaboratif avec dégradés cryptés

Une approche innovante dans le domaine de l’apprentissage profond collaboratif implique l’utilisation d’un cryptage homomorphe additif. Cette méthode a été développée pour améliorer les techniques précédentes qui utilisaient la descente de gradient stochastique asynchrone (ASGD) comme méthode d'apprentissage. Cette approche antérieure était appelée « ASGD sélective par gradients » car elle permettait à chaque propriétaire de données de décider quels gradients partager globalement, garantissant ainsi leur confidentialité.  

Il existait également une méthode supplémentaire intégrant une confidentialité différentielle en introduisant le bruit de Laplace dans les gradients. Malgré ces mesures, il a été démontré qu'il existait toujours un potentiel de fuite de données sensibles de la part des propriétaires, même si les valeurs de pente subissaient des modifications mineures.

Dans la méthode améliorée utilisant ASGD, le processus peut être décrit comme :

  1. Les propriétaires de données récupèrent le poids crypté depuis le cloud, en le déchiffrant avec leur clé secrète.
  2. À l'aide du poids global et de ses données d'entraînement, le propriétaire des données calcule le gradient au sein de son modèle d'apprentissage profond.
  3. Ce gradient, après avoir été multiplié par le taux d'apprentissage, est crypté grâce à la clé secrète du propriétaire des données puis renvoyé vers le cloud.
  4. Le cloud met ensuite à jour le poids global à l'aide des données chiffrées des propriétaires des données, l'opération étant limitée à l'ajout.
  5. Un point fort de cette méthode est sa robustesse face aux fuites potentielles de gradient. Le cloud, même s'il fonctionne avec une intention curieuse, ne peut pas accéder aux informations du dégradé. De plus, lorsque le propriétaire des données décrypte les résultats du cloud, le résultat correspond parfaitement à ce à quoi on pourrait s'attendre si les opérations cloud étaient menées selon un gradient non crypté.

Implications sur la sécurité de l'apprentissage automatique en cryptographie

L'intégration de l'apprentissage automatique dans la cryptographie a soulevé plusieurs problèmes de sécurité. Dans cette section, nous présentons un bref résumé des principales conclusions liées à ce sujet ces derniers temps.

Sécurité de l'apprentissage automatique : une étude de 2006 s'est penchée sur la question de savoir si l'apprentissage automatique peut réellement être sécurisé. Cette recherche a introduit une classification de différents types d’attaques contre les systèmes et techniques d’apprentissage automatique. De plus, il présente des défenses contre ces attaques et fournit un modèle analytique illustrant les efforts de l'attaquant.

Taxonomie élargie des attaques : s'appuyant sur leurs travaux antérieurs, une étude ultérieure a élargi la classification des attaques. Cette recherche a détaillé l’impact des différentes classes d’attaques sur les coûts tant pour l’attaquant que pour le défenseur. Il a également fourni un examen complet des attaques contre les systèmes d'apprentissage automatique, en utilisant le filtre anti-spam statistique SpamBayes comme étude de cas.

Attaques d'évasion : Une étude de 2013 a introduit le concept d'attaques d'évasion. Tout en présentant des similitudes avec les attaques exploratoires d’intégrité, les attaques d’évasion se concentrent sur l’introduction de données contradictoires dans les données de formation des systèmes basés sur l’apprentissage automatique. La recherche a souligné l’importance d’évaluer minutieusement la résistance de l’apprentissage automatique aux données contradictoires.

Exploiter les classificateurs d'apprentissage automatique : une autre étude de 2013 a mis en évidence une méthode par laquelle les classificateurs d'apprentissage automatique pourraient être manipulés pour révéler des informations. Cette recherche était centrée sur la divulgation involontaire ou intentionnelle d’informations statistiques provenant de classificateurs d’apprentissage automatique. Un méta-classificateur unique a été développé, formé pour pirater d'autres classificateurs et extraire trac informations précieuses sur leurs ensembles de formation. De telles attaques pourraient être utilisées pour créer des classificateurs supérieurs ou pour extraire trac secrets commerciaux, violant ainsi les droits de propriété intellectuelle.

Comportement contradictoire : les adversaires peuvent potentiellement contourner les approches d'apprentissage en modifiant leur comportement en réponse à ces méthodes. Les techniques d’apprentissage capables de résister aux attaques avec une robustesse garantie ont été limitées. Un atelier intitulé « Méthodes d'apprentissage automatique pour la sécurité informatique » a été organisé pour favoriser les discussions entre les experts en sécurité informatique et en apprentissage automatique. L'atelier a dent plusieurs priorités de recherche, allant des applications traditionnelles d'apprentissage automatique en matière de sécurité aux défis d'apprentissage sécurisé et à la création de nouvelles méthodes formelles avec une sécurité garantie.

Au-delà de la sécurité informatique traditionnelle : L'atelier a également dent des applications potentielles au-delà du domaine conventionnel de la sécurité informatique. Ces applications, où des problèmes de sécurité peuvent survenir en relation avec les méthodes basées sur les données, incluent le spam sur les réseaux sociaux, la détection du plagiat, l'identification de l'auteur, le respect des droits d'auteur dent la vision par ordinateur (en particulier la biométrie) et l'analyse des sentiments.

Sécurité et confidentialité dans l'apprentissage automatique : une étude de 2016 a fourni une analyse approfondie des problèmes de sécurité et de confidentialité dans l'apprentissage automatique. Il a introduit un modèle de menace détaillé pour l’apprentissage automatique, catégorisant les attaques et les défenses dans un cadre contradictoire. Les contextes accusatoires de formation ont été divisés en deux catégories principales : ceux ciblant la vie privée et ceux ciblant l’intégrité. L’inférence dans des contextes contradictoires a également été classée en adversaires boîte blanche et boîte noire. L'étude s'est conclue en discutant de la voie à suivre pour parvenir à un modèle d'apprentissage automatique robuste, privé et responsable.

Progrès passés de l’apprentissage automatique en cryptanalyse

L’apprentissage automatique est de plus en plus intégré au domaine de la cryptanalyse, notamment pour améliorer les capacités des attaques par canal secondaire. Voici un aperçu concis de ses applications :

Incorporation précoce de l'apprentissage automatique : l'une des premières initiatives dans ce domaine impliquait l'utilisation de l'algorithme d'apprentissage LS-SVM (Least Squares Support Vector Machine). Cette méthode ciblait la mise en œuvre logicielle de la norme AES (Advanced Encryption Standard) en utilisant la consommation d'énergie comme canal secondaire. Les résultats ont mis en évidence le rôle central des paramètres de l’algorithme d’apprentissage automatique sur les résultats.

Améliorer la précision : une approche ultérieure préconise l'utilisation de l'apprentissage automatique pour améliorer la précision des attaques par canal secondaire. Étant donné que ces attaques sont basées sur les mesures physiques des implémentations matérielles des cryptosystèmes, elles reposent souvent sur certaines hypothèses paramétriques. L’introduction de l’apprentissage automatique offre un moyen d’atténuer ces hypothèses, en particulier lorsqu’il s’agit de vecteurs de caractéristiques de grande dimension.

Réseaux de neurones en cryptanalyse : Une autre méthode innovante utilisait un réseau de neurones pour la cryptanalyse. Cette stratégie a entraîné le réseau neuronal à déchiffrer les textes chiffrés sans la clé de chiffrement, ce qui a entraîné une réduction notable du temps et des paires de texte clair-texte chiffré connues requises pour certaines normes de chiffrement.

Développer les travaux antérieurs : S'appuyant sur l'approche de réseau neuronal susmentionnée, une autre étude a ciblé un chiffrement léger. L'accent a été mis sur la découverte de la clé plutôt que sur le texte brut. L'efficacité du réseau neuronal a été testée sur des versions réduites et complètes du chiffre, en peaufinant les configurations du réseau pour maximiser la précision.

Analyse du trafic crypté : Une autre étude s'est penchée sur l'analyse du trafic réseau crypté sur les appareils mobiles. L'objectif était de discerner les actions des utilisateurs à partir des données cryptées. En surveillant passivement le trafic chiffré et en appliquant des techniques avancées d’apprentissage automatique, ils ont pu déduire les actions des utilisateurs avec un taux de précision impressionnant.

Deep Learning dans les attaques par canal secondaire : l'apprentissage profond a été exploré pour affiner les attaques par canal secondaire. L'objectif était de développer des techniques de profilage sophistiquées pour minimiser les hypothèses dans les attaques par modèle. En appliquant l’apprentissage profond, des résultats plus précis ont été obtenus dans les attaques par canal secondaire sur certaines normes de chiffrement.

Contrecarrer les attaques d'apprentissage automatique : une approche unique a été introduite pour empêcher l'apprentissage automatique d'être utilisé comme une arme contre les fonctions physiques non clonables (PUF) dans l'authentification légère. Cette méthode combinait une authentification légère basée sur PUF avec une technique de verrouillage, garantissant que l'apprentissage automatique ne pourrait pas extraire avec succès trac nouvelle paire défi-réponse.

Conclusion

L'intégration de l'apprentissage automatique dans la cryptographie a ouvert de nouvelles voies pour renforcer la sécurité et optimiser les processus. Bien qu’il offre des solutions prometteuses, notamment en matière d’apprentissage collaboratif profond et de cryptanalyse, il existe des problèmes de sécurité inhérents qui doivent être résolus. À mesure que le domaine évolue, il est crucial que les chercheurs et les praticiens soient conscients des vulnérabilités potentielles et travaillent à la création de systèmes robustes et sécurisés.

FAQ

Quel est le principal avantage de l’utilisation du machine learning en cryptographie ?

L'apprentissage automatique en cryptographie peut améliorer les mesures de sécurité, optimiser les processus et fournir des solutions innovantes aux défis de l'apprentissage profond collaboratif et de la cryptanalyse.

Existe-t-il des risques de sécurité associés à l’intégration du machine learning dans la cryptographie ?

Oui, même si l’apprentissage automatique offre de nombreux avantages, il introduit également des vulnérabilités potentielles, telles que les attaques d’évasion et les risques associés aux données contradictoires.

Comment le deep learning collaboratif bénéficie-t-il du machine learning ?

L'apprentissage profond collaboratif, associé à l'apprentissage automatique, permet d'utiliser plusieurs sources de données en toute sécurité, optimisant ainsi la formation des modèles tout en préservant la confidentialité des données.

Qu’est-ce qu’une attaque par canal secondaire dans le contexte de la cryptographie ?

Une attaque par canal secondaire exploite les informations physiques, telles que la consommation d'énergie, provenant des systèmes cryptographiques pour découvrir des données ou des clés secrètes.

Comment les techniques d’apprentissage automatique peuvent-elles être utilisées contre les systèmes cryptographiques ?

Les adversaires peuvent introduire des données contradictoires dans des ensembles de formation ou exploiter des classificateurs d’apprentissage automatique pour révéler des informations sensibles ou des secrets commerciaux.

Quelle est l’importance du chiffrement homomorphique dans l’apprentissage profond collaboratif ?

Le chiffrement homomorphe permet des calculs sur des données chiffrées, garantissant ainsi que les informations sensibles restent sécurisées pendant les processus collaboratifs d'apprentissage profond.

Existe-t-il des ateliers ou des collaborations entre des experts en apprentissage automatique et en sécurité informatique ?

Oui, des ateliers comme « Machine Learning Methods for Computer Security » ont été organisés pour favoriser les échanges et dent les priorités de recherche dans le domaine.

Comment garantir que les modèles d’apprentissage automatique restent robustes face aux attaques contradictoires ?

Assurer la robustesse nécessite des recherches continues, un contrôle approfondi de la résistance aux données contradictoires et le développement de nouvelles approches formelles avec des garanties de sécurité.

Quelles sont les applications non traditionnelles qui pourraient poser des problèmes de sécurité en matière d’apprentissage automatique ?

Des domaines tels que le spam sur les réseaux sociaux, la détection du plagiat, l'identification de dent et l'analyse des sentiments peuvent présenter des problèmes de sécurité liés aux méthodes basées sur les données.

En quoi les attaques d’évasion diffèrent-elles des attaques exploratoires d’intégrité ?

Alors que les deux ciblent les vulnérabilités de l’apprentissage automatique, les attaques d’évasion se concentrent sur l’introduction de données contradictoires dans des ensembles d’apprentissage, tandis que les attaques exploratoires d’intégrité peuvent utiliser différentes stratégies pour exploiter les faiblesses du système.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Shummas Humayun

Shummas est un créateur de contenu technique, un programmeur et un chercheur STEM publié. Il enj également le café et jouer pendant son temps libre.

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

cryptopolite
Abonnez-vous à CryptoPolitan