DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

La sécurité de l'IA peut-elle être garantie par le marquage numérique des contenus par les grandes entreprises technologiques ?

ParGloire à KaburuGloire à Kaburu
3 minutes de lecture -
sécurité de l'IA
  • Les principales entreprises spécialisées en IA s'engagent à apposer un filigrane sur les contenus d'IA afin d'en renforcer la sécurité, face aux inquiétudes croissantes concernant la technologie d'IA générative. 
  • Ledent Biden travaille activement sur des décrets et des lois visant à réglementer la technologie de l'IA pour renforcer la sécurité et la protection de la vie privée. 
  • Le tatouage numérique des contenus générés par l'IA vise à lutter contre les dangers potentiels des deepfakes et à sensibiliser les utilisateurs.

 

Dans une démarche significative visant à répondre aux préoccupations liées à la sécurité de l'IA, les géants de la tech s'engagent à adopter des directives volontaires, telles que le marquage numérique, pour aider les utilisateurs àdentles contenus générés par l'IA, dans le cadre de leurs efforts pour lutter contre les abus et les mésusages de l'IA. Ces entreprises, Amazon, Anthropic, Google, Meta, Microsoft, OpenAI et la start-up Inflection spécialisée en apprentissage automatique, ont convenu avec l'administration Biden de soumettre leurs systèmes à des tests réalisés par des expertsdent . Cette initiative intervient dans un contexte de popularité et d'investissements croissants dans les technologies d'IA générative, incitant les législateurs du monde entier à envisager des réglementations pour préserver la sécurité nationale et l'économie.

Répondre aux préoccupations liées à la technologie de l'IA

L'essor rapide de l'intelligence artificielle générative, qui utilise des données pour créer du contenu d'apparence humaine, a suscité des inquiétudes quant à ses risques potentiels dans divers domaines. En juin, le chef de la majorité au Sénat américain, Chuck Schumer, a appelé à l'adoption d'une législation exhaustive afin de garantir des garanties adéquates en matière d'intelligence artificielle. Pour répondre à ces préoccupations, le Congrès examine actuellement un projet de loi obligeant les publicités politiques à indiquer si l'IA a été utilisée pour générer leur contenu.

Ledent Joe Biden travaille activement à l'élaboration d'un décret et d'une loi bipartisane visant à mieux encadrer l'intelligence artificielle. Dans ce cadre, les dirigeants des sept principales entreprises d'IA se sont réunis vendredi à la Maison Blanche pour discuter de leurs engagements. Ces entreprises ont convenu de développer un système de tatouage numérique pour tous les types de contenus générés par l'IA, notamment les textes, les images, les fichiers audio et les vidéos. Cette technique de tatouage numérique a pour but d'indiquer clairement aux utilisateurs quand un contenu a été créé à l'aide de l'IA.

Tatouage numérique pour une sécurité renforcée de l'IA

Le système de tatouage numérique proposé devrait jouer un rôle essentiel dans la lutte contre les dangers potentiels liés aux contenus générés par l'IA. En intégrant techniquement un tatouage numérique au contenu, les utilisateurs seront mieux armés pourdentles images ou les enregistrements audio truqués (deepfakes) susceptibles de représenter des violences inexistantes, de faciliter des escroqueries ou de discréditer des personnalités politiques. Toutefois, les modalités dedent du tatouage numérique lors du partage d'informations restent à préciser.

Les filigranes numériques vérifient l'authenticité et l'intégrité du signal porteur ou identifientdentpropriétaires. Non seulement un filigrane dissuade les fuites de documents, mais en cas de fuite, la source peut être facilementdentgrâce à la présence d'un filigrane portant le nom du destinataire autorisé. Le filigranage numérique est une technologie quidentau support de données de manière imperceptible et sans incidence sur l'utilisation des données. Cette technologie protège souvent les droits d'auteur des données multimédias, ainsi que les bases de données et les fichiers texte.

fig2
Source : https://www.cse.wustl.edu/

Des engagements au-delà du marquage numérique

Les engagements de ces entreprises vont au-delà du simple marquage numérique et s'étendent à la protection de la vie privée des utilisateurs face au développement de l'IA. Elles se sont également engagées à garantir l'impartialité de leurs systèmes d'IA et à s'abstenir de toute discrimination envers les groupes vulnérables. Ces entreprises ont déclaré qu'elles rendraient publics les capacités et les limites de leurs systèmes d'IA, ainsi que des lignes directrices pour leur utilisation éthique. Elles prévoient de mener des recherches sur les risques sociétaux posés par l'IA. De plus, elles se sont engagées à déployer des solutions d'IA pour relever des défis scientifiques, tels que la recherche médicale et la lutte contre le changement climatique.

Un pas en avant pour la sécurité de l'IA

Les engagements volontaires pris par ces grandes entreprises d'IA constituent un progrès significatif dans la prise en compte des préoccupations liées à la sécurité de cette technologie. Grâce à la coopération des leaders du secteur et aux efforts réglementaires en cours, l'optimisme est de mise quant à la possibilité pour l'IA de continuer à se développer tout en respectant des pratiques responsables.

Alors que l'intelligence artificielle générative (IA générative) continue de gagner en popularité et d'attirer les investissements, les autorités de réglementation et les législateurs du monde entier se concentrent sur la gestion des risques potentiels. Les engagements pris par les principales entreprises du secteur de l'IA en matière de marquage numérique et de renforcement de la sécurité par des pratiques responsables constituent une avancée positive. Les efforts dudent Biden pour élaborer des décrets et une législation bipartite soulignent l'importance de garantir une utilisation sûre et éthique de l'IA. Grâce à une collaboration continue entre les acteurs du secteur et les organismes de réglementation, l'IA peut libérer tout son potentiel tout en atténuant les risques sociétaux.

Les plus grands experts en cryptomonnaies lisent déjà notre newsletter. Envie d'en faire partie ? Rejoignez-les!

Partagez cet article

Avertissement: Les informations fournies ne constituent pas un conseil en investissement. Cryptopolitandécline toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustronrecommandons vivement d’effectuer vosdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES