Le procureur de la ville de San Francisco intente une action en justice pour fermer les sites web de nudité truquée utilisant l'IA (deepfakes)

- Ces sites web sont responsables de la diffusion d'images truquées de femmes et de filles.
- Au cours des six premiers mois de l'année, les sites web ont été visités plus de 200 millions de fois.
- Cette pratique a laissé les victimes anéanties, qui ont perdu toute confiance en elles.
Le procureur de la ville de San Francisco, David Chiu, a annoncé que son bureau poursuivait en justice 16 sites web utilisant l'intelligence artificielle pour créer et diffuser des images truquées (deepfakes) de femmes et de filles nues, sans leur consentement. Cette annonce intervient dans un contexte de forte médiatisation de la création et de la diffusion d'images non consensuelles générées par l'IA.
Selon Chiu, cette action en justice est la première du genre à San Francisco et accuse les exploitants des sites web d'avoir enfreint les lois étatiques et fédérales qui condamnent la pornographie deepfake, la pornographie infantile et les contenus pornographiques de vengeance, ainsi que la loi californienne sur la concurrence déloyale.
Chiu souhaite tirer la sonnette d'alarme concernant cette mauvaise pratique
Selon le New York Times, cette initiative est née de l'idée de la procureure adjointe principale Yvonne Mere, qui a mobilisé ses collègues pour élaborer une action en justice qui devrait entraîner la fermeture de 16 sites web.
Les noms des sites web ont été censurés dans la copie de la plainte rendue publique jeudi.
Bien que le bureau du procureur ait déclaré qu'il n'avait pas encoredentla plupart des propriétaires des sites web, des responsables de ce bureau se sont montrés optimistes quant à la possibilité de trouver les noms des propriétaires des sites et de les tenir responsables.
Lors d'une conférence de presse jeudi, Chiu a révélé que ces sites diffusent des contenus pornographiques non consensuels. Outre le fait de dénoncer cette forme d'abus sexuel et d'y mettre fin, Chiu a également laissé entendre que la plainte déposée devrait entraîner la fermeture desdits sites web.
« Cette enquête nous a menés dans les recoins les plus sombres d’Internet, et je suis absolument horrifiée pour les femmes et les filles qui ont dû subir cette exploitation. »
Chiu.
Sur ces sites, les utilisateurs téléchargent des photos de personnes réelles entièrement habillées et utilisent l'intelligence artificielle pour créer des images de femmes et de filles nues. Les modèles d'IA de ces sites ont été entraînés sur de la pornographie réelle et des images de maltraitance infantile pour réaliser des deepfakes.
Comme l'indique la plainte, l'un des sites fait la promotion du caractère non consensuel des images, affirmant : « Imaginez perdre du temps à l'emmener en rendez-vous, alors que vous pouvez simplement utiliser [nom du site Web censuré] pour obtenir ses photos nues. »
La disponibilité et l'accessibilité des modèles d'IA open source permettent à chacun d'accéder facilement aux moteurs d'IA et de les adapter à ses besoins. Il en résulte la création de sites et d'applications capables de générer des deepfakes de nus à partir de rien ou de « nuder » des photographies existantes de manière réaliste, souvent moyennant paiement.
San Francisco n'est pas le seul endroit où l'on peut constater ce défi
En janvier, les applications de deepfake ont fait la une des journaux lorsque de fausses photos de Taylor Swift nue sont devenues virales en ligne. De nombreuses autres personnes, bien moins connues, ont été persécutées avant et après Swift.
Chiu a admis que « la prolifération de ces images a exploité un nombre choquant de femmes et de filles à travers le monde », des célébrités auxdentdu secondaire.
L'enquête menée par le bureau du procureur de la ville a révélé que ces sites web avaient été consultés plus de 200 millions de fois au cours du premier semestre de cette année. Le bureau s'inquiète du fait qu'une fois une image mise en ligne, il devient difficile pour les victimes d'identifier les sites web ayant servi à diffuser leurs photos dénudées.
En effet, ces images ne comportent aucun élément unique oudentpermettant de les identifier sur les sites web. De plus, il est difficile pour les victimes de supprimer ces photographies d'Internet, ce qui nuit à leursteem de soi et à leur empreinte numérique.
Plus tôt dans l'année, cinq élèves de huitième année ont été expulsés pour avoir créé et partagé des images truquées de 16 filles de huitième année nues, en superposant les visages des filles sur des corps générés par l'IA.
Des cas similaires ont été observés dans d'autres écoles de Californie, du New Jersey et de Washington, où les images étaient utilisées pour humilier, harceler et menacer des femmes et des filles.
Selon le bureau du procureur, l'effet net sur les victimes a été dévastateur pour leur réputation, entraînant des problèmes de santé mentale, une perte d'steemde soi et, dans certains cas, des comportements suicidaires.
Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














