Your bank is using your money. You’re getting the scraps.WATCH FREE

L’adoption par Israël de systèmes militaires d’IA présage-t-elle une tournure sinistre dans la guerre ?

Dans cet article :

  • Concernant les victimes civiles et le droit international, l'utilisation par l'armée israélienne de systèmes d'IA tels que Lavender constitue une évolution inquiétante dans les combats.
  • Tous les réseaux familiaux à Gaza ont été détruits, et ces systèmes pilotés par l'IA ont causé de nombreuses victimes civiles, même lorsqu'ils font des déclarations exactes.
  • L'utilisation croissante de l'IA dans la guerre soulève des questions de moralité et de viabilité quant au fait de confier à des systèmes automatisés la prise de décisions de vie ou de mort.

Israël est accusé d'dentdes cibles pour des frappes aériennes à Gaza à l'aide d'un système d'intelligence artificielle, permettant ainsi le massacre de plusieurs civils. L'armée israélienne aurait utilisé une base de données alimentée par l'IA, appelée Lavender, pour créer une liste de 37 000 cibles potentielles ayant des liens apparents avec le Hamas, selon une enquête récente du magazine israélien +972 et de Local Call.

Plus de 33 000 Palestiniens sont morts à Gaza depuis le 7 octobre, et six sources de renseignement israéliennesdentqui se sont entretenues avec +972 ont affirmé que les commandants militaires israéliens avaient utilisé la liste des cibles pour approuver des frappes aériennes qui ont entraîné des pertes civiles exceptionnellement élevées.

Les ravages de la guerre et les systèmes militaires d'IA

Les systèmes militaires pilotés par l'intelligence artificielle (IA), tels que le logiciel israélien Lavender, ont engendré davantage de dévastation dans les zones de conflit comme Gaza. Réputé pour son incroyable capacité à identifier les membres du Hamas, Lavender est devenu une arme à double tranchant qui ravage les communautés civiles et brise des vies sur son passage. Le taux de précision annoncé de 90 % masque la terrible réalité : utilisé sans précaution, ce système peut tuer des civils innocents pris entre deux feux.

Une source a déclaré à 972mag que,

« On nous demande de rechercher des immeubles de grande hauteur dont la moitié d'un étage peut être attribuée au Hamas. »

Source : +972mag

Comme chacun sait, l'intelligence artificielle fonctionne selon divers facteurs, et la précision de ces paramètresdent de leur réglage fin. Modifiez les paramètres des données, et l'ordinateur commence à nous présenter divers responsables des forces de l'ordre et de la protection civile, contre lesquels il serait inapproprié d'utiliser des bombes, a déclaré une autre source.

Voir aussi :  La Légende des Champignons offre des diamants gratuits, des coupons et plus encore

Un autre critère douteux était le changement régulier de téléphone portable ; la plupart des Gazaouis étaient confrontés quotidiennement au chaos social de la guerre. Toute personne apportant son aide au Hamas sans rémunération ou ayant été membre du groupe était également considérée comme suspecte par l’algorithme.

Comme l'a indiqué une source de 971mag,

« Chacune de ces caractéristiques est inexacte. »

Source : +972mag

Le dilemme éthique de l'automatisation sur le champ de bataille

Les profondes questions éthiques soulevées par la guerre pilotée par l'IA deviennent de plus en plus pressantes une fois les combats terminés. Jadis considérée comme un frein à l'automatisation débridée, l'idée d'une « intervention humaine » est aujourd'hui perçue comme une frontière ténue entre les décisions algorithmiques et leurs conséquences pratiques. Les témoignages de commandants israéliens, qui débattent des conséquences morales de la violence rendue possible par l'intelligence artificielle, offrent un éclairage précieux sur la réflexion de ceux qui sont chargés de superviser la complexité de la guerre moderne.

Depuis que le potentiel désastreux des conflits alimentés par l'IA est devenu évident, une question hante les esprits : l'humanité peut-elle vraiment se permettre de laisser les machines prendre l'ascendant sur des questions de vie ou de mort ? La responsabilité morale et une gestion responsable sont plus cruciales que jamais, alors que les nations sont confrontées aux conséquences morales de l'automatisation et au danger réel de la violence permise par l'IA. Les dangers d'un développement technologique effréné sont cruellement illustrés par les leçons de l'histoire, dans un monde au bord d'une nouvelle ère de guerres effroyables. 

Voir aussi  les perspectives de ventes d'Apple et les innovations en IA qui façonnent la stratégie de 2024

Les plus grands experts en cryptomonnaies lisent déjà notre newsletter. Envie d'en faire partie ? Rejoignez-les !

Partager le lien :

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. Cryptopolitan.com Cryptopolitan toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous vous recommandons vivement d’effectuer vos tron dent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan