Israël est accusé d'dentdes cibles pour des frappes aériennes à Gaza à l'aide d'un système d'intelligence artificielle, permettant ainsi le massacre de plusieurs civils. L'armée israélienne aurait utilisé une base de données alimentée par l'IA, appelée Lavender, pour créer une liste de 37 000 cibles potentielles ayant des liens apparents avec le Hamas, selon une enquête récente du magazine israélien +972 et de Local Call.
Plus de 33 000 Palestiniens sont morts à Gaza depuis le 7 octobre, et six sources de renseignement israéliennesdentqui se sont entretenues avec +972 ont affirmé que les commandants militaires israéliens avaient utilisé la liste des cibles pour approuver des frappes aériennes qui ont entraîné des pertes civiles exceptionnellement élevées.
Les ravages de la guerre et les systèmes militaires d'IA
Les systèmes militaires pilotés par l'intelligence artificielle (IA), tels que le logiciel israélien Lavender, ont engendré davantage de dévastation dans les zones de conflit comme Gaza. Réputé pour son incroyable capacité à identifier les membres du Hamas, Lavender est devenu une arme à double tranchant qui ravage les communautés civiles et brise des vies sur son passage. Le taux de précision annoncé de 90 % masque la terrible réalité : utilisé sans précaution, ce système peut tuer des civils innocents pris entre deux feux.
Une source a déclaré à 972mag que,
« On nous demande de rechercher des immeubles de grande hauteur dont la moitié d'un étage peut être attribuée au Hamas. »
Source : +972mag
Comme chacun sait, l'intelligence artificielle fonctionne selon divers facteurs, et la précision de ces paramètresdent de leur réglage fin. Modifiez les paramètres des données, et l'ordinateur commence à nous présenter divers responsables des forces de l'ordre et de la protection civile, contre lesquels il serait inapproprié d'utiliser des bombes, a déclaré une autre source.
Un autre critère douteux était le changement régulier de téléphone portable ; la plupart des Gazaouis étaient confrontés quotidiennement au chaos social de la guerre. Toute personne apportant son aide au Hamas sans rémunération ou ayant été membre du groupe était également considérée comme suspecte par l’algorithme.
Comme l'a indiqué une source de 971mag,
« Chacune de ces caractéristiques est inexacte. »
Source : +972mag
Le dilemme éthique de l'automatisation sur le champ de bataille
Les profondes questions éthiques soulevées par la guerre pilotée par l'IA deviennent de plus en plus pressantes une fois les combats terminés. Jadis considérée comme un frein à l'automatisation débridée, l'idée d'une « intervention humaine » est aujourd'hui perçue comme une frontière ténue entre les décisions algorithmiques et leurs conséquences pratiques. Les témoignages de commandants israéliens, qui débattent des conséquences morales de la violence rendue possible par l'intelligence artificielle, offrent un éclairage précieux sur la réflexion de ceux qui sont chargés de superviser la complexité de la guerre moderne.
Depuis que le potentiel désastreux des conflits alimentés par l'IA est devenu évident, une question hante les esprits : l'humanité peut-elle vraiment se permettre de laisser les machines prendre l'ascendant sur des questions de vie ou de mort ? La responsabilité morale et une gestion responsable sont plus cruciales que jamais, alors que les nations sont confrontées aux conséquences morales de l'automatisation et au danger réel de la violence permise par l'IA. Les dangers d'un développement technologique effréné sont cruellement illustrés par les leçons de l'histoire, dans un monde au bord d'une nouvelle ère de guerres effroyables.

