Aller au contenu principal

Israël teste l’intelligence artificielle dans sa guerre contre les Palestiniens 

Alors qu’Israël resserre son contrôle, les Palestiniens sont les premières cibles de ses technologies monstrueuses et létales
Vol d’un drone israélien de reconnaissance lors d’un show aérien à Tel Aviv, le 26 avril 2023 (AFP)

L’année dernière, l’armée israélienne a lancé une nouvelle stratégie visant à intégrer les armes et technologies d’intelligence artificielle (IA) dans toutes ses branches – la transformation stratégique la plus radicale depuis des décennies. Le mois dernier, le ministère israélien de la Défense se vantait que son armée avait l’ambition de devenir une « superpuissance » de l’IA dans le domaine de la guerre autonome. 

« Il y a ceux qui considèrent l’IA comme la prochaine révolution pour changer le visage de la guerre sur le champ de bataille », déclarait le général à la retraite Eyal Zamir, lors de la Herzliya Conference, un forum annuel consacré à la sécurité. Les applications militaires pourraient comprendre « la capacité de plateformes à frapper en essaims, ou de systèmes de combat opérant de manière indépendante […] et d’assistance pour prendre rapidement des décisions, à une échelle bien plus vaste que ce qu’on a pu voir jusqu’à présent ».

Le secteur israélien de la défense produit une vaste gamme de véhicules militaires autonomes, notamment les « véhicules robotiques armés », décrits comme une plateforme « létale » et « robuste » dotée d’une technologie de « reconnaissance automatique des cibles ». Un sous-marin autonome pour la « collecte de renseignements clandestine » surnommé BlueWhale est à l’essai.

Si tout cela vous fiche la frousse, c’est tout à fait justifié. Israël est en train de créer non pas un monstre de Frankenstein, mais tout un essaim capable de faire des ravages, non seulement sur des cibles palestiniennes mais sur n’importe qui, n’importe où dans le monde.

Les Palestiniens sont le banc d’essai de ces technologies, servant de « preuve d’efficacité » pour les acheteurs internationaux

Les Palestiniens sont le banc d’essai de ces technologies, servant de « preuve d’efficacité » pour les acheteurs internationaux. Les acquéreurs les plus probables d’Israël sont les pays embourbés dans la guerre. Si ces armes peuvent offrir un avantage sur le champ de bataille, au bout du compte, elles accroîtront sûrement le niveau global de souffrance et de carnage chez tous les belligérants. Elles seront capables de tuer en grand nombre avec une plus grande létalité. C’est pourquoi elles sont monstrueuses.

Une autre technologie d’IA israélienne, Knowledge Well, ne fait pas que surveiller d’où les militants palestiniens tirent des roquettes mais peut être également utilisée pour prédire les lieux de futures attaques.

Si ces systèmes peuvent protéger les Israéliens des armes palestiniennes, ils permettent également à Israël de devenir une machine à tuer virtuelle, déchaînant des attaques terrifiantes contre des cibles militaires et civiles tout en rencontrant une résistance minime de ses ennemis.

Chercher et détruire

Cette technologie est un avertissement pour le reste du monde, qui montre comment l’IA est devenue omniprésente et intrusive. Il n’est pas rassurant d’entendre le principal expert en IA de l’armée israélienne dire qu’il rivalise avec les salaires offerts dans le privé aux spécialistes de l’IA en donnant « du sens ». Comme si c’était en quelque sorte rassurant, il ajoute que les armes israéliennes dotées d’IA « dans un avenir prévisible… [impliqueront] toujours une personne pour les contrôler ».

Pegasus : la NSO ou le « côté obscur » de la tech israélienne
Lire

Je vous laisse réfléchir à comment tuer des Palestiniens pourrait « donner du sens ». De même, il n’est pas certain qu’un humain contrôlera toujours cette arme sur le champ de bataille.

À l’avenir, il y aura des robots qui peuvent penser, juger et combattre de manière autonome, impliquant peu voire pas d’interaction humaine au-delà de sa programmation initiale. Ceux-ci ont été qualifiés de « troisième révolution dans l’art de la guerre après la poudre et les armes nucléaires ». 

S’ils peuvent être programmés pour chercher et détruire les ennemis, qui détermine qui est l’ennemi et prend des décisions de vie ou de mort sur le champ de bataille ? Nous savons déjà que dans la guerre, les humains commettent des erreurs – parfois de terribles erreurs.

Les programmeurs militaires, malgré leur expertise pour concevoir les raisonnements et actions de ces robots armés, n’en sont pas moins enclins aux erreurs. Leurs créations comporteront d’énormes inconnues comportementales et pourraient coûter d’innombrables vies.

La Palestine est l’un des endroits les plus surveillés au monde. Les caméras de sécurité sont omniprésentes dans le paysage palestinien, qui est surplombé par les tours de garde israéliennes, certaines armées de fusils robotiques contrôlés à distance.

Si les êtres humains qui combattent sur un champ de bataille peuvent commettre des erreurs si choquantes, comment peut-on s’attendre à ce que des armes opérées par l’IA et des robots fassent mieux ?

La Palestine est survolée par des drones, capables de larguer du gaz lacrymogène, de tirer directement sur les Palestiniens se trouvant en dessous, ou de diriger les tirs des soldats au sol. À Gaza, la surveillance constante traumatise et terrifie les habitants.

En outre, Israël dispose désormais d’applications de reconnaissance faciale, telles que Blue Wolf, visant à saisir des images de chaque Palestinien. Ces images alimentent une énorme base de données dans laquelle il est possible de mener des recherches à toutes fins utiles. Des logiciels de sociétés telles que Anyvision, capables d’identifier de grands nombres d’individus, sont intégrés dans des systèmes contenant des informations personnelles, y compris les publications sur les réseaux sociaux. 

C’est une toile de contrôle qui instille la peur, la paranoïa et un sentiment de désespoir. Comme l’a dit l’ancien chef d’état-major de l’armée israélienne, Rafael Eitan, l’objectif est de faire courir les Palestiniens « comme des cafards drogués dans une bouteille ».

Le monstre de Frankenstein

De nombreux chercheurs et défenseurs de la vie privée ont prévenu des dangers de l’IA à la fois dans l’espace public et sur le champ de bataille. Les robots militaires dotés d’IA n’en sont que l’un des nombreux exemples, et Israël est à l’avant-garde de ces développements. Il est le docteur Frankenstein et cette technologie est son monstre. 

Human Rights Watch réclame l’interdiction de ces technologies militaires, mettant en garde : « Les machines ne peuvent pas comprendre la valeur de la vie humaine. »

Les technologies d’IA israéliennes peuvent être, au moins aux yeux de leurs créateurs, conçues pour la protection et la défense des Israéliens. Cependant, les dommages qu’elles infligent alimentent un cycle vicieux de violence sans fin. L’armée et la presse israéliennes qui promeuvent cette sorcellerie ne font que créer plus de victimes – au départ des Palestiniens, mais plus tard chaque dictature ou État génocidaire qui achètera ces armes produira ses propres victimes.

Blue Wolf, l’application utilisée par Israël pour espionner les Palestiniens en Cisjordanie occupée
Lire

Autre « accomplissement » de l’IA : l’assassinat par le Mossad du père du programme nucléaire iranien, Mohsen Fakhrizadeh, en 2020. Le New York Times en a livré ce récit à couper le souffle : « Des agents iraniens travaillant pour le Mossad avaient garer un pick-up Nissan Zamyad bleu sur le bas-côté de la route […] Dans le plateau se trouvait un fusil de sniper de calibre 7.62 mm […] L’assassin, un sniper qualifié, a pris position, a calibré sa visée, armé l’arme et a effleuré la gâchette. 

« Il était très loin d’Absard [en Iran], cependant. Il regardait un écran d’ordinateur dans un endroit tenu secret à plus d’un millier de kilomètres de là… [Cette opération était] le premier test de tir d’élite assisté par ordinateur, haute technologie, doté d’IA et de visée multi-caméras, opéré via satellite et capable de tirer 600 balles à la minute. 

« Ce fusil mitrailleur amélioré contrôlé à distance rejoint le drone de combat dans l’arsenal des armes high-tech pour des assassinats ciblés à distance. Mais contrairement à un drone, cette arme robotique n’attire pas l’attention dans le ciel, là où un drone peut être abattu, et peut se trouver n’importe où, des qualités susceptibles de changer le monde de la sécurité et de l’espionnage. »

On connaît les dangers que constituent les armes autonomes. Une famille afghane a été brutalement tuée dans une frappe de drones américaine en 2021 parce que l’un de ses membres avait été pris à tort pour un terroriste recherché. On sait que l’armée israélienne a tué de manière répétée des civils palestiniens, ce qu’elle qualifie d’« erreurs » sur le champ de bataille. Si les êtres humains qui combattent sur un champ de bataille peuvent commettre des erreurs si choquantes, comment peut-on s’attendre à ce que des armes opérées par l’IA et des robots fassent mieux ?

Cela devrait alarmer sur les impacts dévastateurs que l’IA aura certainement dans le domaine militaire et à propos du rôle majeur d’Israël dans le développement de ces armes létales non réglementées.

- Richard Silverstein est l’auteur du blog « Tikum Olam » qui révèle les excès de la politique de sécurité nationale israélienne. Son travail a été publié dans Haaretz, Forward, le Seattle Times et le Los Angeles Times. Il a contribué au recueil d’essais dédié à la guerre au Liban de 2006, A Time to speak out (Verso), et est l’auteur d’un autre essai dans la collection, Israel and Palestine: Alternate Perspectives on Statehood (Rowman & Littlefield). Photo de profil : Erika Schultz/Seattle Times.

Les opinions exprimées dans cet article n’engagent que leur auteur et ne reflètent pas nécessairement la politique éditoriale de Middle East Eye.

Traduit de l’anglais (original) par VECTranslation.

Richard Silverstein writes the Tikun Olam blog, devoted to exposing the excesses of the Israeli national security state. His work has appeared in Haaretz, the Forward, the Seattle Times and the Los Angeles Times. He contributed to the essay collection devoted to the 2006 Lebanon war, A Time to Speak Out (Verso) and has another essay in the collection, Israel and Palestine: Alternate Perspectives on Statehood (Rowman & Littlefield) Photo of RS by: (Erika Schultz/Seattle Times)
Middle East Eye propose une couverture et une analyse indépendantes et incomparables du Moyen-Orient, de l’Afrique du Nord et d’autres régions du monde. Pour en savoir plus sur la reprise de ce contenu et les frais qui s’appliquent, veuillez remplir ce formulaire [en anglais]. Pour en savoir plus sur MEE, cliquez ici [en anglais].