Sommaire
Entité sioniste utilise l’IA pour identifier 37 000 cibles à Gaza
Entité sioniste a utilisé une base de données soutenue par l’intelligence artificielle pour cibler 37 000 sites potentiels lors de ses frappes sur Gaza, selon des sources de renseignement rapportées par le journal britannique The Guardian.
Le pays a employé le système d’intelligence artificielle nommé « Lavender », permettant aux responsables militaires israéliens de tuer un grand nombre de civils palestiniens, en particulier au cours des premières semaines et mois de la guerre.
Utilisation de l’intelligence artificielle dans les frappes
The Guardian a mis en lumière le recours par Entité sioniste à des systèmes d’apprentissage automatique pour aider à déterminer les cibles lors de l’agression continue contre Gaza depuis le 7 octobre dernier.
Le système « Lavender » a joué un rôle central dans la guerre, traitant de grandes quantités de données pour identifier rapidement des cibles potentielles parmi les « petits combattants » à cibler, avec une liste initiale de 37 000 hommes prétendument affiliés au Hamas ou au Jihad islamique palestinien.
Développement du système « Lavender »
Le système « Lavender » a été développé par la unité 8200 des renseignements de l’armée israélienne.
Préoccupations légales et éthiques
L’utilisation des techniques d’intelligence artificielle soulève des questions juridiques et éthiques, en modifiant la relation entre les militaires et les machines.
Des experts en droit international humanitaire ont exprimé leur préoccupation quant à l’acceptation par l’armée israélienne de pertes collatérales pouvant atteindre 20 civils pour éliminer une cible de faible rang. Ils soulignent l’importance pour les armées d’évaluer la proportionnalité de chaque frappe individuellement.
Réponse de l’armée israélienne
En contrepartie, l’armée israélienne a déclaré que l’intelligence artificielle n’était pas utilisée pour identifier les « terroristes », mais seulement comme des outils pour les analystes dans le processus de ciblage.
Elle a affirmé que ses opérations étaient menées en conformité avec les règles de proportionnalité en vertu du droit international.
Conclusion
L’utilisation croissante de l’intelligence artificielle dans les opérations militaires soulève des questions complexes tant sur le plan légal qu’éthique. L’équilibre entre une approche modernisée de la guerre et le respect des normes internationales demeure un enjeu crucial dans ce domaine.