Accueil Actualité Israël utilise l’IA pour identifier 37 000 cibles à Gaza

Israël utilise l’IA pour identifier 37 000 cibles à Gaza

par Chia
Faire un don
A+A-
Réinitialiser
Israël utilise l'IA pour identifier 37 000 cibles à Gaza

Israël utilise l’IA pour identifier 37 000 cibles à Gaza

Israël a utilisé une base de données soutenue par l’intelligence artificielle pour cibler 37 000 sites potentiels lors de ses frappes sur Gaza, selon des sources de renseignement rapportées par le journal britannique The Guardian.

Le pays a employé le système d’intelligence artificielle nommé « Lavender », permettant aux responsables militaires israéliens de tuer un grand nombre de civils palestiniens, en particulier au cours des premières semaines et mois de la guerre.

Utilisation de l’intelligence artificielle dans les frappes

The Guardian a mis en lumière le recours par Israël à des systèmes d’apprentissage automatique pour aider à déterminer les cibles lors de l’agression continue contre Gaza depuis le 7 octobre dernier.

Le système « Lavender » a joué un rôle central dans la guerre, traitant de grandes quantités de données pour identifier rapidement des cibles potentielles parmi les « petits combattants » à cibler, avec une liste initiale de 37 000 hommes prétendument affiliés au Hamas ou au Jihad islamique palestinien.

Développement du système « Lavender »

Le système « Lavender » a été développé par la unité 8200 des renseignements de l’armée israélienne.

Préoccupations légales et éthiques

L’utilisation des techniques d’intelligence artificielle soulève des questions juridiques et éthiques, en modifiant la relation entre les militaires et les machines.

Des experts en droit international humanitaire ont exprimé leur préoccupation quant à l’acceptation par l’armée israélienne de pertes collatérales pouvant atteindre 20 civils pour éliminer une cible de faible rang. Ils soulignent l’importance pour les armées d’évaluer la proportionnalité de chaque frappe individuellement.

Réponse de l’armée israélienne

En contrepartie, l’armée israélienne a déclaré que l’intelligence artificielle n’était pas utilisée pour identifier les « terroristes », mais seulement comme des outils pour les analystes dans le processus de ciblage.

Elle a affirmé que ses opérations étaient menées en conformité avec les règles de proportionnalité en vertu du droit international.

Conclusion

L’utilisation croissante de l’intelligence artificielle dans les opérations militaires soulève des questions complexes tant sur le plan légal qu’éthique. L’équilibre entre une approche modernisée de la guerre et le respect des normes internationales demeure un enjeu crucial dans ce domaine.

Laissez un commentaire

*En utilisant ce formulaire, vous acceptez le stockage et la gestion de vos données par ce site web.


Droits d’auteur © 2024 – unsujet.fr – Tous droits réservés

Bienvenue sur unsujet.fr ! 🌟 Nous utilisons des cookies pour améliorer votre expérience sur notre site. Ces petits fichiers sont essentiels pour le bon fonctionnement de notre site et nous aident à comprendre comment vous l'utilisez, afin de le rendre encore plus intéressant et pertinent pour vous. En continuant à naviguer sur unsujet.fr, vous acceptez notre utilisation des cookies. Si vous souhaitez en savoir plus sur notre politique de confidentialité et les cookies que nous utilisons, cliquez sur "En savoir plus". Vous pouvez également choisir de refuser les cookies non essentiels en cliquant sur "Refuser". Merci de votre visite et bonne lecture sur unsujet.fr ! 📚🌍 Accepter En savoir plus