Accueil Actualité Washington examine un rapport sur l’IA israélienne bombardant Gaza

Washington examine un rapport sur l’IA israélienne bombardant Gaza

par Chia
Faire un don
A+A-
Réinitialiser
Washington examine un rapport sur l'IA israélienne bombardant Gaza

Washington examine un rapport sur l’IA israélienne bombardant Gaza

Le porte-parole du Conseil de sécurité nationale de la Maison Blanche, John Kirby, a déclaré lors d’une interview avec CNN jeudi que les États-Unis examinaient un rapport selon lequel l’armée israélienne utiliserait l’intelligence artificielle pour aider à cibler les frappes à Gaza.

L’Étude du Rapport par les États-Unis

Kirby a précisé que les États-Unis n’avaient pas vérifié le contenu du rapport publié par des sites Web avant-hier mercredi. Ce rapport affirmait que des responsables du renseignement israélien utilisaient un programme appelé « Lavender » pour cibler des objectifs à l’intérieur de la bande de Gaza.

Controverses et Déclarations

Le rapport médiatique indiquait que l’armée israélienne classait des dizaines de milliers d’habitants de Gaza comme suspects en utilisant un système d’intelligence artificielle sans révision humaine. Cependant, l’armée israélienne a nié avoir utilisé l’IA pour identifier les cibles et les suspects avant de les frapper.

Utilisation de l’IA par Israël

Selon des sources de renseignement citées par The Guardian, Israël aurait utilisé une base de données soutenue par l’IA pour identifier 37 000 cibles potentielles lors des frappes sur Gaza. Le pays aurait utilisé un système d’IA nommé « Lavender » pour permettre aux responsables militaires israéliens de tuer un grand nombre de civils palestiniens, notamment au début du conflit.

Témoignages et Implémentation de l’IA

Des témoignages de responsables du renseignement israélien ont souligné l’utilisation directe de l’apprentissage automatique pour aider à cibler les objectifs lors de l’agression continue contre Gaza depuis début octobre. « Lavender » aurait joué un rôle central en traitant de grandes quantités de données pour identifier rapidement des cibles potentielles parmi les membres présumés des groupes de résistance palestiniens.

Conclusion

Cette utilisation de l’intelligence artificielle dans les conflits suscite des préoccupations éthiques et humanitaires quant à la précision des cibles, la protection des civils et le respect du droit international. L’analyse de ces pratiques soulève des questions sur l’éthique de plus en plus présente dans la guerre moderne.

Laissez un commentaire

*En utilisant ce formulaire, vous acceptez le stockage et la gestion de vos données par ce site web.


Droits d’auteur © 2024 – unsujet.fr – Tous droits réservés

Bienvenue sur unsujet.fr ! 🌟 Nous utilisons des cookies pour améliorer votre expérience sur notre site. Ces petits fichiers sont essentiels pour le bon fonctionnement de notre site et nous aident à comprendre comment vous l'utilisez, afin de le rendre encore plus intéressant et pertinent pour vous. En continuant à naviguer sur unsujet.fr, vous acceptez notre utilisation des cookies. Si vous souhaitez en savoir plus sur notre politique de confidentialité et les cookies que nous utilisons, cliquez sur "En savoir plus". Vous pouvez également choisir de refuser les cookies non essentiels en cliquant sur "Refuser". Merci de votre visite et bonne lecture sur unsujet.fr ! 📚🌍 Accepter En savoir plus