Sommaire
Guerre et paix à l’ère des robots et de l’IA
La confiance en l’humanité est-elle en train de s’évaporer? Cette question résonne de plus en plus fort dans nos esprits, chargée de doutes et d’interrogations alors que les événements et les tragédies se multiplient à travers le monde, révélant des réalités cruelles qui érodent progressivement notre confiance en l’humanité.
Dans la région de Gaza, plus de 2,3 millions de personnes subissent les affres de l’extermination et de la famine. Avec l’arrêt de certains gouvernements du soutien financier à l’UNRWA (l’Office de secours et de travaux des Nations unies pour les réfugiés palestiniens), une réalité amère émerge, montrant comment l’humanité a trahi l’homme de manière flagrante. Il est temps aujourd’hui de placer nos espoirs dans des entités non humaines appelées intelligence artificielle.
Au milieu de ces événements tragiques, l’intelligence artificielle émerge comme un sujet de débat brûlant. Les idées se croisent entre peur et espoir, soulignant le besoin crucial de comprendre la nature et le fonctionnement de l’intelligence artificielle. Seul à travers cette compréhension, nous pourrons savoir si un jour elle prendra l’initiative de guider l’humanité vers un avenir radieux ou bien si elle sera le mécanisme précipitant notre disparition.
La technologie contre l’humanité?
Le rôle de l’intelligence artificielle dans les opérations militaires a joué un rôle central dans les récents conflits, entraînant une augmentation significative du nombre de victimes civiles.
La militarisation de l’intelligence artificielle a des effets graves sur la sécurité mondiale, y compris le développement et le déploiement de systèmes d’armes létales susceptibles de fonctionner sans intervention humaine, renforçant la domination militaire des pays technologiquement avancés sur les pays du tiers monde.
Les armes traditionnelles destructrices sont devenues plus intelligentes grâce à l’intelligence artificielle, utilisée, par exemple, dans l’analyse des images des drones, entre autres sources de renseignements pour cibler, les missiles guidés et les systèmes de surveillance avancés.
C’est ce qu’Entité sioniste a fait pour sélectionner et élargir ses objectifs dans la guerre contre Gaza, en utilisant un système d’intelligence artificielle appelé « Harbsoora » qui a accéléré le rythme de la ciblage, extrayant d’importantes quantités d’informations de différentes sources telles que les données de communication, les images de drones, les données de surveillance, puis les analysant et produisant des recommandations de cibles.
Ce changement soulève des questions profondes sur l’impact de l’avancée technologique sur l’essence même de l’humanité et sur notre appréciation de la vie. L’utilisation de l’intelligence artificielle en temps de guerre est un enjeu complexe qui nécessite une étude approfondie de ses impacts humanitaires, juridiques, éthiques et sécuritaires.
Cela remet en question l’impact de la technologie destructrice sur notre humanité. Est-ce elle qui déforme notre humanité, ou bien cette déformation est-elle intrinsèque à notre nature, la technologie n’étant qu’un miroir la reflétant?
Entité sioniste a utilisé un système d’intelligence artificielle appelé « Harbsoora » pour accélérer le ciblage lors de la guerre de Gaza.
Créer une machine éthique
La professeure associée au Centre Berkman Klein pour Internet et la Société à l’Université de Harvard, la Dr Paula Ricourt, estime que l’intelligence artificielle dominante est devenue une force capable de commettre des actes de violence à travers trois opérations cognitives: la transformation des données par l’extraction et la confiscation de la propriété, l’algorithmie à travers l’intermédiaire et la gouvernance, et l’automatisation à travers la violence et l’inégalité.essian AI tient compte de ce point de vue, estimant que l’intelligence artificielle n’est pas aussi intelligente que les animaux de compagnie, et que les systèmes actuels sont loin d’atteindre certaines aspects de la conscience qui les rendraient intelligents.
Une machine n’a pas conscience de la nature de la violence, ni de raisons de la pratiquer, mais l’homme l’utilise pour servir ses intérêts défaillants de manière que la machine elle-même ne réalise peut-être pas qu’elle exerce de la violence envers autrui. Si nous craignons que l’intelligence artificielle combatte les humains, ne devrions-nous pas alors cesser nous-mêmes de pratiquer cette violence?
Même si l’intelligence artificielle actuelle parvient à acquérir la conscience, il y a quelque chose de plus important dont elle doit disposer pour surpasser et contrôler les humains : la motivation.
Les motivations des machines
Les motivations, dérivées du mot latin « mover », sont des processus physiologiques qui préparent l’organisme à l’action mentale, répondant aux besoins, désirs et motivations, étant les moteurs du comportement des êtres vivants qui les poussent vers un objectif particulier. Selon l’intensité de la motivation, elle peut amener l’individu à continuer, arrêter ou augmenter son activité.
Dans son livre « Pourquoi les nations guerrent … Les motivations des guerres passées et futures », Richard Ned Lebow identifie quatre motivations clés pour les guerres entre nations, incluant la peur d’une menace extérieure, l’intérêt économique, politique et stratégique, le désir de maintenir ou de renforcer une position et la vengeance pour une injustice. Ces motivations sont des facteurs essentiels dans la formation des dynamiques politiques internationales d’aujourd’hui.
L’intelligence artificielle pourrait avoir un impact sur la création de contextes politiques pouvant éventuellement conduire à des conflits ou à des guerres, mais elle n’a pas de motivations propres, étant simplement un outil technologique reposant sur la programmation et les données pour exécuter des tâches et prendre des décisions.
Bien que des systèmes avancés d’intelligence artificielle puissent être développés pour prendre des décisions dans des contextes militaires, la décision finale reste soumise à la volonté humaine.
L’écrivain américain Isaac Asimov a élaboré des principes éthiques pour l’intelligence artificielle, résumés en 3 lois baptisées la loi d’Asimov.
Humaniser la machine
Dans leur quête incessante de développement technologique, les scientifiques ont tenté de rendre les robots plus humains, recherchant des moyens d’incarner les mouvements et les comportements organiques des humains dans ces machines. Malgré les progrès réalisés, des défis subsistent dans leurs efforts d’humaniser les robots.
Ils ont cherché à implanter des traits humains dans leur apparence dans le but de rendre leurs apparences plus humaines même si cela ne sert pas leur fonction, comme le clignement des yeux. Cependant, malgré tous les efforts déployés, les robots manquent encore de précision et de fluidité pour imiter ces mouvements.
Les écrivains et philosophes ont mené des tentatives acharnées pour insuffler des émotions humaines dans les robots à travers leurs écrits, leur accordant un cœur battant de vie. Alors que ces tentatives ont échoué à insuffler des étincelles d’amour, de colère et de vengeance au sein de ces machines, elles ont esquissé une classification étrange des humains pour ces machines entre des robots bienveillants et des robots malveillants.
Le développement technologique a franchi d’énormes pas, mais le robot qui ne peut même pas lever les yeux comme un humain reste loin de la capacité de créer toutes ces réactions chimiques mystérieuses qui suscitent les émotions humaines.
Les lois d’Asimov
Sur un plan philosophique romanesque, l’écrivain américain et l’un des plus célèbres vulgarisateurs scientifiques, Isaac Asimov, a élaboré des principes éthiques pour l’intelligence artificielle, résumés en trois lois fondamentales :
- Il n’est pas permis à un robot de nuire à un être humain ou de permettre, par son inaction, qu’un être humain soit blessé.
- Un robot doit obéir aux ordres donnés par les humains, sauf si de tels ordres entrent en conflit avec la Première Loi.
- Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi.
Bien que les lois d’Asimov pour les robots soient des instructions intégrées dans ses récits et ne soient pas des lois scientifiques, elles ont joué un rôle crucial dans les discussions autour de la technologie. De nombreux scientifiques éminents en intelligence artificielle, tels que Ray Kurzweil, le fondateur de l’entreprise « i-Robot », Rodsney Brooks, et l’expert en robotique Daniel Wilson, ont débattu et exploré ces lois.
Aujourd’hui, nous commençons à voir et à ressentir les dommages réels causés par l’intelligence artificielle, en particulier dans le domaine militaire. Avec la montée de ces défis, il est devenu essentiel de définir un cadre juridique et éthique rigoureux pour contrôler les utilisations de l’intelligence artificielle et garantir son utilisation de manière à assurer la justice et le respect des droits fondamentaux des individus ; tous les individus.
Il ne fait aucun doute que les machines nous ressemblent de plus en plus, non seulement dans leur apparence, mais aussi dans leur façon de penser. C’est peut-être là que réside le danger, car il est de plus en plus difficile de les distinguer de nous et de nos pensées et désirs.
Peut-être que la peur des machines chez les humains n’est pas due à leur volonté apparente de nuire à l’humanité, mais plutôt à nos efforts pour les rendre de plus en plus semblables à nous. Si cela signifie quelque chose, c’est bien que les humains ont plus peur de ces entités qui leur ressemblent, et qui, en raison de leur complexité, pourraient suivre un chemin imprévisible, soit pour l’éternité, soit pour l’anéantissement.