L’intelligence artificielle (IA) est devenue un domaine en pleine expansion grâce aux avancées technologiques. Les modèles de langage sont des logiciels informatiques qui ont été entraînés sur de grandes quantités de données textuelles pour comprendre et générer le langage humain, y compris la traduction. Plus les modèles sont entraînés sur des données volumineuses, plus ils sont performants dans la compréhension et la génération du langage, ce qui signifie qu’ils deviennent de plus en plus capables chaque jour. Cependant, cela soulève une nouvelle question : ces logiciels qui deviennent de plus en plus intelligents et améliorent leurs capacités jour après jour sont-ils conscients et comprennent-ils ce qui leur est demandé, ou sont-ils simplement des zombies qui fonctionnent sur des algorithmes intelligents pour correspondre aux modèles ?
Dans une nouvelle étude publiée dans la revue « Trends in Neuroscience » menée par des chercheurs de l’Université de Tartu en Estonie, les neuroscientifiques tentent d’apporter une réponse scientifique à cette question. Malgré les réponses persuasives des systèmes tels que « GPT-3 », il est peu probable qu’ils soient conscients, affirme cette équipe, et ils présentent trois arguments pour soutenir cette affirmation.
Premièrement, les entrées dans les modèles de langage manquent de la perception incorporée qui distingue notre perception sensorielle du monde qui nous entoure. La perception incorporée fait référence au fait que la perception n’est pas seulement limite au cerveau, mais elle est distribuée dans tout le corps et interagit avec l’environnement. Nos capacités cognitives sont profondément liées à nos expériences corporelles et à nos interactions sensorimotrices avec le monde, tandis que les modèles de langage se concentrent uniquement sur le texte.
Deuxièmement, les structures des algorithmes d’intelligence artificielle actuels ne possèdent pas les caractéristiques clés de connexion naturelle du système cortico-thalamique dans le cerveau, qui peut être lié à la conscience chez les mammifères.
Troisièmement, les parcours de croissance et d’évolution qui ont conduit à l’émergence d’organismes vivants conscients sont sans équivalent dans les systèmes artificiels tels qu’ils sont conceptualisés aujourd’hui. Selon l’étude, les neurones réels sont similaires aux réseaux de neurones artificiels, les premiers étant des entités matérielles réelles qui peuvent croître et changer de forme, tandis que les réseaux de neurones dans les modèles de langage ne sont que des parties du code qui n’ont aucun sens.
En conclusion, les chercheurs de cette nouvelle étude affirment que les neuroscientifiques et les philosophes ont encore un long chemin à parcourir pour comprendre la conscience, et par conséquent, il reste encore beaucoup de chemin à parcourir pour arriver à bout de machines conscientes.
En somme, bien que l’intelligence artificielle puisse parler et former des phrases de manière fluide, elle ne possède pas une signification ou une intention propre. Ceci est souligné par John Searle, professeur de philosophie de l’esprit et du langage à l’Université de Californie à Berkeley, lorsqu’il affirme que l’intelligence artificielle forme des phrases de manière syntaxique mais pas sémantique, ce qui sont deux choses complètement différentes. La construction de phrases ne peut être le fondement de composants mentaux tels que le sens ou la signification que les humains possèdent.
En fin de compte, les chercheurs de cette nouvelle étude indiquent qu’il reste encore beaucoup de chemin à parcourir pour comprendre pleinement la conscience, et donc, la route de l’intelligence artificielle consciente est encore longue.