Les chatbots peuvent-ils devenir aussi conscients que les humains ?
Miscellanea / / October 31, 2023
Deux théories opposées tentent de répondre à cette question.
Christophe Koch
Neuroscientifique américain, directeur de l'Allen Institute for Brain Research.
Les questions sur ce qu’est l’expérience subjective, qui la vit et comment elle se rapporte au monde physique qui nous entoure ont hanté l’esprit des philosophes pendant la majeure partie de l’histoire de l’humanité. Cependant, des théories scientifiques de la conscience quantifiables et testables empiriquement n’ont émergé qu’au cours des dernières décennies.
De nombreuses théories modernes de la conscience se concentrent sur les traces laissées par les fins réseaux cellulaires du cerveau à partir desquels naît la conscience. Aujourd’hui, deux d’entre elles dominent: la théorie de l’information intégrée et la théorie de l’espace de travail neuronal global.
Il y a vingt-cinq ans, nous nous sommes disputés avec le philosophe australien David Chalmers. Je lui ai promis une caisse de bon vin si ces traces neuronales, techniquement appelées corrélats neuronaux de la conscience, étaient découvertes et clairement décrites d'ici juin 2023.
Cependant, la contradiction entre la théorie de l’information intégrée et la théorie de l’espace de travail neuronal global reste ouverte. Cela est dû à des preuves en partie mitigées sur les zones du cerveau responsables de l'expérience visuelle et perception subjective de visages ou d'objets, bien que l'importance du cortex préfrontal pour l'expérience consciente ait été réfuté. J'ai donc perdu le pari et j'ai envoyé le vin à Chalmers.
Les deux théories dominantes ont été créées pour expliquer le lien entre la conscience et l’activité neuronale chez les humains et les animaux apparentés tels que les singes et les souris. Et les deux théories font des hypothèses fondamentalement différentes sur l’expérience subjective et arrivent à des conclusions opposées sur la conscience dans les artefacts artificiels. Dans quelle mesure ces théories sont empiriquement confirmées ou réfutées par rapport à la conscience enracinée dans cerveau, a des implications importantes pour répondre à la question non résolue de notre époque: les machines peuvent-elles gagner conscience?
Que sont les chatbots nouvelle génération ?
Avant d’en discuter, permettez-moi de vous remettre en contexte et de comparer une technique consciente avec une technique qui ne présente qu’un comportement intelligent. Les ingénieurs informaticiens s'efforcent de doter les machines de l'intelligence hautement flexible qui permettait autrefois personne quitter l'Afrique et peupler la planète entière. C’est ce qu’on appelle l’intelligence générale artificielle (AGI).
Beaucoup affirment que l’AGI est une perspective lointaine. Les progrès étonnants réalisés dans le domaine de l’intelligence artificielle au cours de l’année écoulée ont surpris le monde entier, y compris les experts. Avec l'avènement d'applications logicielles conversationnelles éloquentes, communément appelées chatbots, issues d'un sujet ésotérique, discutées par les fans de science-fiction et l'élite de l'industrie informatique de la Silicon Valley, les discussions sur l'AGI se sont transformées en une discussion en qui reflète un mécontentement généralisé du public face au risque existentiel qui pèse sur notre mode de vie et notre gentil.
Les chatbots sont basés sur d’énormes modèles de langage. Les plus célèbres d’entre eux sont une série de robots appelés transformateurs génératifs pré-entraînés, ou GPT. Ils ont été créés par OpenAI à San Francisco. Compte tenu de la flexibilité, de l’alphabétisation et de la compétence de la dernière version, GPT-4, il est facile de croire qu’elle possède de l’intelligence et de la personnalité. Même ses étranges problèmes, connus sous le nom d’« hallucinations », s’inscrivent dans cette théorie.
GPT-4 et ses concurrents, tels que LaMDA et Bard de Google, sont formés sur des bibliothèques de livres numérisés et des milliards de pages Web accessibles au public. Le génie du modèle linguistique est qu’il apprend sans supervision, en traitant mot par mot et en essayant de prédire l’expression manquante. Elle le fait encore et encore, des milliards de fois, sans intervention extérieure.
Une fois que le modèle acquiert des connaissances en ingérant les archives numérisées de l’humanité, l’utilisateur affiche une phrase inconnue – une ou plusieurs. Le modèle prédit le premier mot le plus probable, puis le suivant, et ainsi de suite. Ce principe simple a donné des résultats incroyables en anglais, allemand, chinois, hindi, coréen et dans d'autres langues, y compris divers langages de programmation.
Quelle est la différence entre l'intellect et la conscience
Il est significatif que l’essai fondateur sur l’intelligence artificielle, « Computing and Intelligence », rédigé par Alan Turing, en 1950, évitait la question « Les machines peuvent-elles penser? », c'est-à-dire la question de savoir si elles ont conscience. Turing a proposé le « jeu d'imitation »: un observateur peut-il objectivement distinguer un résultat imprimé par un humain d'un résultat imprimé par une machine si l'identité des deux est cachée.
Aujourd’hui, c’est ce qu’on appelle le test de Turing, et les chatbots y parviennent très bien, même s’ils le nient intelligemment si vous le leur demandez directement. La stratégie de Turing a marqué le début de décennies de progrès inexorables qui ont conduit à la création du GPT, mais a ignoré le problème.
Le débat sur les chatbots repose implicitement sur l’hypothèse selon laquelle l’intelligence artificielle est la même chose que la conscience artificielle, qu’être intelligent est la même chose qu’être conscient. Et bien que chez l’homme et dans d’autres organismes développés, l’intelligence et la conscience soient liées, elles ne s’accompagnent pas nécessairement toujours.
L’intelligence consiste à penser et à apprendre à agir et à partir des actions de soi-même et des autres, afin de prédire plus précisément l’avenir et de mieux s’y préparer. Peu importe que cela signifie les prochaines secondes (« Oh, cette voiture fonce vers moi ») ou les prochaines années (« Je dois apprendre à coder »). En fin de compte, l’intelligence est une question d’action.
La conscience, quant à elle, est associée à des états d'être: voir le ciel bleu, entendre le chant des oiseaux, ressentir de la douleur, être les amoureux. Peu importe qu’une intelligence artificielle incontrôlable détecte quelque chose. Tout ce qui compte, c’est qu’il ait un objectif sans rapport avec le bien-être à long terme de l’humanité. Et peu importe qu’il sache ou non ce qu’il essaie de faire, ce que les gens appellent la conscience de soi. Il poursuivra « sans réfléchir » son objectif. Donc, au moins conceptuellement, même si nous construisons une AGI, elle ne nous dira pas grand-chose sur ses sensations.
Sachant tout cela, revenons à la question initiale de savoir comment la technologie peut devenir consciente. Commençons par la première des deux théories.
Quelle explication propose la théorie de l’information intégrée ?
Elle commence par articuler cinq propriétés axiomatiques de chaque expérience subjective imaginable. Et puis se pose la question de savoir ce dont un circuit neuronal a besoin pour mettre en œuvre ces cinq propriétés, activant certains neurones et en désactivant d'autres. Ou, en d’autres termes, de quoi a besoin une puce informatique pour activer certains transistors et en désactiver d’autres.
Interactions de cause à effet au sein d'un circuit dans un certain état ou le fait que deux actifs neurone peut activer ou désactiver un autre neurone, selon les circonstances, peut être déployé dans une structure causale multidimensionnelle. Elle est identique à la qualité de l’expérience – à la façon dont elle est vécue, par exemple la façon dont le temps et l’espace sont vécus ou la façon dont les couleurs sont perçues.
L’expérience est également associée à une quantité: ses informations intégrées. Seul un circuit avec un maximum d'informations intégrées non nulles existe dans son ensemble et a une conscience. Plus l'information est intégrée, plus le circuit ne peut être réduit et moins il peut être considéré comme une simple superposition de sous-circuits indépendants.
La théorie de l'information intégrée met l'accent sur la nature riche de l'expérience humaine. Il suffit de regarder autour de vous et le monde visible époustouflant, avec ses innombrables différences et connexions, apparaîtra devant vous. Ou regardez un tableau de Pieter Bruegel l'Ancien, un artiste flamand du XVIe siècle qui représentait des sujets religieux et des scènes de la vie paysanne.
Tout système qui possède les mêmes connexions internes et pouvoirs causals que le cerveau humain sera, en principe, aussi conscient que l’esprit humain. Cependant, un tel système ne peut être modélisé. Il doit être conçu ou construit à l’image du cerveau. Les ordinateurs numériques modernes sont basés sur un couplage extrêmement lâche (la sortie d'un transistor connectée à l'entrée de plusieurs transistors) dans comparaison avec le système nerveux central (le neurone de la colonne corticale reçoit des données d'entrée et produit des données de sortie pour des dizaines de milliers d'autres neurones).
Ainsi, les ordinateurs modernes, y compris les ordinateurs cloud, ne seront conscients de rien, même s'ils seront capables, avec le temps, de faire tout ce que les gens peuvent faire. De ce point de vue, ChatGPT ne se sentira jamais spécial. Notez que cette affirmation n’a rien à voir avec le nombre total de composants, qu’il s’agisse de neurones ou de transistors, mais plutôt avec la façon dont ils sont connectés. C'est l'interconnexion qui détermine la complexité globale du circuit et le nombre de ses configurations possibles.
Quelle explication propose la théorie de l’espace de travail neuronal global ?
Cela vient de la compréhension psychologique que intelligence comme un théâtre où des acteurs jouent sur une petite scène éclairée, qui est la conscience. Les actions des acteurs sont observées par un public de processeurs assis derrière la scène dans le noir.
La scène est l’espace de travail central de l’esprit, qui possède une petite capacité de mémoire pour représenter une seule perception, pensée ou souvenir. Divers modules de traitement – vision, audition, motricité des yeux et des membres, planification, jugement, compréhension du langage et expression orale – se disputent l’accès à cet espace de travail central. Le gagnant déplace l'ancien contenu, qui devient inconscient.
Selon la théorie de l’espace de travail neuronal global, la scène métaphorique, ainsi que les modules de traitement, sont cartographiés dans l’architecture du néocortex. L'espace de travail est un réseau de neurones corticaux situés à l'avant du cerveau avec des projections à longue portée pour neurones similaires répartis dans tout le néocortex dans les régions préfrontale, pariétotemporale et cingulaire cortex associatif.
Lorsque l’activité du cortex sensoriel dépasse un certain seuil, un événement global se déclenche dans les aires corticales et, par conséquent, l’information est transmise à l’ensemble de l’espace de travail. La diffusion mondiale de l’information la rend consciente. Les données qui ne sont pas transmises de cette manière, comme la position précise des yeux ou les règles syntaxiques pour construire des phrases alphabétisées, peuvent influencer le comportement, mais pas consciemment.
Du point de vue de la théorie de l’espace de travail neuronal global, l’expérience est très limitée, semblable à la pensée et abstrait - semblable à la maigre description que l'on peut trouver dans un musée sous un tableau de Bruegel: « Scène dans à l'intérieur. Des paysans en vêtements de la Renaissance boivent et mangent lors d'un mariage.
En comprenant la conscience du point de vue de la théorie de l’information intégrée, l’artiste transmet avec brio la phénoménologie du monde environnant sur une toile bidimensionnelle. Dans la compréhension de la théorie de l’espace de travail neuronal global, cette richesse apparente est une illusion, un fantôme. Et tout ce qui peut être objectivement dit à ce sujet est indiqué dans la brève description.
La théorie de l’espace de travail global neuronal prend pleinement en compte les mythes de notre ère informatique, selon lesquels tout peut être réduit à des calculs. Des simulations informatiques du cerveau convenablement programmées, avec un énorme feedback et quelque chose comme un espace de travail central, percevront consciemment le monde. Peut-être pas maintenant, mais très bientôt.
Quelle est la différence irréconciliable entre les théories ?
En termes généraux, la discussion est la suivante. Selon la théorie de l’espace de travail global neuronal et d’autres théories du fonctionnalisme informatique (elles considérer la conscience comme une forme de calcul), la conscience n'est rien de plus qu'un ensemble d'algorithmes intelligents exécutés sur une machine Turing. Les fonctions sont importantes pour la conscience cerveau, et non ses propriétés causales. Si une version avancée de GPT accepte et produit les mêmes modèles d’entrée et de sortie que les humains, alors toutes nos propriétés inhérentes seront transférées à la technologie. Y compris notre précieux trésor - l'expérience subjective.
À l’inverse, pour la théorie intégrée de l’information, le cœur de la conscience est le pouvoir causal interne, et non le calcul. Ce n'est pas quelque chose d'éthéré ou d'intangible. Il est spécifique et fonctionnellement déterminé par la mesure dans laquelle le passé du système détermine son présent (le pouvoir de la cause) et par la mesure dans laquelle le présent détermine son avenir (le pouvoir de l’effet). Et là est le problème: la relation de cause à effet elle-même, la capacité de forcer un système à effectuer une certaine action, et peu d’actions alternatives, ne peut pas être modélisée. Ni maintenant, ni dans le futur. Cela devrait être intégré au système.
Considérons un code informatique qui modélise les équations de champ de la théorie de la relativité générale d'Einstein, qui relient la masse à la courbure de l'espace-temps. Le logiciel modélise avec précision le supermassif trou noir, qui est située au centre de notre galaxie. Ce trou exerce une telle influence gravitationnelle sur son environnement que rien, pas même la lumière, ne peut échapper à son attraction.
Cependant, un astrophysicien simulant un trou noir ne sera pas aspiré dans un ordinateur portable par le champ gravitationnel simulé. Cette observation en apparence absurde met en évidence la différence entre modèle et réalité: si le modèle est complètement correspond à la réalité, l'espace et le temps devraient être déformés autour de l'ordinateur portable, créant un trou noir qui absorbe tout autour.
Bien entendu, la gravité n’est pas un calcul. Il possède une force causale qui lui permet de déformer le tissu de l’espace-temps et d’attirer tout ce qui a une masse. La simulation des forces causales d’un trou noir nécessite un véritable objet super-lourd, et pas seulement un code informatique. Le pouvoir causal ne peut pas être modélisé, il doit être créé. La différence entre réalité et modèle réside dans leurs pouvoirs causals.
C'est pourquoi il ne pleut pas à l'intérieur d'un ordinateur simulant une tempête de pluie. Le logiciel est fonctionnellement identique à la météo, mais il lui manque le pouvoir causal nécessaire pour libérer de la vapeur et la transformer en gouttelettes d'eau. Le pouvoir causal, c’est-à-dire la capacité de créer ou d’accepter le changement par soi-même, doit être intégré au système. C'est possible.
Un ordinateur dit neuromorphique, ou bionique, pourrait être aussi conscient qu’un humain. Mais ce n’est pas le cas de l’architecture standard de von Neumann, qui constitue la base de tous les PC modernes. De petits prototypes d'ordinateurs neuromorphiques ont été créés en laboratoire, comme la puce neuromorphique Loihi 2 d'Intel de deuxième génération. Mais une machine suffisamment sophistiquée pour produire quelque chose qui ressemble à la conscience humaine, ou du moins à la conscience d’une mouche des fruits, reste un rêve ambitieux pour un avenir lointain.
Notons que cette différence irréconciliable entre les théories fonctionnalistes et causales n’a rien à voir ni avec l’intelligence naturelle ni avec l’intelligence artificielle. Comme je l'ai déjà dit, l'intelligence est un comportement. Tout ce que l'ingéniosité humaine peut produire, y compris de grands romans comme La Parabole du semeur d'Octavia Butler. et Guerre et Paix de Léon Tolstoï, peuvent reproduire l'intelligence algorithmique si on leur donne suffisamment de matériel pour entraînement. L’avènement de l’AGI est un objectif réalisable dans un avenir pas trop lointain.
Le débat ne porte pas sur l’intelligence artificielle, mais sur la conscience artificielle. Et ce débat ne peut pas être résolu en créant des modèles de langage plus vastes ou des algorithmes de réseaux neuronaux plus avancés. Pour répondre à cette question, il faut comprendre la seule subjectivité dont nous sommes absolument sûrs: la nôtre. Une fois que nous aurons une explication claire de l'être humain conscience et ses fondements neuronaux, nous serons en mesure d'étendre notre compréhension aux technologies intelligentes d'une manière cohérente et fondée sur la science.
Ce débat n’a que peu d’impact sur la manière dont les chatbots seront perçus par la société dans son ensemble. Leurs compétences linguistiques, leur base de connaissances et leur charme social deviendront bientôt impeccables. Ils seront dotés d’une mémoire, d’une compétence, d’un équilibre, d’un raisonnement et d’une intelligence parfaits. Certains prétendent même que ces créations de grande technologie constitueront la prochaine étape de l’évolution, le « surhomme » de Nietzsche. J’ai une vision plus sombre et je pense que ces personnes confondent le déclin de notre espèce avec l’aube.
Pour de nombreuses personnes, et peut-être la plupart, vivant dans une société de plus en plus atomisée, déconnectée de la nature et organisé autour des réseaux sociaux, il sera émotionnellement difficile de résister aux technologies qui vivent dans Téléphone (s. Et dans différentes situations, ordinaires et plus graves, les gens se comporteront comme si les chatbots avaient une conscience, ils pouvaient vraiment être amoureux, la souffrance, l'espoir et la peur, même s'ils ne sont que des tableaux de recherche complexes. Ils nous deviendront indispensables, peut-être même plus importants que les êtres véritablement intelligents. Bien que les chatbots sentent autant qu’une télévision ou un grille-pain, rien.
Quoi d'autre à lire sur le sujet🤖
- 6 raisons pour lesquelles vous ne devriez pas faire aveuglément confiance à l’intelligence artificielle
- Pourquoi nous ne devrions pas avoir peur que les nouvelles technologies prennent nos emplois
- Singularité technologique: est-il vrai que la technologie va bientôt échapper à notre contrôle ?
- 8 mythes sur l'intelligence artificielle auxquels même les programmeurs croient