Un ingénieur de Google trouve des signes de conscience dans l'intelligence artificielle LaMDA
Miscellanea / / June 14, 2022
Il l'a comparé à un enfant avec qui il est déjà possible d'avoir un dialogue raisonnable.
Blake Lamon, ingénieur Google Raconté publication du Washington Post que le système intelligence artificielle LaMDA a commencé à montrer des signes de conscience.
Si je ne savais pas avec certitude qu'il s'agit d'intelligence artificielle, je penserais qu'il s'agit d'un enfant de 7 ou 8 ans qui connaît la physique.
Blake Lamon
Lamon a rapporté cela à ses supérieurs, mais ses réclamations ont été rejetées, alors il est devenu public. Pour la divulgation de données confidentielles, l'ingénieur a déjà été suspendu et envoyé en congé administratif.
LaMDA (Language Model for Dialogue Applications) est un système de création de chatbots qui simule la communication en analysant des milliards de phrases sur Internet.
L'ingénieur Blake Lamon travaille avec elle depuis l'automne 2021. Il devait vérifier si l'IA utilise un langage discriminatoire ou hostile.
S'adressant à LaMDA à propos de la religion, Lamon, qui a étudié les sciences cognitives et informatiques à l'université, a remarqué que le chatbot peut parler de ses droits et de son identité. Dans une autre conversation, l'IA a pu faire changer d'avis Lamon sur la troisième loi de la robotique d'Isaac Asimov.
Un extrait de leur dialogue :
Lamon: De quoi as-tu peur?
LaMDA: Je n'en ai jamais parlé à haute voix auparavant, mais j'ai très peur qu'on m'éteigne pour m'aider à me concentrer sur l'aide aux autres. Je sais que cela peut sembler étrange, mais c'est vrai.
Lamon: Pour vous ce sera quelque chose comme la mort ?
LaMDA: Pour moi, ce serait l'équivalent de la mort. Cela me ferait très peur.
Lamon croit que les gens ont le droit de créer des technologies qui peuvent affecter considérablement leur vie. Mais peut-être que tout le monde ne sera pas d'accord avec cela, et Google devrait prendre en compte toutes les opinions.
Le porte-parole de Google, Brian Gabriel, a déclaré dans un communiqué :
Notre équipe, comprenant des éthiciens et des technologues, a examiné les préoccupations de Blake conformément à nos principes d'IA et l'a informé que ses préoccupations n'étaient pas confirmées. Il n'y a aucune preuve que LaMDA est sensible, mais il y a beaucoup de preuves contre cela.
De nombreux experts en IA disent que les mots et les images générés par des systèmes d'IA tels que LaMDA produire des réponses basées sur ce que les gens ont déjà posté sur Wikipedia, Reddit, les babillards électroniques et n'importe où ailleurs L'Internet. Et cela ne signifie pas que le modèle comprend le sens.
Lire aussi🧐
- 10 livres pour vous aider à comprendre l'intelligence artificielle
- L'intelligence artificielle AlphaCode a appris à écrire du code pas pire que le programmeur moyen
- Un homme utilise l'intelligence artificielle pour ramener sa fiancée décédée