10 questions honteuses sur les réseaux de neurones: le spécialiste de l'apprentissage automatique répond à Igor Kotenkov
Miscellanea / / August 08, 2023
Nous avons rassemblé tout ce que vous vouliez savoir, mais étiez trop timide pour demander.
Dans le nouveau série Des articles d'experts renommés répondent à des questions généralement embarrassantes à poser: il semble que tout le monde soit déjà au courant, et le questionneur aura l'air stupide.
Cette fois, nous avons parlé avec le spécialiste de l'intelligence artificielle Igor Kotenkov. Vous apprendrez si vous pouvez enregistrer votre copie numérique pour vos arrière-petits-enfants, pourquoi on ne peut pas faire confiance à 100 % aux neurones et si le monde est en danger d'un soulèvement des machines.
Igor Kotenkov
1. Comment fonctionnent les réseaux de neurones? C'est une sorte de magie. Comment ChatGPT pourrait-il être créé? Et Midjourney ou DALL-E ?
Un réseau de neurones est un modèle mathématique inventé dans le but de comprendre le fonctionnement du cerveau d'un organisme vivant. Certes, les idées les plus fondamentales du début de la seconde moitié du XXe siècle ont été prises comme base, ce qui peut maintenant être qualifié de non pertinent ou trop simplifié.
Même le nom "réseau de neurones" vient du mot "neurone" - c'est le nom de l'une des principales unités fonctionnelles du cerveau. Les réseaux de neurones eux-mêmes sont constitués de nœuds - des neurones artificiels. On peut donc dire que de nombreuses idées d'architectures modernes ont été "épiées" de la nature elle-même.
Mais plus important encore, le réseau de neurones est un modèle mathématique. Et comme il s'agit de quelque chose de lié aux mathématiques, nous pouvons utiliser toute la puissance de l'appareil mathématique pour découvrir ou évaluer les propriétés d'un tel modèle. Vous pouvez considérer un réseau de neurones comme une fonction, et une fonction est aussi un objet mathématique. L'exemple le plus simple et le plus compréhensible: une fonction qui, par exemple, prend n'importe quel nombre en entrée et lui ajoute 2: f (4) = 6, f (10) = 12.
Mais une telle fonction est très facile à programmer, même un enfant peut la gérer après quelques heures d'apprentissage des langues. la programmation. Et la raison en est qu'une telle fonction est très facilement formalisable, décrite en détail dans un langage simple et compréhensible.
Cependant, il y a certaines tâches que nous ne savons même pas comment aborder. Par exemple, je peux vous donner des photos de chats et de chiens mélangés, et vous pouvez les trier en deux piles sans aucun problème. Mais par quoi êtes-vous exactement guidé pour déterminer la réponse? Les deux sont moelleux. Les deux espèces ont une queue, des oreilles, deux yeux. Peut-être la taille? Mais il y a de très petits chiens, il y a de gros chats.
Nous ne pouvons pas décrire de nombreuses tâches du monde réel, nous ne connaissons pas la dépendance de notre observation et de certaines réponses "correctes" conditionnelles.
Nous savons juste comment donner cette réponse - et c'est tout, sans penser à la façon dont cela se passe.
C'est là que les réseaux de neurones viennent à la rescousse. Ces fonctions mathématiques sont formées à partir des données. Vous n'avez pas besoin de décrire la relation entre l'entrée et la sortie. Vous préparez simplement deux piles de photos et les trains miniatures pour donner les bonnes réponses. Elle-même apprend à trouver cette connexion, elle la trouve elle-même, en s'appuyant sur erreursqui fait. Confondre un chat bengal et un rottweiler? Et bien, ce sera mieux la prochaine fois !
Le processus d'apprentissage d'un réseau de neurones est un tel ajustement des «neurones» afin d'apprendre à résoudre un problème et à donner la bonne réponse. Et ce qui est le plus remarquable: il existe une preuve théorique qu'un réseau de neurones suffisamment grand avec un ensemble de données suffisamment grand peut apprendre n'importe quelle fonction complexe. Mais le plus important ici est la puissance de calcul (car le neurone peut être très gros) et la disponibilité des données étiquetées. À savoir marqués, c'est-à-dire qu'ils ont la classe "chien", chat ou autre.
Nous ne comprenons pas entièrement le fonctionnement des modèles - les modèles les plus complexes et les plus volumineux comme ChatGPT presque inanalysable.
Les meilleurs chercheurs travaillent actuellement sur le défi de "comprendre" le fonctionnement interne de leurs processus.
Mais nous savons pour quelle tâche les modèles ont été formés, quelle erreur ils ont essayé de minimiser pendant la formation. Pour ChatGPT, la tâche se compose de deux. Le premier est la prédiction du mot suivant selon son contexte: « maman lavée… » Quoi? C'est ce que le modèle devrait prédire.
La deuxième tâche consiste à s'assurer que les réponses ne sont pas offensantes, mais restent en même temps utiles et compréhensibles. C'est pourquoi le modèle est devenu viral - il est directement formé pour générer le type de texte que les gens aiment !
Vous pouvez en savoir plus sur le fonctionnement de ChatGPT dans mon article.
2. Les neurones peuvent-ils penser ?
Les scientifiques ne comprennent toujours pas ce que signifie « penser » ou « raisonner » et comment fonctionne l'intellect en général. Par conséquent, il est difficile de juger si un modèle comme ChatGPT possède de telles propriétés.
Imaginons une situation: vous vous approchez de la porte de votre appartement. Vous pensez qu'il vous faut récupérer la clé dans la poche gauche de votre sac à dos pour ouvrir la porte? Peut-on dire que la description et la présentation des actions est un processus de réflexion? En substance, nous avons établi une relation entre l'état actuel et la cible souhaitée (porte ouverte). Si vous pensez que la réponse à la question ci-dessus est oui, alors ma réponse serait la même. 🙂
Une autre chose est quand il s'agit de pensées novatrices qui n'ont pas été exprimées auparavant ou qui ne sont pas si courantes. Après tout, par exemple, vous pouvez facilement critiquer l'exemple ci-dessus: "Oui, j'ai lu ce modèle 100 500 fois sur Internet et dans livres. Bien sûr qu'elle le sait! Rien d'étonnant." Au fait, comment saviez-vous? Est-ce parce que vos parents vous ont montré dans l'enfance et que vous avez observé le processus pendant des centaines de jours d'affilée ?
Dans ce cas, il n'y a pas de réponse exacte. Et le point ici est que nous ne prenons pas en compte un élément important: la probabilité.
Quelle est la probabilité que le modèle génère une pensée qui corresponde à votre définition spécifique de « pensée » ?
Après tout, un neurone comme ChatGPT peut être amené à générer un million de réponses différentes à la même requête. Par exemple, « trouvez une idée pour recherche scientifique». Si une génération sur un million est vraiment intéressante et nouvelle, est-ce la preuve qu'un modèle peut donner naissance à une idée? Mais en quoi cela différera-t-il d'un perroquet qui crie des mots au hasard qui ne-non et s'additionnent à quelque chose de compréhensible ?
D'un autre côté, les gens n'émettent pas toujours des pensées correctes - certaines phrases mènent à une impasse et ne se terminent par rien. Pourquoi les réseaux de neurones ne peuvent-ils pas pardonner cela? Eh bien, une nouvelle idée sur un million générée est vraiment mauvaise... Mais et si 100 sur un million? Mille? Où est cette frontière ?
C'est ce que nous ne savons pas. La tendance est qu'au début on pense qu'il sera difficile pour les machines de résoudre le problème X. Par exemple, pour réussir le test de Turing, où il vous suffit de discuter avec une personne pendant une demi-heure. Puis, avec le développement de la technologie, les gens trouvent des moyens de résoudre, ou plutôt, de former des modèles pour une tâche. Et on se dit: "Eh bien, c'était en fait le mauvais test, en voici un nouveau pour vous, les neurones ne pourront certainement pas le passer !" Et la situation se répète.
Ces technologies qui sont maintenant, il y a 80 ans, auraient été perçues comme un miracle. Et maintenant, nous essayons de toutes nos forces de repousser la frontière du "raisonnable" pour ne pas nous admettre que les machines savent déjà penser. En fait, il est même possible que nous inventions d'abord quelque chose, puis post factum et que nous le définissions rétrospectivement comme une IA.
3. Si les neurones peuvent dessiner et écrire de la poésie, alors peuvent-ils être créatifs et presque comme les gens ?
La réponse dépend en fait fortement des informations ci-dessus. Qu'est-ce que la créativité? Quelle est la créativité d'une personne moyenne? Êtes-vous sûr qu'un concierge de Sibérie sait créer? Et pourquoi?
Et si un modèle pouvait produire un poème ou une peinture qui, sous condition, atteindrait la finale d'un concours municipal pour écrivains amateurs ou artistes pour enfants? Et si cela n'arrivait pas à chaque fois, mais une fois sur cent ?
La plupart de ces questions sont discutables. S'il vous semble que la réponse est évidente, essayez d'interroger vos amis et votre famille. Avec une très forte probabilité, leur point de vue ne coïncidera pas avec le vôtre. Et ici l'essentiel n'est pas querelle.
4. Est-il possible de se fier aux réponses des réseaux de neurones et non plus à google ?
Tout dépend de l'utilisation des modèles. Si vous leur posez une question sans contexte, sans information d'accompagnement dans l'invite, et attendez une réponse sur des sujets où l'exactitude factuelle est importante, et pas le ton général de la réponse (par exemple, une séquence d'événements dans une certaine période, mais sans mention exacte des lieux et des dates), alors la réponse est Non.
Par domestique estimé OpenAI, dans de telles situations, le meilleur modèle à ce jour, GPT-4, répond correctement dans environ 70 à 80 % des cas, selon le sujet des questions.
Il peut sembler que ces chiffres sont très éloignés de la "précision" réelle idéale à 100 %. Mais en fait, c'est un grand pas en avant par rapport à la génération précédente de modèles (ChatGPT, basé sur l'architecture GPT-3.5) - ceux-ci avaient une précision de 40 à 50 %. Il s'avère qu'un tel saut a été fait dans le cadre de 6 à 8 mois de recherche.
Il est clair que plus on se rapproche des 100%, plus il sera difficile d'apporter quelques corrections pour ne rien « casser » dans la compréhension et la connaissance du modèle.
Cependant, tout ce qui précède fait référence à des questions sans contexte. Par exemple, vous pouvez demander: « Quand était-ce Einstein? Le modèle ne devrait s'appuyer que sur des connaissances internes qui y ont été "câblées" au stade de la formation à long terme sur des données provenant de partout sur Internet. La personne ne pourra donc pas répondre! Mais s'ils me donnaient une page de Wikipédia, alors je pourrais la lire et répondre selon la source d'information. Ensuite, l'exactitude des réponses serait proche de 100 % (ajustée pour l'exactitude de la source).
Par conséquent, si le modèle est fourni avec un contexte dans lequel l'information est contenue, la réponse sera beaucoup plus fiable.
Et si on laissait le modèle googler et trouver des sources d'information sur Internet? Pour qu'elle-même trouve la source et construise une réponse basée sur celle-ci? Eh bien, cela a déjà été fait! Vous ne pouvez donc pas googler vous-même, mais déléguer une partie de la recherche sur Internet au GPT‑4 lui-même. Cependant, cela nécessite un abonnement payant.
En ce qui concerne les progrès supplémentaires dans le développement de la fiabilité des informations factuelles au sein du modèle, le PDG d'OpenAI, Sam Altman donne une estimation de 1,5 à 2 ans pour résoudre ce problème par une équipe de chercheurs. Nous l'attendrons avec impatience! Mais pour l'instant, gardez à l'esprit que vous n'avez pas besoin de faire confiance à 100% à ce qui est écrit par un neurone, et vérifiez-revérifiez au moins les sources.
5. Est-il vrai que les réseaux de neurones volent les dessins de vrais artistes ?
Oui et non - les deux parties au conflit se disputent activement à ce sujet devant les tribunaux du monde entier. On peut dire avec certitude que les images ne sont pas directement stockées dans les modèles, seule la « vigilance » apparaît.
Dans ce régime neurones très similaire aux personnes qui étudient d'abord l'art, des styles différents, regardent le travail des auteurs, puis essaient d'imiter.
Cependant, les modèles apprennent, comme nous l'avons déjà découvert, selon le principe de la minimisation des erreurs. Et si pendant l'entraînement le modèle voit la même image (ou très similaire) des centaines de fois, alors, de son point de vue, la meilleure stratégie est de se souvenir de l'image.
Prenons un exemple: votre professeur d'école d'art a choisi une stratégie très étrange. Vous dessinez deux images chaque jour: la première est toujours unique, dans un nouveau style, et la seconde est la Joconde. Après un an, vous essayez d'évaluer ce que vous avez appris. Puisque vous avez dessiné la Joconde plus de 300 fois, vous vous souvenez de presque tous les détails et vous pouvez maintenant la reproduire. Ce ne sera pas exactement l'original, et vous y ajouterez certainement quelque chose de votre cru. Couleurs sera légèrement différent.
Et maintenant, on vous demande de dessiner quelque chose qui était il y a 100 jours (et que vous avez vu une fois). Vous reproduirez ce qui est demandé avec beaucoup moins de précision. Tout simplement parce que la main n'est pas bourrée.
La même chose avec les neurones: ils apprennent dans toutes les images de la même manière, seuls certains sont plus communs, ce qui signifie que le modèle est également plus souvent condamné à l'entraînement. Cela s'applique non seulement aux peintures d'artistes - à toute image (même publicitaire) de l'échantillon de formation. Il existe maintenant des méthodes pour éliminer les doublons (car l'entraînement sur ceux-ci est pour le moins inefficace), mais elles ne sont pas parfaites. La recherche montre qu'il y a des images qui se produisent 400 à 500 fois pendant une séance d'entraînement.
Mon verdict: les réseaux de neurones ne volent pas les images, mais considèrent simplement les dessins comme des exemples. Plus l'exemple est populaire, plus le modèle le reproduit avec précision.
Les gens font la même chose pendant la formation: ils regardent la beauté, étudient les détails, les styles des différents artistes. Mais pour les artistes ou photographes qui ont passé la moitié de leur vie à apprendre un métier, le point de vue est souvent radicalement différent de celui décrit ci-dessus.
6. Est-il vrai que « tout est perdu » et que les réseaux de neurones priveront les gens de travail? Qui s'en soucie le plus ?
Il est important de séparer uniquement les « réseaux de neurones » qui effectuent certaines tâches des réseaux de neurones à usage général comme ChatGPT. Ces derniers sont très doués pour suivre les instructions et capables d'apprendre à partir d'exemples en contexte. Certes, la taille de leur "mémoire" est désormais limitée à 10 à 50 pages de texte, tout comme les capacités de réflexion et de planification.
Mais si le travail de quelqu'un se résume à l'exécution routinière d'instructions et que cela est facile à apprendre en quelques jours en lisant des articles (ou si tout Internet est rempli de ces informations), et le coût du travail est supérieur à la moyenne - puis bientôt un tel travail automatiser.
Mais en soi, l'automatisation ne signifie pas un remplacement complet des personnes. Seule une partie du travail de routine peut être optimisée.
Une personne commencera à avoir des tâches plus intéressantes et créatives que la machine (jusqu'à présent) ne peut pas gérer.
Si nous donnons des exemples, alors au groupe des variables ou remplaçables les professions J'inclurais, par exemple, des assistants-consultants fiscaux qui aident à préparer une déclaration et à vérifier les erreurs typiques, à identifier les incohérences. Des changements sont possibles dans une spécialité telle qu'un gestionnaire de données d'essais cliniques - l'essence du travail consiste à remplir des rapports et à les concilier avec un tableau de normes.
Mais un cuisinier ou un chauffeur de bus seront demandés beaucoup plus longtemps simplement parce qu'ils peuvent connecter des réseaux de neurones et un vrai le monde physique est assez compliqué, notamment en termes de législation et de réglementation - merci aux bureaucrates de s'être éloignés IA de crise !
De grands changements sont attendus dans les industries associées aux documents imprimés et à l'information textuelle: journalisme, éducation. Avec une probabilité très élevée pour le premier, les neurones rédigeront très bientôt des brouillons avec un ensemble de thèses, dans lesquelles les gens apporteront déjà des changements ponctuels.
Je suis très satisfait des changements intervenus dans le domaine de l'éducation. Manger recherche, qui montrent que la qualité de l'enseignement dépend directement de la "personnalité" de l'approche et du temps que l'enseignant consacre à un élève en particulier. L'exemple le plus simple: enseigner en groupe de 30 personnes à l'aide d'un manuel est bien pire que l'enseignement individuel. tuteur pour des besoins spécifiques (quoique selon le même programme que dans le manuel). Avec le développement de l'IA, l'humanité aura la possibilité de fournir un assistant personnalisé à chaque élève. C'est juste incroyable! Le rôle de l'enseignant passera, selon moi, à un rôle stratégique et de contrôle: déterminer le programme général et la séquence d'études, tester les connaissances, etc.
7. Est-il possible de télécharger votre conscience dans un ordinateur, de créer un jumeau numérique et de vivre pour toujours ?
Au sens où il est imaginé sur la base de la science-fiction, non. Vous ne pouvez apprendre au modèle qu'à imiter votre style de communication, apprendre vos blagues. Peut-être que les modèles de niveau GPT-4 pourront même en inventer de nouveaux encadrés dans votre style et votre mode de présentation uniques, mais cela ne signifie clairement pas un transfert complet de conscience.
Nous, en tant qu'humanité, encore une fois, ne savons pas ce qu'est la conscience, où elle est stockée, en quoi elle diffère des autres, ce qui fait de moi - moi et vous - vous. S'il s'avère soudain que tout cela n'est qu'un ensemble de souvenirs et d'expériences, multipliés par des caractéristiques individuelles perception, alors, très probablement, il sera possible de transférer d'une manière ou d'une autre des connaissances aux réseaux de neurones afin qu'ils simulent la vie future sur leur base.
8. Est-il dangereux de télécharger votre voix, votre apparence, votre style de discours dans un réseau de neurones? Il semble qu'une telle identité numérique puisse être volée.
Vous ne pouvez littéralement rien y télécharger. Vous pouvez les former (ou les recycler) de manière à ce que les résultats ressemblent davantage à votre apparence, votre voix ou votre texte. Et un tel modèle formé peut vraiment être volé, c'est-à-dire qu'il suffit de copier le script et un ensemble de paramètres pour l'exécuter sur un autre ordinateur.
Vous pouvez même générer une vidéo avec une demande Transférer de l'argent aux dépens de quelqu'un d'autre, ce en quoi votre proche croira: les meilleurs algorithmes de deepfake et de clonage de voix ont déjà atteint ce niveau. Certes, des milliers de dollars et des dizaines d'heures d'enregistrement sont nécessaires, mais néanmoins.
En général, avec le développement de la technologie, la question de l'identification et de la confirmation de l'identité devient plus importante.
Et ils essaient de le résoudre d'une manière ou d'une autre. Par exemple, il y a une startup WorldCoin (en fait, elle fabrique une crypto-monnaie), dans laquelle le patron d'OpenAI, Sam Altman, a investi. Le sens de la startup est que chaque information sur une personne sera signée par sa propre clé pour une identification ultérieure. Il en sera de même pour les médias de masse, afin de savoir avec certitude si cette nouvelle est vraie ou fausse.
Mais, malheureusement, alors que tout cela n'en est qu'au stade de prototypes. Et je ne considère pas l'introduction en profondeur des systèmes dans toutes les industries à mettre en œuvre à l'horizon de la prochaine décennie, simplement parce que c'est trop compliqué et à grande échelle.
9. Les neurones peuvent-ils commencer à nuire et à conquérir le monde ?
Le danger n'est pas les développements actuels, mais ce qui les suivra avec d'autres développements. Actuellement, aucune méthode n'a été inventée pour contrôler le fonctionnement des réseaux de neurones. Prenons, par exemple, une tâche très simple: s'assurer que le modèle ne jure pas. Plus jamais. Aucune méthode ne vous permettra de suivre une telle règle. Jusqu'à présent, vous pouvez trouver différentes manières de le "reproduire" tout de même.
Imaginez maintenant que nous parlons de GPT-8 conditionnellement, dont les compétences seront comparables aux compétences des personnes les plus capables et les plus intelligentes. Le réseau neuronal sait programmer, utiliser Internet, sait psychologie et comprend comment les gens pensent. Si vous lui donnez libre cours et ne vous fixez pas de tâche précise, alors que fera-t-il? Et si elle découvre qu'elle ne peut pas être contrôlée ?
La probabilité d'une mauvaise tournure des événements n'est pas si grande, selon les estimations. Soit dit en passant, il n'y a pas d'évaluation généralement acceptée - bien que tout le monde se dispute sur les détails, sur les conséquences néfastes, etc. Maintenant, ils appellent des chiffres approximatifs de 0,01% à 10%.
À mon avis, ce sont des risques énormes, en supposant que le scénario le plus négatif est la destruction de l'humanité.
Fait intéressant, ChatGPT et GPT-4 sont des produits qui ont été créés par des équipes travaillant sur les problèmes d '«alignement» des intentions des personnes et des neurones (les détails peuvent être trouvés ici). C'est pourquoi les modèles écoutent si bien les instructions, essaient de ne pas être grossiers, posent des questions de clarification, mais c'est encore très loin d'être idéal. Le problème du contrôle n'est même pas à moitié résolu. Et bien que nous ne sachions pas s'il est résolu du tout, et si oui, par quelles méthodes. C'est le sujet de recherche le plus brûlant d'aujourd'hui.
10. Un réseau de neurones peut-il tomber amoureux d'une personne ?
Avec les approches et architectures actuelles des neurones, non. Ils ne génèrent que le texte le plus plausible en tant que continuation du texte saisi. Si vous lancez le premier chapitre d'une histoire d'amour, que vous la réécrivez sous votre personnalité et que vous demandez au modèle de répondre à votre lettre d'amour, elle s'en sortira. Mais pas parce que je suis tombé amoureux, mais parce que cela correspond le mieux au contexte et à la demande « écris-moi une lettre! ». N'oubliez pas que les modèles apprennent à générer du texte qui suit les instructions.
De plus, les réseaux de neurones dans la version de base n'ont pas mémoire - entre deux lancements différents, ils oublient tout et reviennent aux "réglages d'usine". La mémoire peut être ajoutée artificiellement, comme si elle était latérale, de sorte que, par exemple, 10 pages des "souvenirs" les plus pertinents soient introduites dans le modèle. Mais ensuite, il s'avère que nous introduisons simplement un ensemble d'événements dans le modèle d'origine et disons: "Comment vous comporteriez-vous dans de telles conditions ?" Le modèle n'a aucun sentiment.
Lire aussi🧐
- Où et comment l'intelligence artificielle est utilisée: 6 exemples tirés de la vie
- 9 questions naïves sur l'intelligence artificielle
- 8 mythes sur l'intelligence artificielle que même les programmeurs croient