Les humains et ChatGPT reflètent les modèles de langage mutuel - voici comment
Publié: 2023-06-15ChatGPT est un sujet brûlant dans mon université, où les membres du corps professoral sont profondément préoccupés par l'intégrité académique, tandis que les administrateurs nous exhortent à « profiter des avantages » de cette « nouvelle frontière ».
C'est un exemple classique de ce que mon collègue Punya Mishra appelle le « cycle catastrophique » autour des nouvelles technologies. De même, la couverture médiatique de l'interaction homme-IA - qu'elle soit paranoïaque ou étourdie - tend à souligner sa nouveauté.
En un sens, il est indéniablement nouveau. Les interactions avec ChatGPT peuvent sembler sans précédent, comme lorsqu'un journaliste technologique ne pouvait pas empêcher un chatbot d'arrêter de lui déclarer son amour.
À mon avis, cependant, la frontière entre les humains et les machines, en termes de la façon dont nous interagissons les uns avec les autres, est plus floue que la plupart des gens voudraient l'admettre, et ce flou explique une grande partie du discours tourbillonnant autour de ChatGPT.
Quand on me demande de cocher une case pour confirmer que je ne suis pas un robot, je n'y pense pas à deux fois – bien sûr, je ne suis pas un robot.
D'un autre côté, lorsque mon client de messagerie suggère un mot ou une phrase pour compléter ma phrase ou lorsque mon téléphone devine le prochain mot que je suis sur le point d'envoyer, je commence à douter de moi. C'est ce que je voulais dire ?
Cela me serait-il venu à l'esprit si l'application ne l'avait pas suggéré ? Suis-je en partie robot ? Ces grands modèles de langage ont été formés sur des quantités massives de langage humain « naturel ». Est-ce que cela rend les robots en partie humains ?
Les chatbots IA sont nouveaux, mais les débats publics sur le changement de langue ne le sont pas. En tant qu'anthropologue linguistique, je trouve les réactions humaines à ChatGPT la chose la plus intéressante à ce sujet.
Un examen attentif de ces réactions révèle les croyances sur le langage qui sous-tendent la relation ambivalente, difficile et en constante évolution des gens avec les interlocuteurs de l'IA.
ChatGPT et autres tiennent un miroir du langage humain. Les humains sont à la fois très originaux et non originaux en matière de langage. Les chatbots reflètent cela, révélant des tendances et des modèles déjà présents dans les interactions avec d'autres humains.
Créateurs ou mimiques ?
Récemment, le célèbre linguiste Noam Chomsky et ses collègues ont fait valoir que les chatbots sont "coincés dans une phase préhumaine ou non humaine de l'évolution cognitive" parce qu'ils ne peuvent que décrire et prédire, pas expliquer.
Plutôt que de s'appuyer sur une capacité infinie pour générer de nouvelles phrases, ils compensent avec d'énormes quantités d'entrées, ce qui leur permet de faire des prédictions sur les mots à utiliser avec un haut degré de précision.
Ceci est conforme à la reconnaissance historique de Chomsky que le langage humain ne pouvait pas être produit simplement par l'imitation des locuteurs adultes par les enfants.
La faculté de langage humain devait être générative car les enfants ne reçoivent pas suffisamment d'informations pour rendre compte de toutes les formes qu'ils produisent, dont beaucoup n'auraient pas pu entendre auparavant.
C'est la seule façon d'expliquer pourquoi les humains - contrairement à d'autres animaux dotés de systèmes de communication sophistiqués - ont une capacité théoriquement infinie à générer de nouvelles phrases.
Il y a un problème avec cet argument, cependant. Même si les humains sont infiniment capables de générer de nouvelles chaînes de langage, les gens ne le font généralement pas.
Les humains recyclent constamment des morceaux de langage qu'ils ont rencontrés auparavant et façonnent leur discours de manière à répondre - consciemment ou inconsciemment - au discours des autres, présents ou absents.
Comme l'a dit Mikhail Bakhtin - une figure de Chomsky pour les anthropologues linguistiques - "notre pensée elle-même", ainsi que notre langue, "est née et façonnée dans le processus d'interaction et de lutte avec la pensée des autres".
Nos mots « ont le goût » des contextes où nous et d'autres les avons rencontrés auparavant, alors nous nous efforçons constamment de les faire nôtres.
Même le plagiat est moins simple qu'il n'y paraît. Le concept de voler les mots de quelqu'un d'autre suppose que la communication a toujours lieu entre des personnes qui proposent indépendamment leurs propres idées et phrases originales.
Les gens aiment peut-être se penser de cette façon, mais la réalité montre le contraire dans presque toutes les interactions - quand je répète un dicton de mon père à ma fille.
De même, lorsque le président prononce un discours rédigé par quelqu'un d'autre, exprimant les points de vue d'un groupe d'intérêt extérieur, ou lorsqu'un thérapeute interagit avec son client selon des principes que ses professeurs lui ont appris à respecter.
Dans une interaction donnée, le cadre de production – parler ou écrire – et de réception – écouter ou lire et comprendre – varie en termes de ce qui est dit, comment c'est dit, qui le dit et qui est responsable dans chaque cas.
Ce que l'IA révèle sur les humains
La conception populaire du langage humain considère la communication principalement comme quelque chose qui a lieu entre des personnes qui inventent de nouvelles phrases à partir de rien.
Cependant, cette hypothèse s'effondre lorsque Woebot, une application de thérapie par IA, est formée pour interagir avec des clients humains par des thérapeutes humains, en utilisant des conversations de séances de thérapie interhumaine.
Cela tombe en panne lorsque l'un de mes auteurs-compositeurs préférés, Colin Meloy de The Decemberists, dit à ChatGPT d'écrire des paroles et des accords dans son propre style.
Meloy a trouvé la chanson résultante "remarquablement médiocre" et manquant d'intuition, mais aussi étrangement dans la zone d'une chanson de décembre.
Comme le note Meloy, cependant, les progressions d'accords, les thèmes et les rimes dans les chansons pop écrites par des humains ont également tendance à refléter d'autres chansons pop, tout comme les discours des politiciens s'inspirent librement des générations passées de politiciens et d'activistes, qui étaient déjà remplies de phrases de la Bible.
Les chansons pop et les discours politiques sont des illustrations particulièrement vivantes d'un phénomène plus général. Quand quelqu'un parle ou écrit, combien est nouvellement généré à la Chomsky ?
Combien est recyclé à la Bakhtine ? Sommes-nous en partie robot ? Les robots sont-ils en partie humains ? Des gens comme Chomsky, qui disent que les chatbots ne sont pas des locuteurs humains, ont raison.
Cependant, il en va de même pour ceux qui, comme Bakhtine, soulignent que nous ne contrôlons jamais vraiment nos paroles - du moins, pas autant que nous nous imaginions l'être.
En ce sens, ChatGPT nous oblige à reconsidérer une question séculaire : quelle part de notre langue nous appartient réellement ?
Avez-vous des idées à ce sujet? Envoyez-nous une ligne ci-dessous dans les commentaires, ou portez la discussion sur notre Twitter ou Facebook.
Recommandations des éditeurs :
- Commerçants ChatGPT AI : trop rapide, trop furieux, trop risqué ?
- Le spam généré par l'IA pourrait bientôt inonder votre boîte de réception d'escroqueries
- ChatGPT et les autres IA linguistiques sont tout aussi irrationnels que nous
- Comment protéger votre adolescent contre les défis dangereux des réseaux sociaux
Note de l'éditeur : cet article a été écrit par Brendan H. O'Conner, professeur associé d'études transfrontalières à l'Arizona State University, et republié à partir de The Conversation sous une licence Creative Commons. Lire l'article d'origine.