L'IA puissante de Google met en lumière un problème cognitif humain: confondre la parole courante pour la pensée courante
L'Université du Texas à l'Austin College of Liberal Arts et Anna A Ivanova, Massachusetts Institute of Technology (MIT) Cambridge / Austin (US), 25 juin (la conversation) Lorsque vous lisez une phrase comme celle-ci, votre expérience passée vous dit que Il est écrit par une pensée, un sentiment humain. Et, dans ce cas, il y a en effet un humain qui tape ces mots: [Salut, là!] Mais ces jours-ci, certaines phrases qui semblent remarquablement humains sont réellement générées par des systèmes d'intelligence artificielle formés à des quantités massives de texte humain.
Les gens sont tellement habitués à supposer que le langage fluide vient d'une réflexion, se sentir humain que les preuves du contraire peuvent être difficiles à enrouler. Comment les gens sont-ils susceptibles de naviguer dans ce territoire relativement inexploré? En raison d'une tendance persistante à associer l'expression courante à la pensée courante, c'est naturel mais potentiellement trompeur de penser que si un modèle d'IA peut s'exprimer couramment, cela signifie qu'il pense et se sent comme les humains.
Ainsi, il n'est peut-être pas surprenant qu'un ancien ingénieur de Google ait récemment affirmé que le système d'IA de Google Lamda avait un sentiment de soi car il peut générer avec éloquence du texte sur ses prétendus sentiments. Cet événement et la couverture médiatique ultérieure ont conduit à un certain nombre d'articles et de messages à juste titre sceptiques sur l'affirmation selon laquelle les modèles informatiques du langage humain sont sensibles, ce qui signifie capable de penser, de ressentir et d'expérimenter.
La question de ce que cela signifierait pour un modèle d'IA d'être sensible est compliquée (voir, par exemple, la prise de notre collègue), et notre objectif ici est de ne pas le régler. Mais en tant que chercheurs en langue, nous pouvons utiliser notre travail en sciences cognitives et en linguistique pour expliquer pourquoi il est trop facile pour les humains de tomber dans le piège cognitif de penser qu'une entité qui peut utiliser couramment le langage est sensible, consciente ou intelligente.
Utilisation de l'IA pour générer un langage humain
Le texte généré par des modèles comme LAMDA de Google peut être difficile à distinguer du texte écrit par les humains. Cette réalisation impressionnante est le résultat d'un programme de décennie pour construire des modèles qui génèrent un langage grammatical et significatif.
Les premières versions datant d'au moins les années 1950, connues sous le nom de modèles N-gram, ont simplement compté les occurrences de phrases spécifiques et les ont utilisées pour deviner quels mots se produisaient dans des contextes particuliers. Par exemple, il est facile de savoir que le «beurre d'arachide et la gelée» est une phrase plus probable que «beurre d'arachide et ananas». Si vous avez suffisamment de texte anglais, vous verrez l'expression beurre d'arachide et gelée encore et encore, mais ne verrez peut-être jamais la phrase beurre d'arachide et ananas.
Les modèles d'aujourd'hui, les ensembles de données et de règles qui approximativement du langage humain diffèrent de ces premières tentatives de plusieurs manières importantes. Premièrement, ils sont formés sur l'ensemble de l'ensemble de l'Internet. Deuxièmement, ils peuvent apprendre des relations entre des mots éloignés, pas seulement des mots qui sont voisins. Troisièmement, ils sont réglés par un grand nombre de boutons internes-comme beaucoup qu'il est difficile pour les ingénieurs qui les conçoivent pour comprendre pourquoi ils génèrent une séquence de mots plutôt que d'un autre.
La tâche des modèles, cependant, reste la même que dans les années 1950: déterminer quel mot est susceptible de venir ensuite. Aujourd'hui, ils sont si bons dans cette tâche que presque toutes les phrases qu'ils génèrent semblent fluide et grammaticale.
Beurre d'arachide et ananas?
Nous avons demandé à un modèle grand langage, GPT-3, de compléter la phrase beurre d'arachide et ananas___. Il a dit: Le beurre d'arachide et les ananas sont une excellente combinaison. Les saveurs sucrées et salées de beurre d'arachide et d'ananas se complètent parfaitement. Si une personne disait cela, on pourrait en déduire qu'elle avait essayé le beurre d'arachide et l'ananas ensemble, a formé une opinion et l'avait partagée avec le lecteur.
Mais comment GPT-3 a-t-il trouvé ce paragraphe? En générant un mot qui correspond au contexte que nous avons fourni. Et puis un autre. Et puis un autre. Le modèle n'a jamais vu, touché ou goûté à l'ananas-il vient de traiter tous les textes sur Internet qui les mentionnent. Et pourtant, la lecture de ce paragraphe peut conduire l'esprit humain-même celui d'un ingénieur Google à imaginer GPT-3 comme un être intelligent qui peut raisonner sur le beurre d'arachide et les plats d'ananas.
Le cerveau humain est câblé pour déduire les intentions derrière les mots. Chaque fois que vous vous engagez dans la conversation, votre esprit construit automatiquement un modèle mental de votre partenaire de conversation. Vous utilisez ensuite les mots qu'ils disent pour remplir le modèle avec les objectifs, les sentiments et les croyances de cette personne.
Le processus de saut des mots au modèle mental est transparent, se déclenchant chaque fois que vous recevez une phrase à part entière. Ce processus cognitif vous fait gagner beaucoup de temps et d'efforts dans la vie quotidienne, facilitant considérablement vos interactions sociales.
Cependant, dans le cas des systèmes d'IA, il ramenait un rame de rame de retour sur un modèle mental à partir de l'air mince.
Un peu plus de sondage peut révéler la gravité de ce raté. Envisager
Commentaires
Publier un commentaire