Ce qu’un précurseur de ChatGPT nous a appris sur l’IA – en 1966

Avatar photo

“Je suis vivant.”

C’est ce que l’assistant virtuel de Microsoft, Cortana, a été programmé pour dire en 2014 lorsqu’un utilisateur a demandé s’il était vivant. Avance rapide jusqu’à aujourd’hui, alors que le public est aux prises avec les implications sociales et philosophiques des technologies d’intelligence artificielle comme ChatGPT, qui est désormais intégré au moteur de recherche Bing. Bien que les capacités avancées de ces assistants virtuels, en particulier leur capacité non seulement à imiter mais aussi à contribuer – ont fait craindre à certains que les humains se tournent trop vers les machines, l’histoire révèle que nous ne sommes pas susceptibles de pomper les freins de manière significative. En fait, en regardant comment les gens ont interagi avec des robots dans le passé, nous sommes plus susceptibles d’accueillir, de collaborer et même d’accueillir ce que James Vlahos appelle des “quasi-êtres” à l’avenir. Et cela pourrait avoir des implications – à la fois bonnes et mauvaises – que nous ne pouvons pas encore anticiper.

Comme Weizenbaum l’écrivit plus tard, “je n’avais pas réalisé… que des expositions extrêmement courtes à un programme informatique relativement simple pouvaient induire de puissantes pensées délirantes chez des personnes tout à fait normales.”

Alors que ce n’est que dans les années 2010 que les assistants virtuels comme Siri, Cortana et Alexa ont été largement adoptés, les précurseurs de ChatGPT remontent jusqu’aux années 1960. Entre 1964 et 1966 au MIT, l’informaticien Joseph Weizenbaum a conçu Eliza, un programme de traitement du langage naturel capable d’imiter de manière convaincante de courtes conversations humaines. Dans une application célèbre, le programme pouvait imiter le va-et-vient du client et du thérapeute. Eliza était un matcher de modèles et fonctionnait sur des scripts, mais néanmoins, les utilisateurs se sont évanouis. Eliza était à la disposition des étudiants et des collègues pour essayer, y compris le Dr Sherry Turkle, qui a depuis passé sa vie à étudier les effets sociaux des machines. Eliza n’a utilisé que 200 lignes de code, mais était suffisamment convaincante pour que la secrétaire de Weizenbaum lui demande de quitter la pièce afin qu’elle puisse lui parler en privé. Bien que Weizenbaum lui-même l’ait conçu comme une parodie de la relation médecin-patient, les utilisateurs ont tenu à parler avec Eliza, l’attribuant avec intelligence et compassion, même si son concepteur a clairement indiqué qu’il n’avait pas de telles capacités.

En pratique, Eliza était rigide, pas intuitive. De nouveaux modèles d’interaction devaient être programmés dans Eliza. Le ardeur des utilisateurs à attribuer des capacités réalistes à Eliza était une découverte importante, en contraste direct avec ce que Weizenbaum avait espéré montrer. Comme Weizenbaum l’écrivit plus tard, “je n’avais pas réalisé… que des expositions extrêmement courtes à un programme informatique relativement simple pouvaient induire de puissantes pensées délirantes chez des personnes tout à fait normales.” En bref, les utilisateurs ont insufflé vie et personnalité à un chatbot rudimentaire qui ne pouvait ni apprendre ni générer. Comme l’explique le Dr Sherry Turkle, “Nous créons des robots à notre image, nous nous connectons facilement avec eux, puis nous devenons vulnérables au pouvoir émotionnel de cette connexion.” Cette tendance des humains à lire les émotions, l’intelligence et même la conscience dans les machines est maintenant appelée l’effet Eliza.

Au cours des décennies qui ont suivi, de nombreux chatterbots (plus tard abrégés en chatbot) se sont déployés, dont un nommé Jabberwacky qui a été le premier à incorporer la voix plutôt que l’interaction textuelle. Sorti en 1997, il est toujours disponible à l’essai sous son nouveau nom Cleverbot. Au 20ème siècle, le chatbot Mitsuki a eu le pouvoir le plus durable. Commercialisé en tant qu’ami virtuel, Mitsuki a été lancé en 2005 et est resté accessible depuis. Récemment, le bot a été renommé Kuki. Des millions d’utilisateurs interagissent avec Kuki chaque mois comme une forme de loisir et de compagnie. Certains utilisateurs le font depuis des années. Même si Kuki s’est amélioré au fil du temps, les améliorations apportées à ces technologies plus anciennes étaient incrémentielles et non évolutives comme les capacités plus récentes rendues possibles par les grands modèles de langage.

Une utilisation plus large des assistants virtuels/chatbots a commencé dans les années 2010, lorsque Siri, Cortana et Alexa sont arrivés. Ces assistants virtuels pourraient remplacer les recherches tapées pour tout, d’une recette à une prévision météorologique. Selon le Pew Research Center, en 2017, plus de la moitié des Américains utilisaient des assistants vocaux numériques, principalement dans leurs téléphones. Les utilisateurs peuvent désormais lever les yeux de l’écran, parler en l’air et être « entendus ». Les assistants vocaux conditionnent également les utilisateurs à la compagnie constante d’un appareil d’écoute, capable d’être “réveillé” à tout moment, tandis que les haut-parleurs intelligents comme Alexa offrent un hub pour la maison intelligente, étendant également la surveillance constante à la maison.

Les consommateurs se sont rapidement acclimatés à ces assistants désormais banals, leur faisant de la place en changeant les pratiques humaines. Par exemple, les utilisateurs de Siri apprennent à formuler les choses de manière plus facile à “entendre” et à réaliser pour l’IA. Environ 40 % des Américains utilisent des assistants vocaux, et bien que les ventes globales de haut-parleurs intelligents aient commencé à se stabiliser, les jeunes adultes sont les plus susceptibles de les utiliser. Une fois qu’ils se sont habitués à la voix comme interface, les utilisateurs peuvent devenir plus impatients de taper.

Les utilisateurs repoussent également souvent les limites extérieures des conceptions des quasi-êtres en recherchant des interactions pour lesquelles les assistants virtuels ne sont pas explicitement conçus, notamment en déclarant leur amour pour les assistants virtuels, en proposant un mariage ou en bavardant sur leurs journées. Ces envies humaines jettent les bases de relations avec les chatbots qui, du fait des avancées du machine learning qui les alimentent, semblent plus spontanés, voire plus « sociaux » que leurs prédécesseurs.

Lancé par OpenAI pour la première fois en 2018, ChatGPT offre une étendue encore plus large de capacités conversationnelles et interactionnelles, principalement en raison de ce qui est possible via l’IA générative. L’IA générative n’attend pas d’être programmée. Au lieu de cela, il digère le monde humain en utilisant le texte et le langage existants, s’entraîne sur ces données et synthétise les réponses en temps réel, générant du nouveau matériel.

ChatGPT est un pas de géant par rapport aux générateurs de texte précédents. Compte tenu de sa simulation bien supérieure de la pensée humaine, les utilisateurs sont naturellement fascinés et parfois un peu paniqués par son comportement et ses implications. En février 2023, une nouvelle version du moteur de recherche Bing de Microsoft a été publiée, améliorée par OpenAI, les créateurs de ChatGPT. Ce nouveau Bing fonctionnait comme un chatbot et a soulevé des sourcils lorsque Matthew Roose du New York Times a obtenu des résultats troublants en réponse à ses questions.

Écrivant à propos de la réception d’Eliza, Jake Rossen explique que dans les années 1960, “c’était un flirt alléchant avec l’intelligence artificielle. Mais Weizenbaum n’était pas préparé aux conséquences.”

Bien que le chatbot de Bing ait maintenant été modifié pour une diffusion plus large, les tendances plus folles de sa première version ont alimenté l’attention croissante portée à ChatGPT et à ses proches. En réponse à la succession rapide de chatbots de plus en plus performants, les organisations et les gouvernements se demandent comment différencier les informations crédibles des informations non crédibles, comment inciter les humains à apprendre de manière indépendante sans compter sur les raccourcis de l’IA, et où tracer la ligne entre collaboration et déqualification humaine. .

Il est particulièrement important de situer ces nouvelles entités dans une lignée maintenant que ChatGPT-4, Google’s Bard et Baidu’s Wenxin Yiyan (“Ernie Bot”) viennent tous de sortir. Alors que les chatbots arrivent si vite que les universitaires et les utilisateurs se bousculent pour donner un sens à leurs limites et à leur potentiel, un schéma est déjà clair : la gamme et la sophistication des communications auxquelles ChatGPT et ses proches peuvent participer avec succès signifieront que l’IA sera plus largement déployé. Plutôt que les interactions H2H (humain à humain), les utilisateurs seront probablement plus aptes aux interfaces H-AI-H (humain à intelligence artificielle à humain), dans lesquelles nous nous entraînons ou répétons d’abord avec eux plutôt qu’entre eux. Par exemple, des entreprises comme Replika et Anima proposent actuellement des chatbots romantiques comme alternative (ou complément) au travail délicat d’être intime avec d’autres humains. De nombreux utilisateurs humains vantent la supériorité de la romance H-AI sur la romance H2H, citant le travail et les inconvénients d’un partenaire ou d’un amant humain. Compte tenu de l’impatience et du mépris croissants envers les autres humains que les appareils antérieurs ont inspirés, ChatGPT et sa progéniture pourraient une fois de plus dégrader la façon dont les humains apprécient nos propres pensées, nos propres mots et notre propre capacité à être curieux et à tirer des conclusions.

Écrivant à propos de la réception d’Eliza, Jake Rossen explique que dans les années 1960, “c’était un flirt alléchant avec l’intelligence artificielle. Mais Weizenbaum n’était pas préparé aux conséquences.” Alors que nous entrons maintenant dans une étape de l’histoire dans laquelle les quasi-êtres sont beaucoup plus communs et vastes, nous restons profondément non préparés aux conséquences, non seulement de leurs capacités, mais aussi de notre tendance à les accueillir et à les accueillir généreusement, parfois à notre propre détriment.

Related Posts