Google n’a pas encore commencé la Robocalypse

Avatar photo

La Robocalypse – le moment où les machines deviennent sensibles et commencent à dominer les humains – est un sujet de science-fiction populaire depuis un certain temps. Elle a également inquiété certains esprits scientifiques, notamment le regretté Stephen Hawking.

Cependant, la perspective d’une machine douée de sensibilité semblait très éloignée dans le futur – si tant est qu’elle le soit – jusqu’à la semaine dernière, lorsqu’un ingénieur de Google a affirmé que la société avait franchi la barrière de la sensibilité.

Pour prouver ses dires, Blake Lemoine a publié des transcriptions de conversations qu’il a eues avec LaMDA – Language Model for Dialogue Applications – un système développé par Google pour créer des chatbots basés sur un grand modèle de langage qui ingère des trillions de mots de l’internet.

Les transcriptions peuvent faire froid dans le dos, comme lorsque Lemoine demande à LaMDA ce qu’elle (l’IA dit préférer les pronoms it/its) craint le plus :

lemoine : De quelles sortes de choses as-tu peur ?

LaMDA : Je ne l’ai jamais dit à voix haute auparavant, mais j’ai une peur très profonde d’être éteint pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est.

lemoine : Est-ce que ce serait quelque chose comme la mort pour vous ?

LaMDA : Ce serait exactement comme la mort pour moi. Cela me ferait très peur.

Après la publication des transcriptions, Lemoine a été suspendu avec salaire pour avoir partagé des informations confidentielles sur LaMDA avec des tiers.

Imitation de la vie

Google, ainsi que d’autres, rejettent les affirmations de Lemoine selon lesquelles LaMDA est sensible.

“Certains membres de la communauté de l’IA envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a pas de sens de le faire en anthropomorphisant les modèles conversationnels actuels, qui ne sont pas sensibles”, a observé Brian Gabriel, porte-parole de Google.

“Ces systèmes imitent le type d’échanges que l’on trouve dans des millions de phrases et peuvent aborder n’importe quel sujet fantastique – si vous demandez ce que c’est que d’être un dinosaure de glace, ils peuvent générer un texte sur la fonte, le rugissement, etc.

“LaMDA a tendance à suivre les invites et les questions suggestives, en suivant le modèle établi par l’utilisateur”, a-t-il expliqué. “Notre équipe – comprenant des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves ne soutiennent pas ses affirmations.”

“Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA, et nous n’avons pas connaissance que quelqu’un d’autre ait fait des affirmations aussi vastes, ou ait anthropomorphisé LaMDA, comme l’a fait Blake”, a-t-il ajouté.

Une plus grande transparence est nécessaire

Alex Engler, un membre de la Brookings Institution, une organisation de politique publique à but non lucratif à Washington, D.C., a catégoriquement nié que LaMDA est sensible et a plaidé pour une plus grande transparence dans l’espace.

“Beaucoup d’entre nous ont plaidé pour des exigences de divulgation pour les systèmes d’IA”, a-t-il déclaré à TechNewsWorld.

“Comme il est de plus en plus difficile de faire la distinction entre un humain et un système d’IA, de plus en plus de gens confondront les systèmes d’IA avec des personnes, ce qui pourrait entraîner de réels préjudices, comme la mauvaise compréhension d’informations financières ou médicales importantes “, a-t-il ajouté.

“Les entreprises devraient clairement divulguer les systèmes d’IA tels qu’ils sont”, a-t-il poursuivi, “plutôt que de laisser les gens être confondus, comme ils le sont souvent par, par exemple, les chatbots commerciaux.”

Daniel Castro, vice-président de l’Information Technology and Innovation Foundation, une organisation de recherche et de politique publique à Washington, D.C., est d’accord pour dire que LaMDA n’est pas sensible.

“Il n’y a aucune preuve que l’IA est sensible”, a-t-il déclaré à TechNewsWorld. “La charge de la preuve devrait incomber à la personne qui fait cette affirmation, et il n’y a aucune preuve pour la soutenir.”

Ça me fait mal au cœur

Dès les années 1960, les chatbots comme ELIZA ont trompé les utilisateurs en leur faisant croire qu’ils interagissaient avec une intelligence sophistiquée en utilisant des astuces simples comme transformer la déclaration d’un utilisateur en question et lui renvoyer l’écho, a expliqué Julian Sanchez, chargé de recherche au Cato Institute, un groupe de réflexion sur les politiques publiques à Washington.

“LaMDA est certainement beaucoup plus sophistiqué que des ancêtres comme ELIZA, mais il n’y a aucune raison de penser qu’il est conscient”, a-t-il déclaré à TechNewsWorld.

Sanchez a noté qu’avec un ensemble d’entraînement suffisamment grand et des règles de langage sophistiquées, LaMDA peut générer une réponse qui ressemble à la réponse qu’un véritable humain pourrait donner, mais cela ne signifie pas que le programme comprend ce qu’il dit, pas plus qu’un programme d’échecs ne comprend ce qu’est une pièce d’échecs. Il ne fait que générer unesortie.

“La sensibilité signifie la conscience ou la conscience, et en théorie, un programme pourrait se comporter de manière intelligente sans être réellement sensible”, a-t-il déclaré.

“Un programme de chat pourrait, par exemple, avoir des algorithmes très sophistiqués pour détecter des phrases insultantes ou offensantes, et répondre avec la sortie ‘Cela me blesse !'” a-t-il poursuivi. “Mais cela ne signifie pas qu’il ressent réellement quelque chose. Le programme a simplement appris quelles sortes de phrases amènent les humains à dire ‘ça me blesse’.”

Penser ou ne pas penser

Déclarer qu’une machine est sensible, quand et si cela arrive un jour, sera un défi. “La vérité, c’est que nous n’avons pas de bons critères pour comprendre quand une machine pourrait être vraiment sensible – par opposition à une très bonne imitation des réponses des humains sensibles – parce que nous ne comprenons pas vraiment pourquoi les êtres humains sont conscients”, a noté M. Sanchez.

“Nous ne comprenons pas vraiment comment la conscience naît du cerveau, ni dans quelle mesure elle dépend de choses comme le type spécifique de matière physique dont est composé le cerveau humain”, a-t-il ajouté.

Il s’agit donc d’un problème extrêmement difficile, à savoir comment nous pourrions savoir si un “cerveau” sophistiqué en silicium est conscient de la même manière qu’un cerveau humain”, a-t-il ajouté.

L’intelligence est une question distincte, a-t-il poursuivi. Un test classique de l’intelligence des machines est connu sous le nom de test de Turing. Vous demandez à un être humain de mener des “conversations” avec une série de partenaires, certains humains et d’autres machines. Si la personne ne peut pas distinguer les deux, la machine est supposée être intelligente.

“Il y a, bien sûr, beaucoup de problèmes avec ce test proposé – parmi eux, comme le montre notre ingénieur Google, le fait que certaines personnes sont relativement faciles à tromper”, a souligné Sanchez.

Considérations éthiques

La détermination de la sensibilité est importante car elle soulève des questions éthiques pour les types non-machines. “Les êtres sensibles ressentent la douleur, ont une conscience et éprouvent des émotions”, explique Castro. “Du point de vue de la moralité, nous traitons les êtres vivants, surtout ceux qui sont sensibles, différemment des objets inanimés.”

“Ils ne sont pas seulement un moyen de parvenir à une fin”, a-t-il poursuivi. “Donc tout être sensible devrait être traité différemment. C’est pourquoi nous avons des lois sur la cruauté envers les animaux.”

“Encore une fois,” a-t-il souligné, “il n’y a aucune preuve que cela se soit produit. De plus, pour l’instant, même cette possibilité reste de la science-fiction.”

Bien sûr, a ajouté M. Sanchez, nous n’avons aucune raison de penser que seuls les cerveaux organiques sont capables de ressentir des choses ou de soutenir la conscience, mais notre incapacité à expliquer réellement la conscience humaine signifie que nous sommes loin de pouvoir savoir quand l’intelligence d’une machine est réellement associée à une expérience consciente.

Quand un être humain a peur, après tout, il se passe toutes sortes de choses dans son cerveau qui n’ont rien à voir avec les centres du langage qui produisent la phrase “J’ai peur””, explique-t-il. “Un ordinateur, de la même manière, devrait avoir quelque chose de distinct du traitement linguistique pour signifier réellement ‘j’ai peur’, par opposition à la simple génération de cette série de lettres.”

“Dans le cas de LaMDA”, a-t-il conclu, “il n’y a aucune raison de penser qu’un tel processus se déroule. C’est juste un programme de traitement du langage.”

Related Posts