L’IA à l’échelle humaine représente un risque énorme. Pourquoi confions-nous son développement aux PDG des entreprises technologiques ?

Avatar photo

Les entreprises technologiques se lancent dans une course au développement de l’intelligence artificielle de niveau humain, dont le développement représente l’un des plus grands risques pour l’humanité. La semaine dernière, John Carmack, ingénieur en logiciel et développeur de jeux vidéo, a annoncé qu’il avait levé 20 millions de dollars pour lancer Keen Technologies, une société consacrée à la construction d’une IA de niveau entièrement humain. Il n’est pas le seul. Il existe actuellement 72 projets dans le monde entier qui se concentrent sur le développement d’une IA de niveau humain, également appelée AGI, c’est-à-dire une IA capable d’effectuer n’importe quelle tâche cognitive au moins aussi bien que les humains.

Beaucoup se sont inquiétés des effets que l’utilisation actuelle de l’intelligence artificielle, qui est loin d’être de niveau humain, a déjà sur notre société. La montée du populisme et l’attentat du Capitole aux États-Unis, la guerre du Tigré en Éthiopie, l’augmentation de la violence contre les musulmans du Cachemire en Inde et le génocide des Rohingyas au Myanmar ont tous été liés à l’utilisation d’algorithmes d’intelligence artificielle dans les médias sociaux. Les sites de médias sociaux qui emploient ces technologies ont montré une propension à montrer des contenus haineux aux utilisateurs parce qu’ils ont identifié ces messages comme populaires et donc rentables pour les entreprises de médias sociaux ; ceci, à son tour, a causé des dommages flagrants. Cela montre que même pour l’IA actuelle, il est crucial de se préoccuper de la sécurité et de l’éthique.

Mais le projet des entrepreneurs technologiques de pointe est maintenant de construire une IA de niveau humain beaucoup plus puissante, qui aura des effets beaucoup plus importants sur la société. Ces effets pourraient, en théorie, être très positifs : l’automatisation de l’intelligence pourrait par exemple nous libérer de tâches que nous préférons ne pas faire. Mais les effets négatifs pourraient être aussi importants, voire plus importants encore.

Toby Ord, universitaire d’Oxford, a passé près d’une décennie à essayer de quantifier les risques d’extinction de l’humanité dus à diverses causes, et a résumé les résultats dans un livre judicieusement intitulé “Le précipice”. Selon ces travaux universitaires rigoureux, les supervolcans, les astéroïdes et d’autres causes naturelles n’ont qu’une faible chance d’entraîner l’extinction complète de l’humanité. La guerre nucléaire, les pandémies et le changement climatique occupent un rang un peu plus élevé. Mais qu’est-ce qui l’emporte dans cet exercice de classement apocalyptique ? Vous l’avez deviné : l’intelligence artificielle de niveau humain.

Et Ord n’est pas le seul à penser qu’une IA de niveau humain, par opposition à la version vanille relativement impuissante d’aujourd’hui, pourrait avoir des conséquences extrêmement graves. Le regretté Stephen Hawking, des PDG de sociétés technologiques comme Elon Musk et Bill Gates, et des universitaires spécialisés dans l’IA, comme Stuart Russell de l’Université de Californie à San Francisco, ont tous averti publiquement que l’IA à l’échelle humaine pourrait mener à rien de moins qu’un désastre, surtout si elle est développée sans une extrême prudence et une profonde prise en compte de la sécurité et de l’éthique.

Et qui va maintenant construire cette technologie extrêmement dangereuse ? Des gens comme John Carmack, un partisan de l'”éthique du hacker” qui a déjà programmé des jeux vidéo pour enfants comme “Commander Keen”. Keen Technologies va-t-elle maintenant construire une IA de niveau humain avec le même souci de sécurité ? Interrogé sur Twitter au sujet de la mission de l’entreprise, Carmack a répondu ce qui suit a répondu “L’IA ou la faillite, par le biais de Mad Science !”

Une société démocratique ne devrait pas laisser les PDG de la technologie déterminer l’avenir de l’humanité sans tenir compte de l’éthique ou de la sécurité.

Le manque de préoccupation de Carmack pour ce type de risque n’est pas nouveau. Avant de créer Keen Technologies, Carmack a travaillé côte à côte avec Mark Zuckerberg chez Facebook, l’entreprise responsable de la plupart des effets néfastes de l’IA décrits plus haut. Facebook a appliqué la technologie à la société sans se soucier des conséquences, en parfaite adéquation avec sa devise “Move fast and break things”. Mais si nous allons construire une IA de niveau humain de cette façon, la chose à briser pourrait être l’humanité.

Dans l’interview avec l’informaticien Lex Fridman où Carmack annonce sa nouvelle société AGI, Carmack montre un mépris total pour tout ce qui limite le développement sans entrave de la technologie et la maximisation du profit. Selon Carmack, “La plupart des gens qui ont une vision sont légèrement moins efficaces.” En ce qui concerne les “choses de l’éthique de l’IA”, il déclare : “Je me tiens vraiment à l’écart de toutes ces discussions ou même d’y penser vraiment.” Des gens comme Carmack et Zuckerberg sont peut-être de bons programmeurs, mais ne sont tout simplement pas câblés pour prendre en compte la situation dans son ensemble.

S’ils ne le peuvent pas, nous devons le faire. Une société démocratique ne doit pas laisser les PDG de la technologie déterminer l’avenir de l’humanité sans tenir compte de l’éthique ou de la sécurité. Par conséquent, nous devons tous nous informer sur l’IA à l’échelle humaine, en particulier les non-technologues. Nous devons parvenir à un consensus sur la question de savoir si l’IA à l’échelle humaine représente effectivement une menace existentielle pour l’humanité, comme le disent la plupart des universitaires spécialisés dans la sécurité de l’IA et les risques existentiels. Et nous devons trouver ce qu’il faut faire à ce sujet, là où certains pensent que c’est le cas.Une forme de réglementation semble inévitable. Le fait que nous ne sachions pas encore quel type de réglementation permettrait de réduire efficacement les risques ne doit pas être une raison pour les régulateurs de ne pas s’attaquer au problème – mais plutôt une raison d’accorder la plus haute priorité à l’élaboration d’une réglementation efficace. Les organisations à but non lucratif et les universitaires peuvent contribuer à ce processus. Ne rien faire – et laisser ainsi des gens comme Carmack et Zuckerberg déterminer l’avenir pour nous tous – pourrait très bien mener au désastre.

Related Posts