L’intelligence artificielle met en garde contre l’extinction humaine – tout ce que vous devez savoir

Avatar photo

L’intelligence artificielle pourrait conduire à l’extinction de l’humanité et les risques doivent être traités avec la même urgence qu’une guerre nucléaire, ont averti des dizaines d’experts – y compris les pionniers qui l’ont développée.

Ici, l’agence de presse PA se penche sur la dernière situation.

– Qu’est-ce que l’IA ?

L’intelligence artificielle (IA) est l’intelligence démontrée par les machines, par opposition à l’intelligence naturelle affichée par les animaux et les humains.

Les exemples d’IA incluent les logiciels de reconnaissance faciale et les assistants vocaux numériques tels que Siri d’Apple et Alexa d’Amazon.

– Comment l’IA pourrait-elle conduire à l’extinction humaine ?

L’IA pourrait être militarisée, par exemple pour développer de nouvelles armes chimiques et améliorer le combat aérien, indique le Center for AI Safety basé à San Francisco sur son site Web. Le centre a publié la déclaration sur le risque d’extinction de l’IA qui a été signée par les leaders de l’industrie.

Le centre énumère d’autres risques sur son site Web, notamment l’IA qui peut devenir dangereuse si elle n’est pas alignée sur les valeurs humaines.

Il indique également que les humains pourraient devenir dépendants des machines si des tâches importantes leur sont de plus en plus déléguées.

Et à l’avenir, l’IA pourrait être trompeuse, non par malveillance, mais parce qu’elle pourrait aider les agents à atteindre leurs objectifs. Il peut être plus efficace d’obtenir l’approbation humaine par la tromperie que de la gagner légitimement.

– Qui sont les gens qui disent que l’IA pourrait anéantir l’humanité ?

Des dizaines d’experts ont signé la lettre, qui a été organisée par le Center for AI Safety, une organisation à but non lucratif qui vise à “réduire les risques à l’échelle de la société liés à l’IA”.

Deux des trois « parrains » de l’IA ont signé la lettre – Geoffrey Hinton, professeur émérite d’informatique à l’Université de Toronto, et Yoshua Bengio, professeur d’informatique à l’Université de Montréal/Mila.

Le Dr Hinton a démissionné de son poste chez Google plus tôt ce mois-ci, affirmant que dans de mauvaises mains, l’IA pourrait être utilisée pour nuire aux gens et sonner la fin de l’humanité.

Les signataires incluent également Sam Altman et Ilya Sutskever, respectivement directeur général et co-fondateur du développeur ChatGPT OpenAI.

La liste comprend également des dizaines d’universitaires, des cadres supérieurs d’entreprises telles que Google DeepMind, le co-fondateur de Skype et les fondateurs de la société d’intelligence artificielle Anthropic.

Plus tôt cette année, plus de 1 000 chercheurs et technologues, dont Elon Musk, avaient signé une lettre beaucoup plus longue appelant à une pause de six mois sur le développement de l’IA.

– Que peut-on faire pour le réguler et stopper ces scénarios ?

Le Center for AI Safety affirme qu’il réduit les risques liés à l’IA grâce à la recherche, à la construction sur le terrain et au plaidoyer.

La recherche sur l’IA comprend : l’identification et la suppression des comportements dangereux ; y étudier les comportements trompeurs et contraires à l’éthique; entraîner l’IA à se comporter moralement ; et améliorer sa sécurité et sa fiabilité.

Le centre affirme qu’il développe également le domaine de la recherche sur la sécurité de l’IA grâce au financement, à l’infrastructure de recherche et aux ressources pédagogiques.

Et il sensibilise le public aux risques et à la sécurité de l’IA, fournit une expertise technique pour éclairer l’élaboration des politiques et conseille les leaders de l’industrie sur les structures et les pratiques pour donner la priorité à la sécurité de l’IA.

– Que font les pays ?

Mercredi, le Premier ministre Rishi Sunak a retweeté la déclaration du Centre pour la sécurité de l’IA et a déclaré que le gouvernement “l’examinait très attentivement”.

Il a dit qu’il l’avait soulevé au sommet du G7 et qu’il en reparlerait lors de sa visite aux États-Unis.

Son tweet disait : « Le gouvernement examine cela très attentivement. La semaine dernière, j’ai souligné aux entreprises d’IA l’importance de mettre en place des garde-fous pour que le développement soit sûr et sécurisé. Mais nous devons travailler ensemble. C’est pourquoi je l’ai soulevé au @G7 et je le ferai à nouveau lors de ma visite aux États-Unis.

La semaine dernière, M. Sunak a parlé de l’importance de veiller à ce que les bons «garde-corps» soient en place pour se protéger contre les dangers potentiels, allant de la désinformation et de la sécurité nationale aux «menaces existentielles».

Et cette semaine, le Parti communiste chinois au pouvoir a appelé à des mesures de sécurité nationale renforcées, soulignant les risques posés par les progrès de l’IA.

– Quels sont les avantages de l’IA ?

L’IA peut effectuer des tâches vitales, telles que des algorithmes analysant des images médicales, y compris des rayons X, des scanners et des ultrasons, aidant les médecins à identifier et à diagnostiquer des maladies telles que le cancer et les maladies cardiaques avec plus de précision et de rapidité.

Un exemple d’avantage de l’IA est la nouvelle technologie du cerveau qui a aidé un homme qui a été paralysé dans un accident de vélo il y a plus de dix ans à se lever et à marcher à nouveau.

Des neuroscientifiques de l’Ecole Polytechnique Fédérale de Lausanne (EPFL) en Suisse ont créé ce qu’ils appellent un “pont numérique sans fil” capable de rétablir la connexion perdue entre le cerveau et la moelle épinière.

Ce pont numérique est une interface cerveau-colonne vertébrale qui a permis à Gert-Jan Oskam de reprendre le contrôle du mouvement de ses jambes, lui permettant de se tenir debout, de marcher et même de monter des escaliers.

Related Posts