Une société d’intelligence artificielle a récolté des milliards de photos Facebook pour une base de données de reconnaissance faciale qu’elle a vendue à la police

Avatar photo

L’intelligence artificielle vit un moment culturel. Les chatbots alimentés par l’IA comme ChatGPT – et leurs homologues créateurs d’images visuelles comme DALL-E – ont fait les manchettes ces derniers temps de peur qu’ils ne remplacent les emplois humains. Ces outils d’intelligence artificielle fonctionnent en grattant les données de millions de textes et d’images, en refaçonnant de nouvelles œuvres en remixant celles existantes de manière intelligente qui les fait paraître presque humaines.

Une autre base de données basée sur l’IA, bien que moins connue, récupère des images de millions et de millions de personnes – et pour des moyens moins scrupuleux. Rencontrez Clearview AI, une entreprise technologique spécialisée dans les services de reconnaissance faciale. Clearview AI commercialise sa base de données de reconnaissance faciale auprès des forces de l’ordre “pour enquêter sur les crimes, améliorer la sécurité publique et rendre justice aux victimes”, selon leur site Web.

Pourtant, des révélations sur la manière dont la société obtient des images pour sa base de données de près de 30 milliards de photos ont provoqué un tollé. La semaine dernière, le PDG Hoan Ton-That a déclaré dans une interview à la BBC que la société avait obtenu ses photos à l’insu des utilisateurs, extraites de plateformes de médias sociaux comme Facebook et les avait fournies aux forces de l’ordre américaines. Le PDG a également déclaré que la base de données avait été utilisée par la police américaine près d’un million de fois depuis 2017.

Dans une déclaration à Insider, Ton-That a déclaré que la base de données d’images était “collectée légalement, comme tout autre moteur de recherche comme Google”. Notamment, “licite” n’implique pas, dans ce contexte, que les utilisateurs dont les photos ont été grattées aient donné leur consentement.

“La base de données de Clearview AI est utilisée pour les enquêtes après le crime par les forces de l’ordre et n’est pas accessible au grand public”, a déclaré le PDG à Insider. “Chaque photo de l’ensemble de données est un indice potentiel qui pourrait sauver une vie, rendre justice à une victime innocente, empêcher une identification erronée ou disculper une personne innocente.”

Comme l’a rapporté la BBC, Clearview AI a fait face à des millions de dollars d’amendes pour violation de la vie privée en Europe et en Australie. Dans l’interview de la BBC, la police de Miami a confirmé qu’elle utilise ce logiciel et le traite comme un conseil pour les enquêtes sur tous les crimes, et qu’il a aidé à résoudre certains meurtres.

À la suite d’un règlement, Clearview s’est vu interdire de mettre sa base de données d’empreintes faciales à la disposition d’entités privées et de la plupart des entreprises aux États-Unis.

“Nous ne procédons pas à une arrestation parce qu’un algorithme nous le dit”, a déclaré le chef adjoint de la police Armando Aguilar. “Soit nous mettons ce nom dans un line-up photographique, soit nous résolvons l’affaire par des moyens traditionnels.”

Clearview n’est pas étranger aux poursuites judiciaires pour violation potentielle de la loi sur la protection de la vie privée. En mai 2020, l’American Civil Liberties Union (ACLU) a intenté une action en justice contre Clearview, alléguant que la société avait violé le droit à la vie privée des résidents de l’Illinois en vertu de la loi sur la confidentialité des informations biométriques de l’Illinois (BIPA). Selon l’ACLU, à la suite d’un règlement, Clearview s’est vu interdire de mettre sa base de données d’empreintes faciales à la disposition d’entités privées et de la plupart des entreprises aux États-Unis.

Bien que Clearview affirme que sa technologie est très précise, certaines histoires suggèrent le contraire. Par exemple, le New York Times a récemment rapporté l’arrestation injustifiée d’un homme, affirmant qu’il avait utilisé des cartes de crédit volées pour acheter des sacs à main de créateurs. Le service de police avait un contrat avec Clearview, selon le rapport, et il a été utilisé dans l’enquête pour l’identifier.

En réponse au rapport, Ton-That s’est excusé, affirmant qu'”une fausse arrestation est une de trop”.

“Même si Clearview AI a fourni le résultat initial, c’est le début de l’enquête des forces de l’ordre pour déterminer, sur la base d’autres facteurs, si la bonne personne a été identifiée”, a-t-il déclaré au Times. “Plus d’un million de recherches ont été effectuées à l’aide de Clearview AI.”

La police a également utilisé cette technologie pour arrêter un manifestant accusé d’avoir jeté des pierres sur un policier à Miami.

L’Electronic Frontier Foundation (EFF) a décrit la technologie de reconnaissance faciale comme “une menace croissante pour la justice raciale, la vie privée, la liberté d’expression et la sécurité de l’information”. En 2022, l’organisation a salué les multiples procès auxquels elle a été confrontée.

“L’un des pires contrevenants est Clearview AI, qui extrait les empreintes faciales de milliards de personnes sans leur consentement et utilise ces empreintes faciales pour aider la police à identifier les suspects”, a déclaré l’EFF. “Par exemple, la police de Miami a travaillé avec Clearview pour identifier les participants à une manifestation dirigée par des Noirs contre la violence policière.”

Meta, les propriétaires de Facebook, ont récemment déclaré à Insider que le scraping par Clearview envahit “la vie privée des gens”. Meta a déclaré qu’ils “ont banni leur fondateur de nos services et leur ont envoyé une demande légale pour qu’ils cessent d’accéder à toutes les données, photos ou vidéos de nos services”.

Matthew Guariglia, analyste principal des politiques pour l’organisation internationale à but non lucratif des droits numériques, a déclaré à Insider que ce n’est pas seulement Facebook qui est une source de préoccupation, c’est le Web en général.

“Je pense que c’est l’une des choses néfastes à ce sujet”, a déclaré Guariglia à Insider. “Parce que vous êtes peut-être très conscient de ce que fait Clearview, et empêchez donc l’un de vos profils de réseaux sociaux d’être exploré par Google, pour vous assurer que l’image que vous publiez n’est pas accessible au public sur le Web ouvert, et vous pensez que” cela pourrait me garder en sécurité. Mais le truc avec Clearview, c’est qu’il reconnaît les photos de vous n’importe où sur le web.”

Related Posts