21 décembre 2021

Clearview AI a offert des essais gratuits à la police du monde entier

Par Admino

Organismes d’application de la loi et des organisations gouvernementales de 24 pays en dehors des États-Unis ont utilisé une technologie de reconnaissance faciale controversée appelée Clearview AI, selon les données internes de l’entreprise examinées par BuzzFeed News.

Ces données, qui courent jusqu’en février 2020, montrent que les services de police, les bureaux des procureurs, les universités et les ministères de l’Intérieur du monde entier ont effectué près de 14 000 recherches avec le logiciel de Clearview AI. Dans de nombreux organismes d’application de la loi, du Canada à la Finlande, les agents ont utilisé le logiciel à l’insu ou sans la permission de leurs supérieurs. Après avoir reçu des questions de BuzzFeed News, certaines organisations ont admis que la technologie avait été utilisée sans surveillance de la direction.

En mars, une enquête de BuzzFeed News basée sur les propres données internes de Clearview AI a montré comment la start-up basée à New York a distribué son outil de reconnaissance faciale, en commercialisant des essais gratuits pour son application mobile ou son logiciel de bureau, à des milliers d’officiers et d’employés de plus de 1 800 entités financées par les contribuables américains. Clearview affirme que son logiciel est plus précis que les autres technologies de reconnaissance faciale car il est formé sur une base de données de plus de 3 milliards d’images extraites de sites Web et de plateformes de médias sociaux, notamment Facebook, Instagram, LinkedIn et Twitter.

Les agents d’application de la loi utilisant Clearview peuvent prendre une photo d’un suspect ou d’une personne d’intérêt, l’exécuter dans le logiciel et recevoir des correspondances possibles pour cette personne en quelques secondes. Clearview a affirmé que son application est précise à 100% dans les documents fournis aux responsables de l’application de la loi, mais BuzzFeed News a vu le logiciel mal identifier les gens, soulignant une préoccupation plus grande avec les technologies de reconnaissance faciale.

Sur la base de nouveaux rapports et de données examinés par BuzzFeed News, Clearview AI a présenté son manuel de marketing américain controversé dans le monde entier, offrant des essais gratuits aux employés des organismes d’application de la loi dans des pays tels que l’Australie, le Brésil et le Royaume-Uni.

Pour accompagner cette histoire, BuzzFeed News a créé un tableau consultable de 88 agences et organisations internationales affiliées au gouvernement et financées par les contribuables répertoriées dans les données de Clearview comme ayant des employés qui ont utilisé ou testé le service de reconnaissance faciale de l’entreprise avant février 2020, selon les données de Clearview.

Certaines de ces entités se trouvaient dans des pays où l’utilisation de Clearview a depuis été jugée « illégale ». À la suite d’une enquête, le commissaire à la protection des données du Canada a statué en février 2021 que Clearview avait « violé les lois fédérales et provinciales sur la protection de la vie privée »; il a recommandé à l’entreprise de cesser d’offrir ses services aux clients canadiens, de cesser de recueillir des images de Canadiens et de supprimer toutes les images et données biométriques précédemment recueillies de personnes au pays.

Dans l’Union européenne, les autorités évaluent si l’utilisation de Clearview a violé le Règlement général sur la protection des données (RGPD), un ensemble de lois générales sur la protection de la vie privée en ligne qui oblige les entreprises qui traitent des données personnelles à obtenir le consentement éclairé des personnes. L’autorité néerlandaise de protection des données a déclaré à BuzzFeed News qu’il était « peu probable » que l’utilisation de Clearview par les services de police soit légale, tandis que la Commission nationale française pour l’informatique et les libertés a déclaré qu’elle avait reçu « plusieurs plaintes » concernant Clearview qui « font actuellement l’objet d’une enquête ». Un régulateur de Hambourg a déjà jugé les pratiques de l’entreprise illégales en vertu du RGPD et lui a demandé de supprimer des informations sur un citoyen allemand.

Bien que Clearview soit utilisé dans au moins deux douzaines d’autres pays, le PDG Hoan Ton-That insiste sur le fait que le marché clé de l’entreprise est les États-Unis.

« Bien qu’il y ait eu une énorme demande pour notre service du monde entier, Clearview AI se concentre principalement sur la fourniture de notre service aux forces de l’ordre et aux agences gouvernementales aux États-Unis », a-t-il déclaré dans une déclaration à BuzzFeed News. « D’autres pays ont exprimé un besoin urgent de notre technologie parce qu’ils savent qu’elle peut aider à enquêter sur des crimes, tels que le blanchiment d’argent, la fraude financière, les escroqueries amoureuses, la traite des êtres humains et les crimes contre les enfants, qui ne connaissent pas de frontières. »

Dans la même déclaration, Ton-That a allégué qu’il y avait « des inexactitudes contenues dans les affirmations de BuzzFeed ». Il a refusé d’expliquer ce que cela pourrait être et n’a pas répondu à une liste détaillée de questions basées sur des reportages pour cette histoire.

Clearview AI a créé un puissant outil de reconnaissance faciale et l’a commercialisé auprès des services de police et des agences gouvernementales. La société n’a jamais divulgué les entités qui ont utilisé son logiciel de reconnaissance faciale, mais une source confidentielle a fourni à BuzzFeed News des données qui semblaient être une liste d’agences et d’entreprises dont les employés ont testé ou utilisé activement son technologie.

À l’aide de ces données, ainsi que de dossiers publics et d’entrevues, nous avons créé une base de données consultable d’entités financées par les contribuables à l’échelle internationale, y compris les organismes d’application de la loi, les bureaux des procureurs, les universités et les ministères de l’Intérieur. Nous n’avons inclus que les agences pour lesquelles les données montrent qu’au moins une personne associée a effectué au moins une analyse de reconnaissance faciale en février 2020.

La base de données a des limites. Clearview n’a ni vérifié ni contesté les données sous-jacentes, qui commencent en 2018 et se terminent en février 2020, de sorte qu’elles ne tiennent compte d’aucune activité après cette période ou de toute autre organisation qui pourrait avoir commencé à utiliser Clearview après février 2020.

Toutes les recherches ne correspondaient pas à une enquête, et certaines agences nous ont dit que leurs employés avaient simplement effectué des recherches de test pour voir dans quelle mesure la technologie fonctionnait. BuzzFeed News a créé des plages de recherche basées sur des données qui montraient combien de fois des personnes d’une organisation donnée ont diffusé des photos via Clearview.

Nous avons trouvé des inexactitudes dans les données, y compris des organisations dont les noms étaient mal orthographiés ou incomplets, et nous avons décidé de corriger ces problèmes lorsqu’ils pouvaient être confirmés. Si nous n’étions pas en mesure de confirmer l’existence d’une entité, nous l’avons supprimée.

BuzzFeed News a donné à chaque agence ou organisation de cette base de données la possibilité de dire si elle avait utilisé la technologie de Clearview et si le logiciel avait conduit à des arrestations.

Sur les 88 entités de cette base de données :

  • 36 ont déclaré avoir des employés qui utilisaient ou essayaient Clearview AI.
  • Les responsables de 9 de ces organisations ont déclaré qu’ils ne savaient pas que leurs employés s’étaient inscrits à des essais gratuits jusqu’à ce que les questions de BuzzFeed News ou de nos partenaires de reportage les incitent à regarder.
  • Les responsables de 3 autres entités ont d’abord nié que leurs employés avaient utilisé Clearview, mais ont déterminé plus tard que certains d’entre eux l’avaient fait.
  • 10 entités ont refusé de répondre aux questions visant à savoir si leurs employés avaient utilisé Clearview.
  • 12 organisations ont refusé toute utilisation de Clearview.
  • 30 organisations n’ont pas répondu aux demandes de commentaires.

Les réponses des agences, y compris si elles ont refusé d’utiliser la technologie de Clearview ou si elles n’ont pas répondu aux demandes de commentaires, sont incluses dans le tableau.

Ce n’est pas parce qu’une agence apparaît sur la liste que BuzzFeed News a pu confirmer qu’elle utilisait réellement l’outil ou que ses responsables ont approuvé l’utilisation de Clearview par ses employés.

En effectuant une recherche dans cette base de données, vous affirmez que vous comprenez ses limites.

Selon un document interne de 2019 rapporté pour la première fois par BuzzFeed News, Clearview avait prévu de poursuivre une « expansion internationale rapide » dans au moins 22 pays. Mais en février 2020, la stratégie de l’entreprise semblait avoir changé. « Clearview se concentre sur les affaires aux États-Unis et au Canada », a déclaré Ton-That à BuzzFeed News à l’époque.

Deux semaines plus tard, dans une interview sur PBS, il a précisé que Clearview ne vendrait jamais sa technologie à des pays qui « sont très hostiles aux États-Unis », avant de nommer la Chine, la Russie, l’Iran et la Corée du Nord.

Depuis ce temps, Clearview a fait l’objet d’un examen minutieux des médias et de multiples enquêtes gouvernementales. En juillet, à la suite d’un rapport antérieur de BuzzFeed News montrant que des entreprises privées et des organisations publiques avaient effectué des recherches Clearview en Grande-Bretagne et en Australie, les commissaires à la protection de la vie privée de ces pays ont ouvert une enquête conjointe sur l’entreprise pour son utilisation de données personnelles. L’enquête est en cours, selon le bureau du commissaire à l’information du Royaume-Uni, qui a déclaré à BuzzFeed News qu' »aucun autre commentaire ne sera fait jusqu’à ce qu’il soit conclu ».

Les autorités canadiennes ont également pris des mesures pour réglementer Clearview après que le Toronto Star, en partenariat avec BuzzFeed News, a rapporté l’utilisation généralisée du logiciel de l’entreprise dans le pays. En février 2020, les commissaires à la protection de la vie privée du Canada fédéraux et locaux ont lancé une enquête sur Clearview et ont conclu qu’il s’agissait d’une « violation manifeste du droit à la vie privée des Canadiens ».

Plus tôt cette année, ces organismes ont officiellement déclaré illégales les pratiques de Clearview au pays et ont recommandé que l’entreprise cesse d’offrir sa technologie aux clients canadiens. Clearview n’était pas d’accord avec les conclusions de l’enquête et n’a pas démontré sa volonté de suivre les autres recommandations, selon le Commissariat à la protection de la vie privée du Canada.

Avant cette déclaration, les employés d’au moins 41 entités au sein du gouvernement canadien – la plupart de tous les pays à l’extérieur des États-Unis – étaient répertoriés dans les données internes comme ayant utilisé Clearview. Ces organismes allaient des services de police des villes de taille moyenne comme Timmin., une ville de 41 000 habitants où les agents ont effectué plus de 120 fouilles, auprès des principaux organismes métropolitains d’application de la loi comme le Service de police de Toronto, qui est répertorié dans les données comme ayant effectué plus de 3 400 recherches en février 2020.

Loations d’entités qui ont utilisé Clearview AI.

Nouvelles de BuzzFeed

Un porte-parole du service de police de Timmins a reconnu que le département avait utilisé Clearview, mais a déclaré qu’aucune arrestation n’avait jamais été effectuée sur la base d’une fouille avec la technologie. Le Service de police de Toronto n’a pas répondu aux multiples demandes de commentaires.

Les données de Clearview montrent que l’utilisation ne se limitait pas aux services de police. Le bureau des poursuites pénales du ministère de la Justice de la Saskatchewan a effectué plus de 70 recherches avec le logiciel. Un porte-parole a d’abord déclaré que les employés n’avaient pas utilisé Clearview, mais a changé sa réponse après une série de questions de suivi.

« La Couronne n’a pas utilisé Clearview AI pour appuyer une poursuite. »

« Après examen, nous avons identifié des cas autonomes où le personnel du ministère a utilisé une version d’essai de ce logiciel », a déclaré Margherita Vittorelli, porte-parole du ministère. « La Couronne n’a pas utilisé Clearview AI pour appuyer une poursuite. Compte tenu des préoccupations concernant l’utilisation de cette technologie, le personnel du ministère a reçu l’ordre de ne pas utiliser le logiciel de Clearview AI pour le moment.

Certains organismes canadiens d’application de la loi ont suspendu ou cessé d’utiliser Clearview AI peu de temps après la période d’essai initiale ou ont cessé de l’utiliser en réponse à l’enquête gouvernementale. Un détective de l’Unité des crimes technologiques du Service de police régional de Niagara a effectué plus de 650 recherches dans le cadre d’un essai gratuit du logiciel, selon les données.

« Une fois que des préoccupations ont fait surface avec le commissaire à la protection de la vie privée, l’utilisation du logiciel a pris fin », a déclaré la porte-parole du département, Stephanie Sabourin, à BuzzFeed News. Elle a déclaré que le détective avait utilisé le logiciel au cours d’une enquête non divulguée à l’insu des officiers supérieurs ou du chef de la police.

La Gendarmerie royale du Canada était l’un des rares organismes internationaux à avoir conclu un contrat avec Clearview et payé pour utiliser son logiciel. L’agence, qui a effectué plus de 450 recherches, a déclaré en février 2020 qu’elle avait utilisé le logiciel dans 15 cas d’exploitation sexuelle d’enfants en ligne, entraînant le sauvetage de deux enfants.

En juin, cependant, le Commissariat à la protection de la vie privée au Canada a conclu que l’utilisation de Clearview par la GRC violait les lois du pays sur la protection de la vie privée. Le bureau a également conclu que Clearview avait « violé la loi fédérale canadienne sur la protection de la vie privée en créant une banque de données de plus de trois milliards d’images extraites de sites Web Internet sans le consentement des utilisateurs ». La GRC a contesté cette conclusion.

L’Association canadienne des libertés civiles, un groupe à but non lucratif, a déclaré que Clearview avait facilité « l’expérimentation policière irresponsable » au Canada.

« Le modèle d’affaires de Clearview AI, qui ramasse des photos de milliards de gens ordinaires sur Internet et les met dans une file d’attente policière perpétuelle, est une forme de surveillance de masse illégale et inacceptable dans notre pays démocratique et respectueux des droits », a déclaré Brenda McPhail, directrice du programme de protection de la vie privée, de technologie et de surveillance de l’ACLC, à BuzzFeed News.


Comme un certain nombre de Les forces de l’ordre américaines, certaines agences internationales ont déclaré à BuzzFeed News qu’elles ne pouvaient pas discuter de leur utilisation de Clearview. Par exemple, le ministère public brésilien du Pernambouc, qui est répertorié comme ayant effectué plus de 100 recherches, a déclaré qu’il « ne fournit pas d’informations sur les questions de sécurité institutionnelle ».

Mais les données examinées par BuzzFeed News montrent que des personnes de neuf organismes brésiliens d’application de la loi, y compris la police fédérale du pays, sont répertoriées comme ayant utilisé Clearview, effectuant au total plus de 1 250 recherches en février 2020. Tous ont refusé de commenter ou n’ont pas répondu aux demandes de commentaires.

La National Crime Agency du Royaume-Uni, qui a effectué plus de 500 perquisitions, selon les données, a refusé de commenter ses techniques d’enquête; Un porte-parole a déclaré à BuzzFeed News au début de 2020 que l’organisation « déploie de nombreuses capacités spécialisées pour traquer les délinquants en ligne qui causent un préjudice grave aux membres du public ». Les employés du service de police métropolitain du pays ont effectué plus de 150 recherches sur Clearview, selon des données internes. Interrogé sur l’utilisation du service par le ministère, le corps de police a refusé de commenter.

Des documents examinés par BuzzFeed News montrent également que Clearview avait une présence naissante dans les pays du Moyen-Orient connus pour leurs gouvernements répressifs et leurs préoccupations en matière de droits de l’homme. En Arabie Saoudite, les individus à l’Artificial IntelligencLe Centre d’études avancées (également connu sous le nom de Thakaa) a effectué au moins 10 recherches avec Clearview. Aux Émirats arabes unis, des personnes associées à Mubadala Investment Company, un fonds souverain de la capitale d’Abou Dhabi, ont effectué plus de 100 recherches, selon des données internes.

Thakaa n’a pas répondu aux multiples demandes de commentaires. Un porte-parole de Mubadala a déclaré à BuzzFeed News que la société n’utilisait le logiciel dans aucune de ses installations.

Les données ont révélé que des individus de quatre agences australiennes différentes ont essayé ou utilisé activement Clearview, y compris la police fédérale australienne (plus de 100 recherches) et la police de Victoria (plus de 10 recherches), où un porte-parole a déclaré à BuzzFeed News que la technologie avait été « jugée inappropriée » après une exploration initiale.

« Entre le 2 décembre 2019 et le 22 janvier 2020, des membres du Centre australien de lutte contre l’exploitation des enfants (ACCCE), dirigé par l’AFP, se sont inscrits pour un essai gratuit de l’outil de reconnaissance faciale Clearview AI et ont mené un projet pilote limité du système afin de déterminer son adéquation à la lutte contre l’exploitation et les abus d’enfants », Katie Casling, porte-parole de l’AFP, dans un communiqué.

Le service de police du Queensland et son unité d’enquêtes sur les homicides ont effectué plus de 1 000 recherches en février 2020, sur la base de données examinées par BuzzFeed News. Le Ministère n’a pas répondu aux demandes de commentaires.


Clearview a commercialisé son système de reconnaissance faciale à travers l’Europe en offrant des essais gratuits lors de conférences de police, où il a souvent été présenté comme un outil pour aider à trouver les prédateurs et les victimes d’abus sexuels sur enfants.

En octobre 2019, des agents des forces de l’ordre de 21 pays différents et d’Interpol se sont réunis au Centre européen de lutte contre la cybercriminalité d’Europol à La Haye, aux Pays-Bas, pour passer au peigne fin des millions de fichiers d’images et de vidéos de victimes interceptées dans leur pays d’origine dans le cadre d’un groupe de travail sur l’identification des victimes de maltraitance d’enfants. Lors de la réunion, des participants extérieurs qui n’étaient pas membres du personnel d’Europol ont présenté Clearview AI comme un outil susceptible de les aider dans leurs enquêtes.

Après la conférence de deux semaines, qui comprenait des spécialistes de Belgique, de France et d’Espagne, certains officiers semblent avoir ramené chez eux ce qu’ils avaient appris et ont commencé à utiliser Clearview.

« L’autorité de police ne le savait pas et n’avait pas approuvé l’utilisation. »

Un porte-parole d’Europol a déclaré à BuzzFeed News qu’il n’approuvait pas l’utilisation de Clearview, mais a confirmé que « des participants externes ont présenté l’outil lors d’un événement organisé par Europol ». Le porte-parole a refusé d’identifier les participants.

« Clearview AI a été utilisé pendant une courte période de test par quelques employés de l’autorité de police, y compris dans le cadre d’un cours organisé par Europol. L’autorité de police ne savait pas et n’avait pas approuvé l’utilisation », a déclaré un porte-parole de l’autorité de police suédoise à BuzzFeed News dans un communiqué. En février 2021, l’autorité suédoise de protection des données a conclu une enquête sur l’utilisation de Clearview par le service de police et lui a infligé une amende de 290 000 dollars pour violation de la loi suédoise sur les données criminelles.

Les dirigeants du Bureau national d’enquête finlandais n’ont appris l’utilisation de Clearview par les employés qu’après avoir été contactés par BuzzFeed News pour cet article. Après avoir d’abord nié toute utilisation du logiciel de reconnaissance faciale, un porte-parole a fait marche arrière quelques semaines plus tard, confirmant que les agents avaient utilisé le logiciel pour effectuer près de 120 recherches.

« L’unité a testé un service américain appelé Clearview AI pour l’identification des victimes potentielles d’abus sexuels afin de contrôler la charge de travail accrue de l’unité au moyen de l’intelligence artificielle et de l’automatisation », a déclaré Mikko Rauhamaa, surintendant principal du Bureau national d’enquête finlandais, dans un communiqué.

Les questions de BuzzFeed News ont incité le NBI à informer le médiateur finlandais de la protection des données d’une possible violation de données, déclenchant une enquête plus approfondie. Dans une déclaration à l’ombudsman, le NBI a déclaré que ses employés avaient appris l’existence de Clearview lors d’un événement Europol en 2019, où il avait été recommandé de l’utiliser dans les cas d’exploitation sexuelle des enfants. Le BNI a depuis cessé d’utiliser Clearview.

Les données examinées par BuzzFeed News montrent qu’au début de 2020, Clearview avait fait son chemin à travers l’Europe. La police d’État italienne, Polizia di Stato, a effectué plus de 130 perquisitions, selon les données, bien que l’agence n’ait pas répondu à une demande de commentaire. Un porte-parole du ministère français de l’Intérieur a déclaré à BuzzFeed News qu’ils n’avaient aucune information sur Clearview, malgré des données internes indiquant que les employés associés au bureau avaient effectué plus de 400 recherches.

« L’unité Crimes contre les enfants d’INTERPOL utilise une série de technologies dans ses travaux pour identifier les victimes de la sécurité des enfants en ligneun porte-parole de la police internationale basée à Lyon, en France, a déclaré à BuzzFeed News un porte-parole de la police internationale lorsqu’il a été interrogé sur les plus de 300 perquisitions de l’agence. « Un petit nombre d’agents ont utilisé un compte d’essai gratuit de 30 jours pour tester le logiciel Clearview. Il n’existe aucune relation formelle entre INTERPOL et Clearview, et ce logiciel n’est pas utilisé par INTERPOL dans son travail quotidien. »

L’abus sexuel d’enfants justifie généralement l’utilisation d’outils puissants afin de sauver les victimes ou de retrouver les auteurs. Mais Jake Wiener, chercheur en droit à l’Electronic Privacy Information Center, a déclaré que de nombreux outils existent déjà pour lutter contre ce type de crime et, contrairement à Clearview, ils n’impliquent pas une collecte de masse non autorisée des photos que des milliards de personnes publient sur des plateformes comme Instagram et Facebook.

« Si la police veut simplement identifier les victimes de la traite des enfants, il existe déjà des bases de données et des méthodes robustes », a-t-il déclaré. « Ils n’ont pas besoin de Clearview AI pour le faire. »

Depuis le début de 2020, les organismes de réglementation au Canada, en France, en Suède, en Australie, au Royaume-Uni et en Finlande ont ouvert des enquêtes sur l’utilisation de Clearview par leurs organismes gouvernementaux. Certains experts en protection de la vie privée estiment que Clearview a violé les lois de l’UE sur la confidentialité des données, connues sous le nom de RGPD.

Certes, le RGPD prévoit certaines exemptions pour l’application de la loi. Il note explicitement que « des enquêtes secrètes ou de la vidéosurveillance » peuvent être menées « à des fins de prévention, d’enquête, de détection ou de poursuite d’infractions pénales ou d’exécution de sanctions pénales, y compris la protection et la prévention des menaces à la sécurité publique … »

Mais en juin 2020, le Comité européen de la protection des données, l’organisme indépendant qui supervise l’application du RGPD, a publié des directives selon lesquelles « l’utilisation d’un service tel que Clearview AI par les autorités chargées de l’application de la loi dans l’Union européenne ne serait probablement pas conforme au régime de protection des données de l’UE ».

En janvier dernier, le commissaire de Hambourg à la protection des données et à la liberté de l’information en Allemagne – un pays où les agences n’avaient aucune utilisation connue de Clearview en février 2020, selon les données – est allé encore plus loin; il a estimé que Clearview elle-même était en violation du RGPD et a ordonné à l’entreprise de supprimer les informations biométriques associées à une personne qui avait déposé une plainte antérieure.

Dans sa réponse aux questions de BuzzFeed News, Ton-That a déclaré que Clearview avait « volontairement traité » les demandes de personnes au sein de l’Union européenne pour que leurs informations personnelles soient supprimées des bases de données de l’entreprise. Il a également noté que Clearview n’a pas de contrats avec des clients de l’UE « et n’est actuellement pas disponible dans l’UE ». Il a refusé de préciser quand Clearview a cessé d’être disponible dans l’UE.

CBS This Morning via YouTube / Via youtube.com

Hoan Ton, PDG de Clearview AI

Christoph Schmon, le directeur de la politique internationale de l’Electronic Frontier Foundation, a déclaré à BuzzFeed News que le RGPD ajoute un nouveau niveau de complexité pour les policiers européens qui avaient utilisé Clearview. En vertu du RGPD, la police ne peut pas utiliser de données personnelles ou biométriques à moins que cela ne soit « nécessaire pour protéger les intérêts vitaux » d’une personne. Mais si les organismes d’application de la loi ne savent pas qu’ils ont des agents qui utilisent Clearview, il est impossible de faire de telles évaluations.

« Si les autorités n’ont fondamentalement pas su que leur personnel a essayé Clearview – cela me semble assez étonnant et assez incroyable, pour être honnête », a-t-il déclaré. « C’est le travail des autorités chargées de l’application de la loi de connaître les circonstances dans lesquelles elles peuvent produire des données sur les citoyens et une responsabilité encore plus grande d’être tenus responsables de toute utilisation abusive des données des citoyens. »

« Si les autorités n’ont fondamentalement pas su que leur personnel avait essayé Clearview, je trouve cela assez étonnant. »

De nombreux experts et groupes de défense des droits civils ont fait valoir qu’il devrait y avoir une interdiction de l’utilisation gouvernementale de la reconnaissance faciale. Peu importe si un logiciel de reconnaissance faciale est précis, des groupes comme l’Algorithmic Justice League soutiennent que sans réglementation et surveillance appropriée, il peut provoquer une surpolice ou de fausses arrestations.

« Notre position générale est que la technologie de reconnaissance faciale est problématique, de sorte que les gouvernements ne devraient jamais l’utiliser », a déclaré Schmon. Non seulement il y a de fortes chances que les policiers abusent de la reconnaissance faciale, a-t-il déclaré, mais la technologie a tendance à mal identifier les personnes de couleur à des taux plus élevés que les Blancs.

Schmon a également noté que les outils de reconnaissance faciale ne fournissent pas de faits. Ils fournissent une probabilité qu’une personne corresponde à une image. « Même si les probabilités ont été conçues correctement, cela peut toujours refléter des biais », a-t-il déclaré. « Ils ne sont pas neutres. »

Clearview n’a pas répondre à des questions sur ses affirmations d’exactitude. Dans une déclaration de mars à BuzzFeed News, Ton-That a déclaré: « En tant que personne de race mixte, s’assurer que Clearview AI est non biaisé est d’une grande importance pour moi. » Il a ajouté: « Sur la base de tests indépendants et du fait qu’aucune arrestation injustifiée liée à l’utilisation de Clearview AI n’a été signalée, nous respectons cette norme. »

Bien qu’ils aient fait l’objet d’une enquête et, dans certains cas, aient été interdits dans le monde entier, les dirigeants de Clearview semblent avoir déjà commencé à jeter les bases d’une expansion ultérieure. La société a récemment levé 30 millions de dollars, selon le New York Times, et a procédé à un certain nombre de nouvelles embauches. En août dernier, les cofondateurs Ton-That et Richard Schwartz, ainsi que d’autres dirigeants de Clearview, sont apparus sur les documents d’enregistrement des sociétés appelées Standard International Technologies au Panama et à Singapour.

Dans une déposition pour un procès en cours aux États-Unis cette année, Thomas Mulcaire, dirigeant de Clearview, a fait la lumière sur l’objectif de ces sociétés. Bien que les filiales n’aient pas encore de clients, a-t-il déclaré, l’entité panaméenne a été créée pour « potentiellement traiter avec les organismes d’application de la loi en Amérique latine et dans les Caraïbes qui voudraient utiliser le logiciel Clearview ».

Mulcaire a également déclaré que la société singapourienne nouvellement formée pourrait faire des affaires avec les organismes asiatiques d’application de la loi. Dans un communiqué, Ton-That n’a pas confirmé ces intentions, mais n’a fourni aucune autre explication pour le déménagement.

« Clearview AI a mis en place deux entités internationales qui n’ont mené aucune activité », a-t-il déclaré. ●

REPORTAGES : Ken Bensinger, Salvador Hernandez, Brianna Sacks, Pranav Dixit, Logan McDonald, John Paczkowski, Mat Honan, Jeremy Singer-Vine, Ben King, Emily Ashton, Hannah Ryan