Ces caméras qui devinent si vous êtes heureux ou une menace

Le visage d'une femme en train d'être analysé

Crédit photo, Affectiva

Légende image, Affectiva dit que ses algorithmes peuvent détecter les émotions cachées dans les expressions faciales.
    • Author, Par Daniel Thomas
    • Role, Journaliste en technologie des affaires

La technologie de la reconnaissance faciale devient de plus en plus sophistiquée, et certaines entreprises affirment qu'elle peut même lire nos émotions et détecter des comportements suspects.

Mais quelles sont les implications pour la vie privée et les libertés civiles ?

La technologie de reconnaissance faciale existe depuis des décennies, mais elle a progressé à pas de géant ces dernières années grâce aux progrès de la vision informatique et de l'intelligence artificielle (IA), affirment les experts technologiques.

Il est maintenant utilisé pour identifier les gens aux frontières, déverrouiller les téléphones tactiles, repérer les criminels et authentifier les transactions bancaires.

Lire aussi

Mais certaines entreprises de technologie prétendent qu'elle peut aussi évaluer notre état émotionnel.

Depuis les années 1970, les psychologues affirment qu'ils sont capables de détecter les émotions cachées en étudiant les "micro expressions" du visage de quelqu'un sur des photographies et des vidéos.

Les algorithmes et les caméras haute définition peuvent gérer ce processus avec autant de précision et de rapidité, affirment les entreprises de technologie.

"On le voit déjà utilisé à des fins commerciales ", explique Oliver Philippou, expert en vidéosurveillance chez IHS Markit.

L'iPhone X peut être déverrouillé grâce à la reconnaissance faciale

Crédit photo, Apple

Légende image, L'iPhone X peut être déverrouillé grâce à la reconnaissance faciale

"Un supermarché pourrait l'utiliser dans les rayons, non pas pour identifier les gens, mais pour analyser qui est venu en termes d'âge et de sexe, ainsi que leur humeur de base.

Il peut aider à cibler le marketing et le placement de produits."

L'agence d'études de marché Kantar Millward Brown utilise une technologie développée par la société américaine Affectiva pour évaluer la réaction des consommateurs aux publicités télévisées.

Affectiva enregistre des vidéos des visages des gens - avec leur permission - puis "code" leurs expressions image par image pour évaluer leur humeur.

"Nous interrogeons les gens, mais nous obtenons beaucoup plus de nuances en regardant aussi leurs expressions. Vous pouvez voir exactement quelle partie d'une publicité fonctionne bien et la réaction émotionnelle qu'elle suscite ", explique Graham Page, directeur général de l'offre et de l'innovation chez Kantar Millward Brown.

La technologie de détection des émotions de WeSee en action

Crédit photo, WeSee

Légende image, La technologie de WeSee est utilisée pour évaluer l'état émotionnel des gens pendant les entrevues.

De manière plus controversée, un grand nombre de start-up offrent une "détection d'émotions" à des fins de sécurité.

L'entreprise britannique WeSee, par exemple, affirme que sa technologie d'IA peut détecter les comportements suspects en lisant des indices faciaux imperceptibles à l'œil non averti.

Les émotions, comme le doute et la colère, peuvent être cachées sous la surface, contrairement à la langue utilisée par une personne.

WeSee dit qu'elle a travaillé avec une organisation "de haut niveau" dans le domaine de l'application de la loi afin d'analyser les personnes interrogées.

"En n'utilisant que des séquences vidéo de faible qualité, notre technologie a la capacité de déterminer l'état d'esprit ou l'intention d'un individu à travers ses expressions faciales, sa posture, ses gestes et ses mouvements ", déclare le directeur général David Fulton à la BBC.

"À l'avenir, les caméras vidéo installées sur la plate-forme d'une station de métro pourraient utiliser notre technologie pour détecter les comportements suspects et alerter les autorités sur une menace terroriste potentielle.

Des fans au programme Biggest Weekend
Légende image, La surveillance des émotions pourrait-elle permettre de repérer les personnes susceptibles de causer des problèmes lors d'événements de grande envergure ?

"La même chose pourrait être faite avec les foules lors d'événements comme les matchs de football ou les rassemblements politiques."

Mais M. Philippou est sceptique quant à la précision de la détection des émotions.

"Lorsqu'il s'agit simplement d'identifier les visages, il existe encore des marges d'erreur décentes - les meilleures entreprises prétendent pouvoir identifier les personnes avec une précision de 90 à 92 %.

"Quand on essaie aussi d'évaluer les émotions, la marge d'erreur augmente considérablement."

Cela inquiète les militants de la protection de la vie privée qui craignent que la technologie de reconnaissance faciale ne porte des jugements erronés ou biaisés.

"Bien que je puisse imaginer qu'il existe des cas d'utilisation vraiment utiles, les répercussions sur la vie privée découlant de la surveillance émotionnelle, de la reconnaissance faciale et du profilage facial sont sans précédent ", affirme Frederike Kaltheuner de Privacy International.

La reconnaissance faciale simple est déjà assez controversée.

A South Wales Police surveillance camera

Crédit photo, South Wales Police

Légende image, South Wales Police scans faces using surveillance cameras

Lorsque les fêtards ont assisté au premier programme "Biggest Weekend" de la BBC Radio à Swansea en mai, beaucoup ne savaient pas que leur visage était scanné dans le cadre d'une vaste opération de surveillance par la police du sud du Pays de Galles.

La force avait déployé son système d'identification faciale automatisée (AFR), qui utilise des caméras de type CCTV et un logiciel NEC pour identifier les "personnes d'intérêt " et comparer leurs visages à une base de données d'images de garde à vue.

Un homme faisant l'objet d'un mandat d'arrêt a été identifié et arrêté "dans les 10 minutes" suivant le déploiement de la technologie au festival de musique, explique Scott Lloyd, chef de projet AFR pour la police du sud du Pays de Galles.

Ignorer X publication
Autoriser le contenu de X?

This article contains content provided by X. We ask for your permission before anything is loaded, as they may be using cookies and other technologies. You may want to read the X cookie policy and privacy policy before accepting. To view this content choose 'accept and continue'.

Attention: le contenu externe peut contenir des messages publicitaires

Fin de X publication

Mais le groupe de défense des droits de l'homme Liberty souligne que la technologie a donné lieu à un grand nombre de "fausses positives" comparaisons lors d'autres événements, tels que la finale de la Ligue des champions à Cardiff l'année dernière.

En juillet, Ed Bridges, un résident de Cardiff - représenté par Liberty - a intenté une action en justice contre la force, soutenant que l'AFR violait la vie privée des gens et n'était pas suffisamment surveillée, ouvrant la voie à une bataille devant la Haute Cour.

Lire également;

Mais la technologie devient plus sure, selon Patrick Grother, responsable des tests biométriques au National Institute of Standards & Technology, une agence fédérale américaine qui fait des recherches sur la reconnaissance faciale.

L'image montre un policier portant une paire de lunettes de soleil avec un système de reconnaissance faciale à la gare ferroviaire Est de Zhengzhou dans la province centrale du Henan, en Chine.

Crédit photo, AFP

Légende image, La police chinoise a récemment commencé à utiliser des lunettes de soleil équipées d'un système de reconnaissance faciale.

Il attribue les progrès technologiques récents au développement des "réseaux neuronaux convolutifs" - une forme avancée d'apprentissage machine qui permet un degré de précision beaucoup plus élevé.

"Ces algorithmes permettent aux ordinateurs d'analyser les images à différentes échelles et sous différents angles", dit-il.

"Vous pouvez identifier les visages avec beaucoup plus de précision, même s'ils sont partiellement masqués par des lunettes de soleil ou des foulards. Le taux d'erreur a décuplé depuis 2014, bien qu'aucun algorithme ne soit parfait."

M. Fulton de WeSee dit que sa technologie est simplement un outil pour aider les gens à évaluer les séquences vidéo existantes de manière plus intelligente.

Il ajoute que WeSee peut détecter les émotions sur les visages aussi efficacement qu'un humain le peut - "avec une précision d'environ 60%-70%".

Presentational grey line

Lire aussi

Technology logo

Crédit photo, Magnum Photos

Presentational grey line

"Pour l'instant, nous pouvons détecter les comportements suspects, mais non l'intention, afin d'empêcher que quelque chose de mal ne se produise. Mais je pense que c'est là où nous allons et nous faisons déjà des tests dans ce domaine."

Cela semble un pas de plus vers le concept de "pré-crime" présenté dans le film de science-fiction Minority Report, où des criminels potentiels sont arrêtés avant même que leurs crimes aient été commis.

Une autre préoccupation pour les organisations de défense des libertés civiles?

"La question clé que nous nous posons toujours est : qui construit cette technologie et à quelles fins ", déclare Frederike Kaltheuner, de Privacy International.

"Est-il utilisé pour nous aider -ou pour nous juger, nous évaluer et nous contrôler ?"