sourire, froncement de sourcils, Grimace et sourire – votre Expression faciale est la prochaine frontière du Big Data

le visage humain est alimenté, selon la façon dont vous les Comptez, par entre 23 et 43 muscles, dont beaucoup s’attachent à la peau, Un extraterrestre examinant un spécimen humain dans l’isolement ne saurait pas quoi faire d’eux., Tirant sur le front, les sourcils, les lèvres et les joues, les muscles diffusent une mine d’informations sur notre état émotionnel, notre niveau d’intérêt et notre vigilance. C’est un moyen de communication remarquablement efficace—presque instantané, généralement précis, transcendant la plupart des barrières linguistiques et culturelles. Mais parfois, les données sont perdues, ignorées ou mal interprétées. Si un bûcheron sourit dans la forêt sans personne autour de lui, était-il vraiment heureux?

à Partir de Cette Histoire

Rana el Kaliouby déteste voir ces informations vont à la poubelle., Rencontrant el Kaliouby dans son petit bureau à Waltham, Massachusetts, je la vois contracter son muscle majeur zygomaticus, soulevant les coins de sa bouche, et son orbicularis oculi, froissant les coins extérieurs de ses yeux. Elle sourit, et j’en déduis qu’elle m’accueille, avant même qu’elle ne sorte le mot « bonjour. »Mais de nombreux échanges sociaux se déroulent aujourd’hui sans interaction en temps réel en face à face. C’est là qu’el Kaliouby et sa compagnie entrent en scène.

El Kaliouby, qui a 37 ans, sourit souvent., Elle a un visage rond, agréable et expressif et une manière sollicitée, démentant sa position de cofondatrice d’une start-up technologique à croissance rapide-un anti-Bezos, un non—Zuckerberg. Son entreprise, Affectiva, qu’elle a fondée en 2009 avec une collègue du MIT Media Lab, Rosalind Picard, occupe une position à la pointe de la technologie pour utiliser des ordinateurs pour détecter et interpréter les expressions faciales humaines., Ce domaine, connu sous le nom de « calcul affectif”, cherche à combler le fossé de communication entre les êtres humains et les machines en ajoutant un nouveau mode d’interaction, y compris le langage non verbal des sourires, des sourires et des sourcils levés. ” La prémisse de ce que nous faisons est que les émotions sont importantes », explique el Kaliouby. « Les émotions ne perturbent pas notre pensée rationnelle mais la guident et l’informent. Mais ils sont absents de notre expérience numérique. Votre smartphone sait qui vous êtes et où vous êtes, mais il ne sait pas comment vous vous sentez. Nous avons pour objectif de résoudre ce problème. »

Pourquoi votre smartphone a-t-il besoin de savoir comment vous vous sentez?, El Kaliouby a une foule de réponses, toutes basées sur l’intégration apparemment illimitée des ordinateurs dans les routines de notre vie quotidienne. Elle envisage « la technologie pour contrôler l’éclairage, la température et la musique dans nos maisons en réponse à nos humeurs”, ou des applications qui peuvent adapter le contenu d’un film en fonction de vos réactions subconscientes pendant que vous regardez. Elle imagine des programmes qui peuvent surveiller votre expression pendant que vous conduisez et avertir de l’inattention, de la somnolence ou de la colère. Elle sourit à l’évocation de son idée préférée— »un réfrigérateur qui peut détecter quand vous êtes stressé et verrouille la crème glacée., »

en particulier, elle pense Qu’Affectiva, et la technologie qu’elle aide à introduire dans le courant dominant, sera une aubaine pour les soins de santé. Un chercheur testant un nouveau médicament, ou un thérapeute traitant un patient, n’obtient des commentaires qu’à intervalles réguliers, sous réserve de tous les problèmes d’auto-déclaration—le désir inconscient de plaire au médecin, par exemple, ou le rappel sélectif qui favorise les souvenirs les plus récents., El Kaliouby envisage un programme fonctionnant en arrière-plan de l’ordinateur portable ou du téléphone du sujet qui pourrait compiler un enregistrement moment par moment de son humeur au cours d’une période de temps (un jour, un mois) et le corréler à l’heure ou à toute autre chose que votre appareil peut mesurer ou suivre. « Il n’aurait même pas de faire partie d’un programme de traitement,” elle muses. « Vous pourriez simplement l’avoir sur votre téléphone et il vous dit, chaque fois que » X  » appelle, vous avez une expression négative, et cela vous dit quelque chose que vous ne saviez peut-être pas., »

abonnez-vous au magazine Smithsonian maintenant pour seulement 12

Cette histoire est une sélection du numéro de décembre du magazine Smithsonian.

Acheter

El Kaliouby promeut l’informatique affective comme la prochaine étape logique dans la progression du clavier à la souris, de l’écran tactile à la reconnaissance vocale. Au printemps, Affectiva a publié son premier kit de développement logiciel commercial, que les développeurs, intéressés par les états émotionnels en temps réel des utilisateurs, peuvent intégrer dans leurs propres programmes-lecteurs de musique ou jeux ou applications de rencontres, par exemple., Et cet automne, Affectiva a lancé Emotion As a Service, un programme basé sur le cloud auquel les clients peuvent télécharger des vidéos pour analyse. Qui pourrait utiliser cela? Un candidat sur le point d’être interviewé pour un emploi, qui craint de paraître anxieux ou ennuyé ou même de trop sourire. Ou une compagnie aérienne embauchant des agents de bord, avec des centaines d’applications vidéo à passer au crible à la recherche de ceux qui peuvent gérer un sourire convaincant en faisant leurs adieux aux passagers., (Un sourire authentique, qui implique une contraction des muscles aux coins des yeux, est appelé un sourire « Duchenne”, du nom de l’anatomiste du 19ème siècle; son contraire, un sourire forcé qui utilise uniquement la bouche, est en fait parfois appelé un sourire « Pan Am”.)

et, bien sûr, les appareils exécutant ce logiciel sont tous connectés à Internet, de sorte que les informations qu’ils collectent sont instantanément agrégées, tamisées et mises en réseau de la manière dont les applications de médias sociaux identifient des sujets ou des personnalités populaires., Compilé, peut-être, en quelque chose comme un indice D’Humeur Affectiva, une lecture numérique sur le bonheur national brut, ou décomposé en régions où les sourires ou les sourcils sont actuellement tendance.

le programme de base D’Affectiva analyse le visage 20 fois par seconde pour 46 expressions localisées de bonheur, de tristesse, de surprise, de peur, de colère, de dégoût et de mépris, ainsi que d’intérêt et de confusion., (Naomi Shavin / Smithsonian)

Jusqu’à présent, les principaux clients D’Affectiva étaient des sociétés de publicité, de marketing et de médias. Son logiciel automatise le processus de fonctionnement d’un groupe de discussion, le rituel fastidieux consistant à réunir une douzaine de personnes dans une salle pour donner leur avis sur un nouveau produit, une série télévisée ou une campagne publicitaire; il enregistre directement les réactions, sans qu’un participant ait à tourner un cadran ou à répondre à un questionnaire en réponse à, De plus, le logiciel étend le groupe de discussion potentiel au monde entier, ou du moins à la fraction substantielle de celui-ci qui dispose d’un ordinateur ou d’un appareil mobile compatible webcam.

Les Commentaires de L’œil implacable et voyant d’Affectiva ont contribué à façonner une sitcom de télévision en réseau, reléguant deux personnages à l’oubli pour le péché de ne pas faire sourire les téléspectateurs. (El Kaliouby ne veut pas identifier le spectacle ou les personnages.) Son logiciel a été utilisé pour construire un « smile sampler”, une machine qui distribuait des barres chocolatées aux acheteurs qui souriaient dans son appareil photo., Avec plus de recherche, il pourrait probablement être utile pour la surveillance des foules dans les aéroports, ou pour identifier les voleurs à l’étalage potentiels, ou comme détecteur de mensonge.

mais el Kaliouby a résisté à ces applications subreptices, aussi lucratives soient-elles. Elle pense que l’informatique affective va changer le monde, y compris, mais sans s’y limiter, la vente de barres chocolatées. ” L’éthique de notre entreprise », dit-elle,  » est d’utiliser cette technologie pour améliorer la vie des gens et les aider à mieux communiquer, pas seulement pour aider les annonceurs à vendre plus de produits.,”

**********

contrairement à de nombreux entrepreneurs technologiques, devenir riche n’était pas au programme initial d’el Kaliouby. Née au Caire de parents Égyptiens qui travaillent tous deux dans la technologie, elle a étudié l’informatique à L’Université Américaine du Caire, où elle a obtenu son diplôme en 1998, à l’époque où les ordinateurs devenaient assez puissants pour que les chercheurs pensent à les doter de ce qu’on appelle l’intelligence émotionnelle en termes humains.

elle a continué à étudier l’informatique à L’Université de Cambridge, arrivant juste après les attaques contre L’Amérique du 11 septembre 2001., Ses parents pensaient qu’elle risquait d’être arrêtée, harcelée ou pire à cause de son héritage. Mais bien qu’elle portait un couvre-chef musulman jusqu’à il y a quelques années, ni à Cambridge, en Angleterre, ni à Cambridge, dans le Massachusetts, où elle a déménagé en 2006, pour rejoindre le MIT Media Lab, n’a-t-elle jamais été dérangée par sa religion ou son apparence. « Je pense que c’est parce que je souris beaucoup,” dit-elle en souriant.

L’anatomiste français Duchenne a publié des études marquantes sur les expressions faciales humaines., (Bridgeman Images)

alors qu’elle était à Cambridge, elle s’était intéressée au problème de l’autisme, en particulier à la difficulté des enfants autistes à lire les expressions faciales. Elle a proposé de construire une « aide auditive émotionnelle » qui pourrait être portée pour lire les visages et indiquer les comportements appropriés au porteur., Refusée dans un premier temps pour une subvention de la National Science Foundation au motif que le projet était trop difficile, elle et ses collègues ont construit un prototype, composé d’une paire de lunettes équipées d’un petit appareil photo, de lumières clignotantes et d’un casque, un peu comme une première version de Google Glass. Une deuxième demande de subvention a été acceptée et, après son déménagement au MIT, elle et son équipe ont travaillé pendant les trois prochaines années pour le perfectionner et le tester dans une école du Rhode Island., El Kaliouby le décrit comme « un projet de recherche, et un succès » – les enfants autistes qui l’ont utilisé ont eu des expériences extrêmement positives-mais en 2008, à la fin de la subvention, elle a fait face à un moment de jugement. L’intérêt Commercial pour l’informatique affective augmentait, et elle voulait le voir s’étendre et prospérer; mettre ses efforts dans le développement des lunettes le limiterait à une infime partie de ses utilisations potentielles. Ainsi, avec Picard, elle a filé Affectiva, tout en espérant qu’une autre entreprise récupérerait l’aide auditive émotionnelle et la mettrait sur le marché.,

lors de la création D’Affectiva, la poignée de « membres de l’équipe” qui composent l’entreprise ont chacun choisi une valeur qu’ils voulaient incarner, telle que « l’Apprentissage”, « la responsabilité sociale” ou « le plaisir ». »La sienne, en tant que chef de la stratégie et de la science, était « passion.” L’entreprise de 20 personnes est gérée comme une quasi-démocratie, avec des réunions semestrielles au cours desquelles les employés votent sur les priorités à poursuivre au cours des six prochains mois., Son bureau a un tableau blanc recouvert de dessins de la jeune fille d’un de ses collègues; elle a un fils de 6 ans, Adam, et une fille de 12 ans, Jana, qui vivent avec elle dans la banlieue de Boston (leur père vit en Egypte). Sa manière est douce et prévenante; une heure après une réunion du matin, elle propose de commander un sandwich pour un visiteur, même si elle-même saute le déjeuner. « C’est le Ramadan pour moi,” dit-elle en souriant, « mais c’est pas le Ramadan pour vous., »

elle place les visiteurs à un bureau, face à un moniteur et une webcam; le logiciel localise le visage du visiteur et dessine une boîte autour de lui sur l’écran. Il identifie un ensemble de points à suivre: les coins des yeux et de la bouche, le bout du nez, etc. Vingt fois par seconde, le logiciel recherche des « unités d’action », le jeu souvent fugace des muscles sur le visage. Il y en a 46, selon le système standard de classification, le système de codage de l’Action Faciale (FACS)., Ils comprennent les leveurs de sourcils intérieurs et extérieurs, les fossettes, les clignotements, les clins d’œil et les puckers de lèvre, les entonnoirs, les presseurs et les suceurs. Le programme standard d’Affectiva échantillonne environ 15 d’entre eux à tout moment et les analyse pour les expressions de sept émotions de base: bonheur, tristesse, surprise, Peur, Colère, Dégoût et mépris, plus intérêt et confusion. Souriez, et vous pouvez voir la mesure du bonheur tirer vers le haut; enroulez votre lèvre dans un ricanement et le programme note votre dégoût.

Ou, plus précisément, votre expression de dégoût., Toute la prémisse de l’informatique affective repose sur ce qui équivaut à un acte de foi, à savoir qu’un sourire transmet un sentiment de bonheur, de plaisir ou d’amusement. Bien sûr, les êtres humains sont dans la même position: nous pouvons nous laisser berner par un faux sourire ou une colère feinte, nous ne pouvons donc pas vraiment attendre plus d’un programme informatique, du moins pas encore.

Au fil du temps, Affectiva a constitué une archive de plus de trois millions de vidéos de visages, téléchargées par des internautes recrutés dans quelque 75 pays du monde entier., Des centaines de milliers d’entre eux ont été analysés par des observateurs qualifiés et codés pour les unités D’action FACS—une entreprise monumentale, car les vidéos durent en moyenne environ 45 secondes et chacune prend environ cinq fois plus de temps à traiter. Les résultats des codeurs humains, à leur tour, ont été utilisés pour « former” les algorithmes de l’entreprise, qui ont traité le reste en temps réel. L’ensemble de la base de données comprend désormais environ 40 milliards de « points de données émotionnelles », une ressource, se vante el Kaliouby, qui distingue Affectiva des autres entreprises du même domaine, telles que Emotient, basée en Californie, probablement son concurrent le plus proche.,

(graphique: Infographie 5W; Source: Daniel McDuff, MIT Media Lab, Affectiva)

Daniel McDuff, qui a rejoint Affectiva du MIT Media Lab et occupe le poste de directeur de la recherche, étudie continuellement ce trésor pour obtenir des informations supplémentaires sur l’expression des émotions. En quoi diffèrent-ils selon l’âge, le sexe et la culture? (Peut-être étonnamment, McDuff a constaté que les personnes âgées sont plus expressives, en particulier des émotions positives, que les plus jeunes.,) Pouvons-nous mesurer de manière fiable le mépris, l’embarras, l’ennui, l’anxiété? Quand un sillon de front signale-t-il la confusion et quand indique-t-il la concentration? Comment faire la distinction entre une expression de peur et une expression de surprise? (Indice: L’unité D’Action 1, le” sourcil intérieur », est le marqueur de la peur; l’unité d’action 2, le” sourcil extérieur », indique la surprise.) Il y a, dit-il, Toutes les raisons de croire que le programme continuera à mieux détecter les expressions (bien qu’il ne puisse jamais surmonter complètement le plus grand obstacle de tous: Botox).,

à ma demande, McDuff a donné au programme l’un des grands problèmes classiques de détection des émotions, La Joconde, dont le quasi-sourire énigmatique intrigue les téléspectateurs depuis 500 ans. Avec la mise en garde que le logiciel fonctionne mieux sur les expressions changeantes, pas des images statiques, il a rapporté qu’il n’a trouvé aucune preuve d’un véritable sourire par La Gioconda, mais plutôt une combinaison d’action unit 28 (Lip roll) et 24 (lips pressed together), suggérant peut-être un certain niveau d’inconfort.,

**********

« je vous parle maintenant,” el Kaliouby dit, « et vous regarde de mesurer votre intérêt dans ce que je dis. Devrais-je ralentir et expliquer plus? Dois-je aller à un autre sujet? Maintenant, imaginez que je donne un webinaire à un grand groupe que je ne peux pas voir ou entendre. Je ne reçois aucun commentaire, il n’y a aucun moyen de dire si une blague a fonctionné ou est tombée à plat, si les gens sont fiancés ou s’ennuient. Ne serait-il pas génial d’obtenir ce feedback en temps réel, agrégé, d’un moment à l’autre au fur et à mesure?, »

elle joue une publicité pour Jibo, un” robot social  » disponible en précommande sur le site de financement participatif Indiegogo et développé par une ancienne collègue du MIT, Cynthia Breazeal. Ressemblant à une lampe à lave de haute technologie, Jibo est assis sur une table et scanne son environnement, identifiant les individus par leur visage et interagissant avec eux—relayant des messages, émettant des rappels, passant des appels téléphoniques de routine, discutant même. Il s’agit d’une autre application potentielle pour le logiciel D’Affectiva—les entreprises sont en pourparlers—et c’est « une perspective très excitante”, dit el Kaliouby.,

excitant pour certains, mais la perspective de robots de traitement des émotions est alarmante pour d’autres. Sherry Turkle, qui a longtemps étudié comment les humains se rapportent aux ordinateurs, met en garde dans son nouveau livre, Reclaiming Conversation: The Power of Talk in a Digital Age, sur le « moment robotique”, lorsque les machines commencent à se substituer à la compagnie humaine. Turkle croit que des scientifiques comme el Kaliouby et son équipe peuvent faire ce qu’ils disent qu’ils feront. « Ce sont tous des gens brillants et doués qui font un travail brillant”, dit-elle., Et elle convient que dans certains contextes-environnements dangereux, tels que l’espace ou autour de machines lourdes, où vous voulez faire appel à tous les modes de communication possibles—l’informatique affective a un rôle à jouer. « Mais la prochaine étape”, dit-elle, « ne suivent pas du tout. La prochaine étape est, faisons un ami robot. J’ai interviewé des parents qui sont heureux que leurs enfants parlent à Siri, et je pense que cela ne nous emmène pas sur une route où nous voulons aller., Nous nous définissons comme des êtres humains par qui nous nous associons, et cela n’a aucun sens pour moi de former votre sentiment d’estime de soi par rapport à une machine. Pourquoi voudriez-vous qu’un ordinateur sache si vous êtes triste? »

même el Kaliouby est enclin à convenir que” nous passons plus de temps que nous ne devrions avec nos appareils », ayant en tête, naturellement, sa fille préadolescente, dont le regard se verrouille sur l’écran de son smartphone.

Mais elle considère la tendance vers une connectivité toujours plus grande comme irréversible, et elle pense que, même si les utilisateurs devraient toujours avoir à s’y inscrire, Nous pourrions aussi bien en tirer le meilleur parti., Elle prédit que nos appareils auront « une puce d’émotion et une suite d’applications qui l’utilisent d’une manière qui ajoute suffisamment de valeur à nos vies pour l’emporter sur les préoccupations des gens dans le partage de ces données. »Elle fait une analogie avec les appareils GPS: l’informatique Affective peut nous aider à naviguer dans l’espace émotionnel de la même manière que les applications téléphoniques nous aident à nous déplacer dans l’espace physique. « Tout le monde s’inquiétait également des dispositifs de détection de localisation lorsqu’ils sont sortis pour la première fois: ils envahissaient notre vie privée, ils nous suivaient tout le temps”, dit-elle. « Seulement maintenant, nous serions tous perdus sans Google Maps sur nos téléphones. Je pense que ce sera la même chose.,”

**********

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *