Sorriso, Cipiglio, smorfia e sorriso – La tua espressione facciale è la prossima frontiera nei Big Data

Il volto umano è alimentato, a seconda di come li si conta, da 23 a 43 muscoli, molti dei quali si attaccano alla pelle, senza alcuna funzione ovvia per la sopravvivenza. Un alieno che esamina un esemplare umano in isolamento non saprebbe cosa farne., Tirando sulla fronte, sopracciglia, labbra e guance, i muscoli trasmettono una ricchezza di informazioni sul nostro stato emotivo, livello di interesse e vigilanza. È un mezzo di comunicazione straordinariamente efficiente – quasi istantaneo, di solito accurato, che trascende la maggior parte delle barriere linguistiche e culturali. Ma a volte i dati vengono persi, ignorati o male interpretati. Se un taglialegna sorride nella foresta senza nessuno intorno a vederlo, era davvero felice?

Da questa storia

Rana el Kaliouby odia vedere che le informazioni vanno sprecate., Incontrando el Kaliouby nel suo piccolo ufficio a Waltham, Massachusetts, la vedo contrarre il suo muscolo zigomatico maggiore, sollevando gli angoli della bocca, e il suo orbicularis oculi, increspando gli angoli esterni dei suoi occhi. Lei sorride, e deduco che lei mi sta dando il benvenuto, prima ancora di uscire la parola ” ciao.”Ma molti scambi sociali oggi avvengono senza interazione faccia a faccia in tempo reale. Ecco dove entrano el Kaliouby e la sua compagnia.

El Kaliouby, che ha 37 anni, sorride spesso., Ha un viso rotondo, piacevole, espressivo e un modo sollecito, smentendo la sua posizione di co-fondatore di una start-up tecnologica in rapida crescita-un anti—Bezos, un non-Zuckerberg. La sua azienda, Affectiva, che ha fondato nel 2009 con un allora collega al MIT Media Lab, Rosalind Picard, occupa una posizione all’avanguardia della tecnologia per utilizzare i computer per rilevare e interpretare le espressioni facciali umane., Questo campo, noto come “affective computing”, cerca di colmare il divario di comunicazione tra esseri umani e macchine aggiungendo una nuova modalità di interazione, incluso il linguaggio non verbale di sorrisi, sorrisetti e sopracciglia sollevate. ” La premessa di ciò che facciamo è che le emozioni sono importanti”, dice el Kaliouby. “Le emozioni non interrompono il nostro pensiero razionale, ma lo guidano e lo informano. Ma mancano dalla nostra esperienza digitale. Lo smartphone sa chi sei e dove ti trovi, ma non sa come ti senti. Miriamo a risolvere questo problema.”

Perché il tuo smartphone ha bisogno di sapere come ti senti?, El Kaliouby ha una serie di risposte, tutte basate sull’integrazione apparentemente sconfinata dei computer nelle routine della nostra vita quotidiana. Immagina ” la tecnologia per controllare l’illuminazione, la temperatura e la musica nelle nostre case in risposta ai nostri stati d’animo” o app in grado di adattare il contenuto di un film in base alle tue reazioni subconsce mentre guardi. Immagina programmi in grado di monitorare la tua espressione mentre guidi e avverti di disattenzione, sonnolenza o rabbia. Sorride alla menzione della sua idea preferita-” un frigorifero che può percepire quando si è stressati e blocca il gelato.,”

In particolare, lei pensa Affectiva, e la tecnologia che sta aiutando a inaugurare nel mainstream, sarà un vantaggio per l’assistenza sanitaria. Un ricercatore che prova un nuovo farmaco, o un terapeuta che cura un paziente, ottiene un feedback solo a intervalli, soggetti a tutti i problemi di auto-segnalazione—il desiderio inconscio di compiacere il medico, per esempio, o il richiamo selettivo che favorisce i ricordi più recenti., El Kaliouby prevede un programma in esecuzione in background del computer portatile o telefono del soggetto che potrebbe compilare un record momento per momento del suo stato d’animo nel corso di un periodo di tempo (un giorno, un mese) e correlarlo al tempo o qualsiasi altra cosa il dispositivo può misurare o tenere traccia. ” Non dovrebbe nemmeno essere parte di un programma di trattamento”, riflette. “Potresti semplicemente averlo sul tuo telefono e ti dice, ogni volta che’ X’ chiama hai un’espressione negativa, e questo ti dice qualcosa che potresti non aver conosciuto.,”

Iscriviti alla rivista Smithsonian ora per soli $12

Questa storia è una selezione dal numero di dicembre della rivista Smithsonian.

Acquista

El Kaliouby promuove affective computing come il logico passo successivo nella progressione dalla tastiera al mouse al touchscreen al riconoscimento vocale. In primavera, Affectiva ha rilasciato il suo primo kit di sviluppo software commerciale, che gli sviluppatori, interessati a stati emotivi in tempo reale degli utenti, possono incorporare nei propri programmi – lettori musicali o di gioco o incontri applicazioni, per esempio., E proprio questo autunno Affectiva ha lanciato Emotion As a Service, un programma basato su cloud a cui i clienti possono caricare video per l’analisi. Chi potrebbe usarlo? Un candidato che sta per essere intervistato per un lavoro, che è preoccupato di apparire ansioso o annoiato o addirittura sorridere troppo. O una compagnia aerea che assume assistenti di volo, con centinaia di applicazioni video per vagliare alla ricerca di coloro che possono gestire un sorriso convincente mentre offrono ai passeggeri addio., (Un sorriso genuino, che comporta una contrazione dei muscoli agli angoli degli occhi, è chiamato un sorriso “Duchenne”, dal nome dell’anatomista del xix secolo; il suo opposto, un sorriso forzato che usa solo la bocca, è in realtà a volte chiamato un sorriso” Pan Am”.)

E, naturalmente, i dispositivi che eseguono questo software sono tutti connessi a Internet, in modo che le informazioni che raccolgono siano aggregate istantaneamente, setacciate e collegate in rete nel modo in cui le app dei social media identificano argomenti o personalità popolari., Compilato, forse, in qualcosa di simile a un indice di umore Affectiva, una lettura numerica sulla felicità nazionale lorda, o suddiviso in regioni in cui i sorrisi o le sopracciglia sono attualmente in trend.

Il programma base di Affectiva analizza il volto 20 volte al secondo per 46 espressioni localizzate di felicità, tristezza, sorpresa, paura, rabbia, disgusto e disprezzo, oltre a interesse e confusione., (Naomi Shavin / Smithsonian)

Fino ad ora, i principali clienti di Affectiva sono state società di pubblicità, marketing e media. Il suo software automatizza il processo di esecuzione di un focus group, il rituale ingombrante di assemblare una dozzina di persone in una stanza per dare le loro opinioni su un nuovo prodotto, serie TV o campagna pubblicitaria; registra le reazioni direttamente, senza che un partecipante debba girare un quadrante o rispondere a un questionario in risposta a una presentazione., Inoltre, il software espande il potenziale focus group a tutto il mondo, o almeno la parte sostanziale di esso che ha un computer abilitato per webcam o un dispositivo mobile.

Il feedback dell’occhio implacabile e onniveggente di Affectiva ha contribuito a modellare una sitcom televisiva di rete, consegnando due personaggi all’oblio per il peccato di non far sorridere gli spettatori. (El Kaliouby non identificherà lo spettacolo o i personaggi.) Il suo software è stato utilizzato per costruire un “smile sampler”, una macchina che distribuiva barrette di caramelle agli acquirenti che sorridevano nella sua fotocamera., Con ulteriori ricerche, potrebbe probabilmente essere utile per la sorveglianza della folla negli aeroporti, o per identificare potenziali taccheggiatori, o come un rilevatore di bugie.

Ma el Kaliouby ha resistito a queste applicazioni surrettizie, per quanto redditizie possano essere. Pensa che l’informatica affettiva cambierà il mondo, incluso, ma non limitato a, la vendita di barrette di caramelle. “L’ethos della nostra azienda”, afferma, ” è quello di utilizzare questa tecnologia per migliorare la vita delle persone e aiutarle a comunicare meglio, non solo per aiutare gli inserzionisti a vendere più prodotti.,”

**********

A differenza di molti imprenditori tecnologici, diventare ricchi non era nell’agenda originale di el Kaliouby. Nata al Cairo da genitori egiziani che lavorano entrambi in tecnologia, ha studiato informatica all’American University del Cairo, dove si è laureata nel 1998, nel periodo in cui i computer stavano diventando abbastanza potenti da permettere ai ricercatori di pensare di dotarli di quella che in termini umani viene chiamata intelligenza emotiva.

Ha continuato a studiare informatica all’Università di Cambridge, arrivando subito dopo gli attacchi all’America dell ‘ 11 settembre 2001., I suoi genitori pensavano che rischiasse di essere arrestata, molestata o peggio a causa della sua eredità. Ma anche se indossava un musulmano copricapi fino a un paio di anni fa, né a Cambridge, in Inghilterra, né a Cambridge, Massachusetts, dove si è trasferita nel 2006, per unirsi al MIT Media Lab, era lei mai preoccupato per la sua religione o aspetto. “Penso che sia perché sorrido molto”, dice sorridendo.

L’anatomista francese Duchenne ha pubblicato importanti studi sulle espressioni facciali umane., (Bridgeman Images)

Mentre era a Cambridge, si era interessata al problema dell’autismo, in particolare alla difficoltà che i bambini autistici hanno nella lettura delle espressioni facciali. Ha proposto di costruire un “apparecchio acustico emotivo” che potrebbe essere indossato per leggere i volti e indicare comportamenti appropriati a chi lo indossa., Rifiutato in un primo momento per una sovvenzione da parte della National Science Foundation sulla base del fatto che il progetto era troppo difficile, lei ei suoi colleghi costruito un prototipo, costituito da un paio di occhiali dotati di una piccola macchina fotografica, luci lampeggianti e una cuffia, non diversamente da una prima versione di Google Glass. Una seconda domanda di sovvenzione ha avuto successo e, dopo essersi trasferita al MIT, lei e il suo team hanno lavorato per i prossimi tre anni per perfezionarlo e testarlo in una scuola del Rhode Island., El Kaliouby lo descrive come”un progetto di ricerca e di successo ” —i bambini autistici che lo hanno utilizzato hanno avuto esperienze estremamente positive—ma nel 2008, al termine della sovvenzione, ha affrontato un momento di resa dei conti. L’interesse commerciale per il calcolo affettivo stava crescendo e voleva vederlo espandersi e prosperare; mettere i suoi sforzi nello sviluppo degli occhiali lo avrebbe limitato a una piccola fetta dei suoi potenziali usi. Così, insieme a Picard, ha scorporato Affectiva, pur tenendo fuori la speranza che un’altra società avrebbe preso l’apparecchio acustico emotivo e portarlo sul mercato.,

Quando si è formata Affectiva, la manciata di “membri del team” che componevano l’azienda hanno scelto ciascuno un valore che volevano incarnare, come “apprendimento” o “responsabilità sociale” o “divertimento.”La sua, come Chief strategy and science officer, era “passione.”L’azienda di 20 persone è gestita come una quasi-democrazia, con riunioni semestrali in cui i dipendenti votano sulle priorità da perseguire nei prossimi sei mesi., Il suo ufficio ha una lavagna coperta di disegni della giovane figlia di uno dei suoi colleghi; ha un figlio di 6 anni, Adam, e una figlia di 12 anni, Jana, che vivono con lei nella periferia di Boston (il loro padre vive in Egitto). Il suo modo è mite e premuroso; un’ora in una riunione del mattino si offre di ordinare un panino per un visitatore, anche se lei stessa sta saltando il pranzo. ” È il Ramadan per me”, dice sorridendo, ” ma non è il Ramadan per te.,”

Fa sedere i visitatori a una scrivania, di fronte a un monitor e una webcam; il software individua il volto del visitatore e disegna una scatola intorno ad esso sullo schermo. Identifica una serie di punti da tracciare: gli angoli degli occhi e della bocca, la punta del naso e così via. Venti volte al secondo, il software cerca “unità d’azione”, il gioco spesso fugace dei muscoli sul viso. Ce ne sono 46, secondo il sistema standard di classificazione, il Facial Action Coding System (FACS)., Essi comprendono interno ed esterno fronte raisers, fossette, lampeggia, strizzatine d ” occhio e labbro pucker, imbutitori, pressori e succhia. Il programma standard di Affectiva campiona circa 15 di questi in qualsiasi momento e li analizza per le espressioni di sette emozioni di base: felicità, tristezza, sorpresa, paura, rabbia, disgusto e disprezzo, oltre a interesse e confusione. Sorridi, e puoi vedere la misura della felicità sparare; arricciare il labbro in un ghigno e il programma nota il tuo disgusto.

O, più precisamente, la tua espressione di disgusto., L’intera premessa del calcolo affettivo si basa su ciò che equivale a un atto di fede, che un sorriso trasmette una sensazione di felicità, o piacere, o divertimento. Naturalmente, gli esseri umani sono nella stessa posizione: possiamo essere ingannati da un falso sorriso o finta rabbia, quindi non possiamo davvero aspettarci di più da un programma per computer, almeno non ancora.

Nel tempo Affectiva ha costruito un archivio di oltre tre milioni di video di volti, caricati da utenti Internet reclutati da circa 75 paesi in tutto il mondo., Centinaia di migliaia di questi sono stati analizzati da osservatori addestrati e codificati per unità di azione FACS—un’impresa monumentale, dal momento che i video in media circa 45 secondi e ciascuno richiede circa cinque volte più tempo per elaborare. I risultati dei programmatori umani, a loro volta, sono stati utilizzati per “addestrare” gli algoritmi dell’azienda, che hanno elaborato il resto in tempo reale. L’intero database comprende ora circa 40 miliardi di “emotion data points”, una risorsa, vanta el Kaliouby, che distingue Affectiva da altre società nello stesso campo, come Emotient con sede in California, probabilmente il suo concorrente più vicino.,

(Grafico: 5W Infografica; Fonte: Daniel McDuff, MIT Media Lab, Affective)

Daniele McDuff, che è entrato in Affective dal MIT Media Lab e serve come direttore di ricerca, è continuamente lo studio di questo tesoro per ulteriori approfondimenti l’espressione delle emozioni. In che modo differiscono per età, sesso e cultura? (Forse sorprendentemente, McDuff ha scoperto che le persone anziane sono più espressive, specialmente delle emozioni positive, di quelle più giovani.,) Possiamo misurare in modo affidabile disprezzo, imbarazzo, noia, ansia? Quando un solco della fronte segnala confusione e quando indica concentrazione? Come possiamo distinguere tra un’espressione di paura e una che significa sorpresa? (Suggerimento: l’unità di azione 1,” inner brow raiser”, è il marcatore della paura; l’unità di azione 2, “outer brow raiser”, indica sorpresa. Ci sono, dice, tutte le ragioni per credere che il programma continuerà a migliorare nel rilevare le espressioni (anche se potrebbe mai superare completamente l’ostacolo più grande di tutti: il Botox).,

Su mia richiesta, McDuff ha dato al programma uno dei grandi problemi classici del rilevamento delle emozioni, la Gioconda, il cui enigmatico quasi-sorriso ha incuriosito gli spettatori per 500 anni. Con l’avvertenza che il software funziona meglio sulle espressioni mobili, non sulle immagini statiche, ha riferito di non aver trovato alcuna prova di un sorriso genuino di La Gioconda, ma piuttosto una combinazione di action unit 28 (lip roll) e 24 (lips pressed together), forse suggerendo un certo livello di disagio.,

**********

“Sto parlando con te ora”, dice el Kaliouby, ” e ti guardo per valutare il tuo interesse per quello che sto dicendo. Dovrei rallentare e spiegare di più? Dovrei andare a un altro argomento? Ora, immagina di dare un webinar a un grande gruppo che non riesco a vedere o sentire. Non ricevo feedback, non c’è modo di dire se uno scherzo ha funzionato o è caduto, se le persone sono impegnate o annoiate. Non sarebbe bello ottenere quel feedback in tempo reale, aggregato, da un momento all’altro mentre vado avanti?,”

Suona un annuncio per Jibo, un” robot sociale ” disponibile per il preordine sul sito web di crowd-funding Indiegogo e sviluppato da un ex collega del MIT, Cynthia Breazeal. Guardando qualcosa come una lampada di lava ad alta tecnologia, Jibo si siede su un tavolo e scansiona l’ambiente circostante, identificando gli individui per viso e interagendo con loro—inoltro di messaggi, emissione di promemoria, fare telefonate di routine, anche chiacchierando. Questa è un’altra potenziale applicazione per il software di Affectiva—le aziende sono in trattative—ed è “una prospettiva molto eccitante”, dice el Kaliouby.,

Eccitante per alcuni, ma la prospettiva di robot di elaborazione delle emozioni è allarmante per gli altri. Sherry Turkle, che ha studiato a lungo come gli umani si relazionano con i computer, avverte nel suo nuovo libro, Reclaiming Conversation: The Power of Talk in a Digital Age, sul “momento robotico”, quando le macchine iniziano a sostituire la compagnia umana. Turkle crede che scienziati come el Kaliouby e il suo team possano fare quello che dicono di fare. ” Queste sono tutte persone brillanti e dotate che fanno un lavoro brillante”, dice., E lei concorda sul fatto che in certi contesti—ambienti pericolosi, come lo spazio esterno o intorno a macchinari pesanti, dove si vuole arruolare ogni possibile modalità di comunicazione—affective computing ha un ruolo da svolgere. “Ma il passo successivo”, dice,” non segue affatto. Il prossimo passo è, Facciamo un amico robot. Ho intervistato i genitori che sono felici i loro figli stanno parlando con Siri, e penso che non ci sta prendendo una strada in cui vogliamo andare., Ci definiamo esseri umani con chi ci associamo, e non ha senso per me formare il tuo senso di autostima in relazione a una macchina. Perché si vuole un computer per sapere se sei triste?”

Anche el Kaliouby è incline a concordare sul fatto che” stiamo spendendo più tempo di quanto dovremmo con i nostri dispositivi”, avendo in mente, naturalmente, la figlia preteen, il cui sguardo si blocca sullo schermo dello smartphone.

Ma considera irreversibile la tendenza verso una connettività sempre maggiore e pensa che, mentre gli utenti dovrebbero sempre optare, potremmo anche sfruttare al meglio., Lei prevede che i nostri dispositivi avranno “un chip emozione e una suite di applicazioni che lo utilizzano in un modo che aggiunge abbastanza valore alla nostra vita che supera le preoccupazioni delle persone nella condivisione di questi dati.”Disegna un’analogia con i dispositivi GPS: l’elaborazione affettiva può aiutarci a navigare nello spazio emotivo allo stesso modo in cui le app telefoniche ci aiutano a muoversi nello spazio fisico. “Anche tutti si preoccupavano dei dispositivi di rilevamento della posizione quando sono usciti per la prima volta: stavano invadendo la nostra privacy, ci stavano seguendo tutto il tempo”, dice. “Solo ora, saremmo tutti persi senza Google Maps sui nostri telefoni. Penso che questo sarà lo stesso.,”

**********

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *