sonríe, frunce el ceño, mueca y sonrisa – tu expresión Facial es la próxima frontera en Big Data

el rostro humano está alimentado, dependiendo de cómo los cuentes, por entre 23 y 43 músculos, muchos de los cuales se adhieren a la piel, no sirviendo ninguna función obvia para la supervivencia. Un alienígena examinando un espécimen humano en aislamiento no sabría qué hacer con ellos., Tirando de la frente, las cejas, los labios y las mejillas, los músculos transmiten una gran cantidad de información sobre nuestro estado emocional, nivel de interés y estado de alerta. Es un medio de comunicación notablemente eficiente, casi instantáneo, por lo general preciso, que trasciende la mayoría de las barreras lingüísticas y culturales. Pero a veces los datos se pierden, se ignoran o se malinterpretan. Si un leñador sonríe en el bosque sin nadie alrededor para verlo, ¿era realmente feliz?

de esta historia

Rana el Kaliouby odia ver que la información se desperdicie., Conociendo a El Kaliouby en su pequeña oficina en Waltham, Massachusetts, la veo contraer su músculo mayor zygomaticus, elevando las comisuras de su boca, y su orbicularis oculi, arrugando las comisuras externas de sus ojos. Ella sonríe, y deduzco que me está dando la bienvenida, incluso antes de que salga la palabra » hola.»Pero muchos intercambios sociales hoy tienen lugar sin interacción cara a cara en tiempo real. Ahí es donde entra el Kaliouby, y su compañía.

El Kaliouby, que tiene 37 años, sonríe a menudo., Tiene un rostro redondo, agradable, expresivo y una manera solícita, lo que desmiente su posición como cofundadora de una start-up tecnológica de rápido crecimiento: un anti-Bezos, un un-Zuckerberg. Su empresa, Affectiva, que fundó en 2009 con una entonces colega en el MIT Media Lab, Rosalind Picard, ocupa una posición a la vanguardia de la tecnología para usar computadoras para detectar e interpretar expresiones faciales humanas., Este campo, conocido como» computación afectiva», busca cerrar la brecha de comunicación entre los seres humanos y las máquinas mediante la adición de un nuevo modo de interacción, incluido el lenguaje no verbal de sonrisas, sonrisas y cejas levantadas. «La premisa de lo que hacemos es que las emociones son importantes», dice el Kaliouby. «Las emociones no interrumpen nuestro pensamiento racional, sino que lo guían e informan. Pero faltan en nuestra experiencia digital. Tu smartphone sabe quién eres y dónde estás, pero no sabe cómo te sientes. Nuestro objetivo es arreglar eso.»

¿por Qué tu smartphone necesita saber cómo te sientes?, El Kaliouby tiene una gran cantidad de respuestas, todas basadas en la integración aparentemente ilimitada de las computadoras en las rutinas de nuestra vida diaria. Ella imagina «tecnología para controlar la iluminación, la temperatura y la música en nuestros hogares en respuesta a nuestros estados de ánimo», o aplicaciones que pueden adaptar el contenido de una película en función de sus reacciones subconscientes a ella mientras la ve. Ella imagina programas que pueden monitorear su expresión mientras conduce y advertir de falta de atención, somnolencia o ira. Sonríe al mencionar su idea favorita: «un refrigerador que puede sentir cuando estás estresado y bloquea el helado.,»

en particular, ella piensa que Affectiva, y la tecnología que está ayudando a introducir en la corriente principal, será una bendición para el cuidado de la salud. Un investigador que prueba un nuevo medicamento, o un terapeuta que trata a un paciente, recibe retroalimentación solo a intervalos, sujeto a todos los problemas de auto-reporte—el deseo inconsciente de complacer al médico, por ejemplo, o el recuerdo selectivo que favorece los recuerdos más recientes., El Kaliouby imagina un programa que se ejecuta en segundo plano de la computadora portátil o el teléfono del sujeto que podría compilar un registro momento a momento de su estado de ánimo en el transcurso de un período de tiempo (un día, un mes) y correlacionarlo con el tiempo o cualquier otra cosa que su dispositivo pueda medir o rastrear. «Ni siquiera tendría que ser parte de un programa de tratamiento», reflexiona. «Podrías tenerlo en tu teléfono y te dice, cada vez que’ X ‘ llama tienes una expresión negativa, y eso te dice algo que quizás no sabías.,»

Suscríbase a Smithsonian magazine ahora por solo 1 12

esta historia es una selección de la edición de diciembre de Smithsonian magazine.

Buy

El Kaliouby promueve la computación afectiva como el siguiente paso lógico en la progresión del teclado al ratón, la pantalla táctil y el reconocimiento de voz. En la primavera, Affectiva lanzó su primer kit de desarrollo de software comercial, que los desarrolladores, interesados en los estados emocionales de los usuarios en tiempo real, pueden incorporar en sus propios programas, reproductores de música o aplicaciones de juegos o citas, por ejemplo., Y precisamente este otoño Affectiva lanzó Emotion As a Service, un programa basado en la nube al que los clientes pueden subir videos para su análisis. ¿Quién podría usar esto? Un candidato a punto de ser entrevistado para un trabajo, que está preocupado por aparecer ansioso o aburrido o incluso sonreír demasiado. O una aerolínea que contrata asistentes de vuelo, con cientos de aplicaciones de video para tamizar en busca de aquellos que pueden manejar una sonrisa convincente mientras se despiden de los pasajeros., (Una sonrisa genuina, que implica una contracción de los músculos en las esquinas de los ojos, se llama una sonrisa «Duchenne», llamada así por el anatomista del siglo XIX; su opuesto, una sonrisa forzada que usa solo la boca, en realidad a veces se llama una sonrisa» Pan Am».)

y, por supuesto, los dispositivos que ejecutan este software están conectados a Internet, de modo que la información que recopilan se agrega instantáneamente, se tamiza y se conecta en red de la manera en que las aplicaciones de redes sociales identifican temas o personalidades populares., Compilado, tal vez, en algo así como un índice de Estado de ánimo afectiva, una lectura numérica sobre la felicidad nacional bruta, o desglosado en regiones donde las sonrisas o el ceño fruncido están actualmente en tendencia.

el programa básico de Affectiva analiza la cara 20 veces por segundo para 46 expresiones localizadas de felicidad, tristeza, sorpresa, miedo, ira, disgusto y desprecio, además de interés y confusión., (Naomi Shavin / Smithsonian)

hasta ahora, los principales clientes de Affectiva han sido empresas de Publicidad, marketing y medios de comunicación. Su software automatiza el proceso de ejecutar un grupo focal, el engorroso ritual de reunir a una docena de personas en una sala para dar sus opiniones sobre un nuevo producto, serie de televisión o campaña publicitaria; registra las reacciones directamente, sin que un participante tenga que girar un dial o responder un cuestionario en respuesta a una presentación., Además, el software expande el grupo focal potencial a todo el mundo, o al menos a la fracción sustancial de él que tiene una computadora habilitada para cámara web o dispositivo móvil.

La retroalimentación del implacable ojo que todo lo ve de Affectiva ayudó a dar forma a una serie de televisión, relegando a dos personajes al olvido por el pecado de no hacer sonreír a los espectadores. (El Kaliouby no identificará el espectáculo o los personajes. Su software se utilizó para construir un «smile sampler», una máquina que dispensaba barras de caramelo a los compradores que sonreían a su cámara., Con más investigación, probablemente podría ser útil para la vigilancia de multitudes en aeropuertos, o para identificar posibles ladrones de tiendas, o como un detector de mentiras.

pero el Kaliouby se ha resistido a estas aplicaciones subrepticias, por muy lucrativas que puedan ser. Ella piensa que la computación afectiva cambiará el mundo, incluyendo, pero de ninguna manera limitado a, la venta de barras de caramelo. «El espíritu de nuestra empresa», dice, » es usar esta tecnología para mejorar la vida de las personas y ayudarlas a comunicarse mejor, no solo para ayudar a los anunciantes a vender más productos.,»

**********

a diferencia de muchos emprendedores tecnológicos, hacerse rico no estaba en la agenda original de El Kaliouby. Nacida en El Cairo de Padres egipcios que ambos trabajan en tecnología, estudió Ciencias de la computación en la Universidad Americana de El Cairo, donde se graduó en 1998, en la época en que las computadoras se estaban volviendo lo suficientemente poderosas como para que los investigadores pensaran en dotarlas de lo que en términos humanos se llama inteligencia emocional.

continuó estudiando informática en la Universidad de Cambridge, llegando justo después de los ataques a América del 11 de septiembre de 2001., Sus padres pensaban que corría el riesgo de ser arrestada, acosada o peor debido a su herencia. Pero a pesar de que llevaba una cubierta de la cabeza musulmana hasta hace un par de años, ni en Cambridge, Inglaterra, ni en Cambridge, Massachusetts, donde se mudó en 2006, para unirse al laboratorio de medios del MIT, nunca se preocupó por su religión o apariencia. «Creo que es porque sonrío mucho», dice sonriendo.

el anatomista Francés Duchenne publicó landmark studies of human facial expressions., (Bridgeman Images)

mientras estaba en Cambridge, se había interesado en el problema del autismo, específicamente en la dificultad que tienen los niños autistas para leer expresiones faciales. Propuso construir un «audífono emocional» que se pudiera usar para leer caras y señalar comportamientos apropiados al usuario., Rechazada al principio por una subvención de la Fundación Nacional de Ciencias con el argumento de que el proyecto era demasiado difícil, ella y sus colegas construyeron un prototipo, que consiste en un par de anteojos equipados con una pequeña cámara, luces parpadeantes y auriculares, no muy diferente de una versión temprana de Google Glass. Una segunda solicitud de subvención fue exitosa y, después de mudarse al MIT, ella y su equipo trabajaron durante los siguientes tres años para perfeccionarla y probarla en una escuela en Rhode Island., El Kaliouby lo describe como»un proyecto de investigación, y uno exitoso» —los niños autistas que lo usaron tuvieron experiencias abrumadoramente positivas—pero en 2008, cuando terminó la beca, se enfrentó a un momento de ajuste de cuentas. El interés comercial en la computación afectiva estaba creciendo, y quería verla expandirse y florecer; poner sus esfuerzos en el desarrollo de las gafas lo limitaría a una pequeña porción de sus usos potenciales. Así que, junto con Picard, se separó de Affectiva, mientras mantenía la esperanza de que otra compañía recogiera el audífono emocional y lo llevara al mercado.,

Cuando se formó Affectiva, el puñado de» miembros del equipo «que componían la empresa cada uno eligió un valor que querían encarnar, como» aprendizaje «o» responsabilidad social «o » diversión».»La suya, como directora de estrategia y ciencia, fue «pasión.»La compañía de 20 personas se maneja como una cuasi-democracia, con reuniones semestrales en las que los empleados votan sobre las prioridades a seguir durante los próximos seis meses., Su oficina tiene una pizarra cubierta con dibujos de la joven hija de uno de sus colegas; tiene un hijo de 6 años, Adam, y una hija de 12 años, Jana, que viven con ella en los suburbios de Boston (su padre vive en Egipto). Su manera es suave y considerada; una hora en una reunión de la mañana se ofrece a pedir un sándwich para un visitante, a pesar de que ella misma se está saltando el almuerzo. «Es Ramadán para mí», dice sonriendo, » pero no es Ramadán para ti.,»

ella coloca a los visitantes en un escritorio, frente a un monitor y una cámara web; el software localiza la cara del visitante y dibuja una caja alrededor de ella en la pantalla. Identifica un conjunto de puntos a seguir: las comisuras de los ojos y la boca, la punta de la nariz, etc. Veinte veces por segundo, el software busca «unidades de acción», el juego a menudo fugaz de los músculos a través de la cara. Hay 46 de estos, de acuerdo con el sistema estándar de clasificación, el sistema de codificación de acción Facial (FACS)., Incluyen elevadores de cejas internos y externos, reguladores de intensidad, parpadeos, guiños y fruncidos de labios, embudos, presores y chupa. El programa estándar de Affectiva muestra alrededor de 15 de estos en cualquier momento, y los analiza para expresiones de siete emociones básicas: felicidad, tristeza, sorpresa, miedo, ira, disgusto y desprecio, más interés y confusión. Sonríe, y podrás ver la medida de la felicidad dispararse; rizar el labio con una mueca y el programa notará tu disgusto.

O, más precisamente, su expresión de disgusto., Toda la premisa de la computación afectiva se basa en lo que equivale a un salto de fe, que una sonrisa transmite un sentimiento de felicidad, o placer, o diversión. Por supuesto, los seres humanos están en la misma posición: podemos ser engañados por una sonrisa falsa o una IRA fingida, por lo que realmente no podemos esperar más de un programa de computadora, al menos no todavía.

a lo largo del tiempo Affectiva ha construido un archivo de más de tres millones de videos de caras, subidos por usuarios de Internet reclutados de unos 75 países de todo el mundo., Cientos de miles de estos han sido analizados por observadores entrenados y codificados para unidades de acción de FACS, una tarea monumental, ya que los videos tienen un promedio de 45 segundos y cada uno tarda aproximadamente cinco veces más en procesarse. Los resultados de los codificadores humanos, a su vez, se utilizaron para «entrenar» los Algoritmos de la compañía, que procesaron el resto en tiempo real. Toda la base de datos ahora comprende alrededor de 40 mil millones de «puntos de datos de emociones», un recurso, cuenta el Kaliouby, que distingue a Affectiva de otras compañías en el mismo campo, como Emotient, con sede en California, probablemente su competidor más cercano.,

(gráfico: Infografía de 5W; Fuente: Daniel McDuff, MIT Media Lab, Affectiva)

Daniel McDuff, quien se unió a Affectiva desde MIT Media Lab y director de investigación, está estudiando continuamente este tesoro para obtener información adicional sobre la expresión de las emociones. ¿En qué se diferencian por edad, género y cultura? (Quizás sorprendentemente, McDuff ha encontrado que las personas mayores son más expresivas, especialmente de las emociones positivas, que los más jóvenes.,¿Podemos medir de manera confiable el desprecio, la vergüenza, el aburrimiento, la ansiedad? ¿Cuándo un surco de la frente indica confusión, y cuándo indica concentración? ¿Cómo podemos distinguir entre una expresión de miedo y una que significa sorpresa? (Pista: la unidad de Acción 1, el «levantador de cejas interno», es el marcador del miedo; la unidad de acción 2, el «levantador de cejas externo», indica sorpresa.) Hay, dice, muchas razones para creer que el programa continuará mejorando en la detección de expresiones (aunque puede que nunca supere por completo el mayor obstáculo de todos: el Botox).,

a petición mía, McDuff le dio al programa uno de los grandes problemas clásicos de la detección de emociones, La Mona Lisa, cuya enigmática casi sonrisa ha intrigado a los espectadores durante 500 años. Con la advertencia de que el software funciona mejor en expresiones cambiantes, no en imágenes estáticas, informó que no encontró evidencia de una sonrisa genuina Por La Gioconda, sino más bien alguna combinación de unidad de acción 28 (rollo de labios) y 24 (labios apretados juntos), posiblemente sugiriendo algún nivel de incomodidad.,

**********

«estoy hablando contigo ahora», dice el Kaliouby, » y observándote para medir tu interés en lo que estoy diciendo. ¿Debería bajar la velocidad y explicar más? Debo ir a otro tema? Ahora, imagina que estoy dando un webinar a un grupo grande que no puedo ver ni escuchar. No recibo comentarios, no hay manera de saber si una broma funcionó o se cayó, si la gente está comprometida o aburrida. ¿No sería genial obtener esa retroalimentación en tiempo real, agregada, de momento en momento a medida que avanzo?,

ella juega un anuncio para Jibo, un «robot social» disponible para preorden en el sitio web de financiación colectiva Indiegogo y desarrollado por una ex colega del MIT, Cynthia Breazeal. Con el aspecto de una lámpara de lava de alta tecnología, Jibo se sienta en una mesa y escanea su entorno, identifica a las personas por su cara e interactúa con ellas: transmite mensajes, emite recordatorios, realiza llamadas telefónicas de rutina e incluso chatea. Esta es otra aplicación potencial para el software de Affectiva—las empresas están en conversaciones—y es «una perspectiva muy emocionante», dice el Kaliouby.,

emocionante para algunos, pero la perspectiva de robots de procesamiento de emociones es alarmante para otros. Sherry Turkle, quien ha estudiado durante mucho tiempo cómo los humanos se relacionan con las computadoras, advierte en su nuevo libro, Reclaiming Conversation: the Power of Talk in a Digital Age, sobre el «momento robótico», cuando las máquinas comienzan a sustituir la compañía humana. Turkle cree que científicos como el Kaliouby y su equipo pueden hacer lo que dicen que harán. «Todas estas son personas brillantes y talentosas que hacen un trabajo brillante», dice., Y está de acuerdo en que en ciertos contextos—entornos peligrosos, como el espacio exterior o alrededor de maquinaria pesada, donde se desea reclutar todos los modos posibles de comunicación—la computación afectiva tiene un papel que desempeñar. «Pero el siguiente paso», dice, » no sigue en absoluto. El siguiente paso es, hagamos un amigo robot. He entrevistado a padres que están felices de que sus hijos estén hablando con Siri, y creo que eso no nos está llevando por un camino hacia donde queremos ir., Nos definimos como seres humanos por lo que nos asociamos con, y no tiene sentido para mí formar su sentido de autoestima en relación con una máquina. ¿Por qué querrías que una computadora supiera si estás triste?»

incluso el Kaliouby se inclina a estar de acuerdo en que «estamos pasando más tiempo del que deberíamos con nuestros dispositivos», teniendo en cuenta, naturalmente, a su hija preadolescente, cuya mirada se bloquea en la pantalla de su teléfono inteligente.

pero ella considera que la tendencia hacia una conectividad cada vez mayor es irreversible, y piensa que, si bien los usuarios siempre deberían tener que optar, también podríamos aprovechar al máximo., Ella predice que nuestros dispositivos tendrán » un chip de emoción y un conjunto de aplicaciones que lo utilizan de una manera que agrega suficiente valor a nuestras vidas que supera las preocupaciones de las personas al compartir estos datos.»Dibuja una analogía con los dispositivos GPS: la computación afectiva puede ayudarnos a navegar por el espacio emocional de la misma manera que las aplicaciones telefónicas nos ayudan a movernos en el espacio físico. «Todos estaban preocupados por los dispositivos de detección de ubicación cuando salieron por primera vez: estaban invadiendo nuestra privacidad, nos estaban rastreando todo el tiempo», dice. «Solo ahora, todos estaríamos perdidos sin Google Maps en nuestros teléfonos. Creo que esto será lo mismo.,»

**********

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *