Recherchez dans les actualités

RealEyes : capter les émotions des gens pour mieux leur parler

Autres innovations
04/05/2018

Grâce à une technologie innovante de tracking facial, Realeyes analyse les émotions des personnes face à des messages vidéos, et permet ainsi aux entreprises de mieux cibler leurs différentes communications. 

Realeyes a été invité par ENGIE sur son Lab à Viva Technology du 24 au 26 mai prochains. 

Dorota Smaggia, Managing Director France nous parle avec passion de cette technologie centrée sur  l’engagement émotionnel. 


Realeyes mesure les émotions grâce au tracking facial : nous analysons ce que ressentent les gens qui regardent une image ou une vidéo, sans leur poser de questions, juste en enregistrant les expressions de leur visage. 

Nous utilisons des panels de personnes volontaires pour répondre à un questionnaire et activer leur webcam pendant qu’ils visionnent une vidéo publicitaire, un film, un format TV ou une série d’images. Cela nous permet de capter les micro expressions qui traduisent les réponses subconscientes des personnes interrogées

 Mieux adresser les messages est  essentiel. Notre démarche est gagnante pour tout le monde : en optimisant les contenus vidéo, elle permet de trouver des audiences plus engagées, d’avoir un message plus efficace et une meilleure satisfaction du public qui n’est plus soumis à des publicités intrusives, ennuyeuses ou qui ne les concernent pas.


Comment ça marche ?

 Notre solution est basée sur l’Intelligence Artificielle : nous apprenons aux machines à interpréter, quantifier et visualiser les émotions humaines. 

Nous disposons de la plus grande base de données émotionnelles au monde. Depuis 10 ans, nous avons collecté des milliards de points data dans plus de 75 pays. Quand on parle de tracking facial, il faut savoir que, par exemple, un visage coréen n’a pas la même expressivité qu’un visage français ou sud-américain. Pourtant nous ressentons tous les émotions universelles,  joie, surprise, tristesse, quelles que soit notre manière de le montrer.  Ce qui peut être perturbant ou difficile à comprendre pour un oeil humain ne l’est pas pour un ordinateur :  il suffit de lui apprendre à interpréter les micro expressions liées à différentes géographies ou différentes cultures et l’intelligence artificielle s’en accommode très bien. Les machines sont d’ailleurs beaucoup plus précises que les humains pour décoder les expressions.

Notre démarche se fait en deux étapes, une partie captation et une partie analyse.

Pour la partie captation, après leur avoir demandé quelques éléments comme leur âge, leur niveau d’étude ou de revenus, nous avons montré à des millions de gens des vidéos ou des images. Nous avons capté, de façon totalement anonyme, les points qui bougeaient sur leur visage, et ces ensembles de points ont été enregistrés dans notre base de données. 

Cette partie captation n’est pas la plus complexe. Ce qui est complexe, c’est de traduire ces ensembles de points en émotions. Quand un vecteur entre deux points change sur un visage, ça peut être un tout petit plissement de la paupière, une moue, un mouvement de la tête, une asymétrie. Pour déterminer quels points signifient la joie, la tristesse, la confusion, le dégoût, etc… nous travaillons avec une équipe de cinquante chercheurs en neuro sciences un peu partout dans le monde.  Ils utilisent nos data pour alimenter leurs recherches et en retour, ils nous permettent de faire progresser nos algorithmes. C’est une véritable collaboration à grande échelle, une synergie entre une communauté scientifique, académique et universitaire et notre activité d’analytics émotionnels.

 

Pouvez-vous nous parler de l’aspect innovant de votre solution ? 

Ce qui est novateur dans notre solution, c’est qu’elle est basée sur l’audience, sur ce que ressentent vraiment les gens

Quand vous faites une pub, en général, qu’est-ce qui compte ? ce qu’en pense la marque, le directeur artistique, le directeur marketing, l’agence… mais ce ne sont pas eux les cibles ! On essaie de tenir compte de ce que pensent les gens, les cibles, mais on leur demande très rarement leur avis. Et même quand c’est le cas, cet avis est souvent exprimé en termes subjectifs ou vagues : ça me plait, ça ne me plaît pas…

Nous allons plus loin, et au lieu de nous baser sur du déclaratif, nous allons chercher des réponses subconscientes et nous arrivons à visualiser, seconde par seconde, les courbes des différentes émotions ressenties tout au long du visionnage.

Vous savez que 90% de notre comportement est piloté par nos émotions. Pour une marque il est important d’établir une connexion émotionnelle avec ses clients. La solution Realeyes sait mesurer l’engagement émotionnel : nous sommes capables de mesurer les différentes émotions qui animent les gens quand ils sont exposés à un message : une vidéo publicitaire - ou autre. Ainsi, en proposant aux usagers des publicités  ou des contenus mieux ciblés et qui leur plaisent, nous permettons à ces contenus d’être poussés vers les bonnes audiences, mieux acceptés et plus efficaces .

C’est donc un cercle vertueux

 

Et vous allez en faire la démonstration sur le stand à Vivatech ?  

A Viva Technology, nous allons présenter une démonstration de tracking facial en temps réel grâce à  un « émotion booth », une sorte de photomaton émotionnel. C’est une webcam devant laquelle les visiteurs pourront passer et tester leurs propres expressions.  Nous allons capter les émotions exprimées et les visualiseront sur l’écran en % de bonheur, de surprise, etc… 

Même si ça vous semble un peu « gadget », notre philosophie est que les choses complexes peuvent être expliquées de manière simple. Nous voulons évangéliser le public et le marché, en montrant de façon totalement intuitive l’intelligence émotionnelle et ce que nous faisons. 

Dans le même esprit, nous allons aussi présenter une vidéo qui explique notre solution.



Vous travaillez déjà avec ENGIE ?

Oui, et d’ailleurs, nous aimerions montrer un case study sur notre travail avec ENGIE. 

Nous avons analysé plusieurs vidéos pour ENGIE pour vérifier si les messages étaient compris et appréciés par le public, et mesurer des données comme la favorabilité ou la mémorisation. Par exemple, pour une vidéo humoristique, il est important de voir si les audiences perçoivent bien l’humour, en mesurant le niveau de « joie », en validant qu’il domine, et que ce ne sont pas la « confusion » ou la négativité qui s’installent. De la même manière, nous visualisons si les publics visés  sont plus engagés et si la communication fait mouche. C’est absolument spectaculaire de visualiser les émotions tout au long de la vidéo ; nul besoin d’être data scientist pour faire le rapport entre une scène particulière, un personnage, une situation et les émotions suscitées.

Faire appel aux analytics émotionnels c’est à mon sens une très belle démonstration à la fois du souci d’ENGIE de vérifier que sa communication fonctionne bien, et des bénéfices de notre technologie. 

 

Qu'attendez-vous de cette participation à Vivatech?

Nous comptons sur VivaTech pour faire connaitre Realeyes, montrer de manière concrète les applications de notre solution et rencontrer des entreprises intéressées, comme ENGIE qui a déjà fait appel à Realeyes pour mieux comprendre les attentes de ses clients en matière de communication.

Nous avons aussi la volonté d’évangéliser le public, les marques et les médias en démocratisant la compréhension des solutions data, Intelligence Artificielle et machine learning et en montrant les bénéfices de l’Intelligence Emotionnelle. 

 

Votre devise ?

Les émotions sont essentielles

 

Et enfin, pour vous l'avenir sera…?

L’avenir sera centré sur l’humain, l’Intelligence Emotionnelle et la communication sera essentiellement basée sur la vidéo.


En savoir plus sur RealEyes

Source : Christine Leroy


Abonnez-vous à la Newsletter ENGIE Innovation