webleads-tracker

19/10/2017

Détection des émotions humaines par les machines, les chercheurs y travaillent…

Soyons très clairs : pour l’instant, les robots logiciels (a fortiori les robots physiques) ne savent pas détecter les émotions humaines et encore moins les interpréter pour adapter leur comportement à une situation donnée. Donc, on arrête de fantasmer, de prendre pour argent comptant les délires hallucinés des prophètes du transhumanisme et de la singularité sur l’omnipotence de l’intelligence artificielle… et, au passage, de croire tout ce que nous raconte Siri 😉

Je précise pour ceux qui ne le sauraient pas : les réponses de Siri – comme celles de tous les chatbots, voicebots et autres assistants à base d’IA – sont élaborées par des êtres de chair et d’os, des humains comme vous et moi. Enfin pas tout à fait, puisque c’est à des scénaristes, des écrivains, voire des poètes que l’on fait appel désormais pour leur donner un peu de personnalité et « humaniser » leurs répliques.

Tout ça pour dire que les machines actuelles n’ont pas plus d’émotions que de sentiments. Et si l’histoire d’amour entre Théodore et l’IA Samatha dans le film Her vous a fasciné, voici ce qu’en disait récemment Yann LeCun, directeur du laboratoire de recherche en intelligence artificielle de Facebook et — ce qu’on dit moins mais qui a toute son importance ici — pionnier des réseaux de neurones artificiels et des techniques d’apprentissage profond (deep learning) :

« On encore très très très loin d’avoir la technologie qui permettrait de construire une machine comme celle qu’on entend dans le film Her. […] Il nous manque des éléments de base pour que le dialogue avec ces machines [les assistants personnels] ne soit pas frustrant. »

En fait, si on les trouve frustrants, ces dialogues, ce n’est pas parce que, souvent, la machine ne sait pas quoi répondre ou répond à côté de la plaque. Ça, selon les circonstances, ça nous fait rire ou ça nous exaspère. Ce qui nous frustre, c’est qu’elle ne comprenne pas deux choses essentielles dans l’échange verbal entre humains : le sens profond des paroles prononcées et les émotions qui les accompagnent et les dictent.

Détecter les émotions dans la voix humaine, un enjeu industriel important

Malgré la vogue du text messaging, les interfaces vocales sont en train de revenir en force, boostées par l’arrivée dans les foyers de machines comme Google Home — enceinte connectée mais, surtout, assistant personnel que l’on interroge et commande à la voix. Tant qu’il s’agit de demander la météo ou l’heure de la séance de ciné, les émotions n’ont pas besoin d’entrer en ligne de compte. Mais si l’on parle de dispositifs de veille ou d’assistance destinées aux personnes âgées ou dépendantes, le fait que la machine soit capable de détecter de la détresse ou de l’anxiété dans la voix de la personne et de déclencher une alarme pour qu’elle soit secourue, on comprend tout de suite mieux l’intérêt et donc l’utilité de la chose. C’est un des exemples qu’évoque Caroline Étienne qui réalise actuellement sa thèse sur « l’utilisation du deep-learning dans la classification des émotions dans le langage parlé ou écrit ».

C’est elle qui m’a donné envie d’écrire ce billet 🙂 car une des autres applications qu’elle cite, lors d’une brève présentation de son travail sur France Culture, est l’étude de la satisfaction et de la rétention des clients contactés par les centres d’appels, notamment dans les secteurs de la banque et de l’assurance. « Dans la stratégie de développement des centres d’appels, l’aspect de la détection des émotions, au cours d’un appel téléphonique au client, a toute sa place« , estime-t-elle. Sans être délirant, on peut se dire que ce serait bien utile aussi que les serveurs vocaux interactifs (SVI) des Services Clients et les bots soient capables de différencier le scénario proposé au client selon qu’il est manifestement en colère, tendu ou calme.

Mais avant d’en arriver là, à des applications industrielles très concrètes, il y a encore pas mal de chemin à faire… D’où l’importance des travaux de recherche.

Reconnaître 4 émotions, pour commencer…

La palette des émotions véhiculées par les voix humaines est infinie et c’est un monumental défi de rendre une machine capable de les identifier à coup sûr. Pour avancer, il faut réduire le problème à un problème plus simple. C’est pour cela que Caroline Etienne a limité son champ de recherche à la reconnaissance de 4 états émotionnels : la tristesse, la joie, la colère et l’état « neutre ». Il faut ensuite entraîner l’algorithme. Pour cela il faut avoir des monceaux de données audio dont les séquences ont été au préalable annotées par des humains. Pour utiliser au mieux cette masse de données audio, elle utilise des méthodes d’apprentissage supervisé et s’appuie sur un système de réseau de neurones récurrents. Je ne vais pas essayer de vous expliquer quelque chose que je ne maîtrise absolument pas, mais j’ai compris que ce type de réseau est particulièrement adapté à l’analyse des données séquentielles comme les enregistrements audio.

L’algorithme doit déduire de ce qu’il analyse dans le fichier audio un état des 4 émotionnels. « Si cette émotion est la même que celle trouvée par les êtres humains (ceux qui ont annotés les fichiers), c’est gagné et le système se voit renforcé, explique Caroline. Si ce n’est pas la même, tout le système est corrigé, neurone après neurone, à reculons. C’est ce qu’on appelle la rétro-propagation du gradient et c’est ce qui donne à l’algorithme sa capacité à apprendre et à s’adapter face à une donnée inconnue. »

Le but du jeu, avant toute application industrielle : d’abord, tester différentes bases de données et les croiser entre elles afin que l’algorithme gagne en robustesse. Ensuite, être capable d’expliquer pourquoi l’algorithme arrive à ce résultat et comment le système interprète l’émotion.

Beaucoup de labeur en perspective, donc, avant de voir les travaux de Caroline et de nombreux autres chercheurs se traduire dans notre quotidien. Rien de tout cela n’est magique et « autogénéré ». Cela vous donnera quelques arguments pour clouer le bec aux charlatans qui vous racontent que leur robot à eux possède d’ores et déjà une vraie intelligence émotionnelle…

Vous aimerez aussi :

Laissez un commentaire