La capture de l’essence humaine par l’intelligence artificielle continue d’évoluer avec la récente création d’Emo, un robot capable de reproduire les expressions faciales humaines en direct. Une avancée de l’université de Columbia qui révolutionne l’interaction entre l’homme et la machine.
L’evolution d’emo
Les chercheurs de l’université de Columbia n’ont certainement pas été indifférents à la célèbre saga Terminator où le héros John Connor conseille à son compagnon robot de pratiquer ses expressions faciales devant un miroir. Dans cette optique, l’équipe du Creatives Machine Lab est allée encore plus loin en créant un visage robotique, du nom de Emo, couvert de silicone et capable de prédire et de reproducer les expressions humaines.
Les passionnés de la saga que sont les scientifiques ont développé un programme d’apprentissage pour le robot similaire à celui d’un jeune enfant. Mettant le robot face à une caméra, mimant le rôle d’un miroir, ils ont appris à Emo à associer 26 actionneurs distincts avec leurs expressions correspondantes. Cette étape est suivie par la présentation de diverses vidéos présentant des expressions humaines allant de la tristesse à la joie.
Emo a ensuite été chargé d’analyser scrupuleusement ces vidéos image par image, afin de saisir et d’assimiler les subtiles mouvements du visage humain.
Confiance, co-expressions et intelligence artificielle
Selon Yuhang Hu, étudiant en doctorat à l’université de Columbia, la capacité d’Emo à reproduire les expressions faciales de son interlocuteur en temps réel ne fait qu’améliorer la qualité de l’interaction, mais crée également un lien de confiance avec l’homme. Un atout non négligeable à une époque où l’acceptation des robots parmi nous est primordiale.
Ce lien de confiance est renforcé par un traitement fluide des expressions du visage par Emo grâce à deux modèles d’intelligence artificielle. La première analyse les micro-changements sur le visage de l’interlocuteur et prévoit les expressions faciales à venir. Le second modèle génère des commandes pour Emo, guidant ses actionneurs dans la reproduction précise de ces expressions faciales.
Pour peaufiner encore plus la réalité de Emo, une paire de caméras haute définition a été intégrée dans ses yeux. Cela permet à Emo de regarder son interlocuteur dans les yeux, renforçant le lien d’empathie.
Les compétences à améliorer
Malgré ces avancées notables, Emo est loin d’être parfait. Il est incapable d’engager une conversation et reste limité à la reproduction des mouvements faciaux. Contrairement aux robots de Boston Dynamics, Emo ne sait ni danser ni courir, des compétences que possède son homologue, le Tiangong du Beijing Humanoid Robot Innovation Center.
Emo, cependant, pousse l’enveloppe dans l’exploration de l’expression non verbale des robots, un domaine qui reste à la traîne par rapport aux progrès réalisés en matière de communication verbale. C’est un petit pas, mais potentiellement un grand pas dans la compréhension des subtilités des interactions humaines.
En se concentrant sur les expressions faciales, ce robot pourrait-il éventuellement maîtriser tout le langage corporel ? Et jusqu’où l’acceptation des robots parmi nous va-t-elle se développer si nous ne pouvons plus distinguer leurs expressions de celles d’un être humain ?