Les robots sont généralement pas le plus expressif des entités, mais leurs visages sont de plus en plus réaliste que le nombre de muscles artificiels contrôler les augmente. Aujourd'hui, une personne hautement qualifiée doit configurer manuellement ces types de robots réalistes afin que les servos tirer dans la bonne combinaison pour faire des expressions faciales spécifiques, mais des chercheurs de l'Université de Californie, San Diego (UCSD) cherchent à automatiser le processus en donnant les robots capacité d'apprendre expressions faciales réalistes.

Les chercheurs de l'UCSD regardé à la fois la psychologie du développement et de l'apprentissage de la machine comme base pour leurs recherches. Les psychologues du développement pensent que les bébés apprennent à contrôler leur corps par des mouvements exploratoires systématiques, y compris babillage d'apprendre à parler. Initialement, ces mouvements semblent être exécuté d'une manière aléatoire que les nourrissons apprennent à contrôler leur corps et atteindre des objets.

"Nous avons appliqué cette même idée au problème d'un apprentissage de robot pour faire des expressions faciales réalistes", a déclaré Javier Movellan, l'auteur principal sur le document de recherche de l'équipe.

Pour commencer le processus d'apprentissage, les chercheurs UC San Diego dirigés une tête Einstein de robot (Einstein chef Hanson Robotics) à se tordre et tourner son visage dans toutes les directions, un processus appelé «babillage du corps." Au cours de cette période, le robot pourrait se voir sur un miroir et d'analyser sa propre expression du visage en utilisant un logiciel de détection de l'expression créée à l'UCSD appelés CERT (Computer Expression de reconnaissance Toolbox).

Cela a fourni les données nécessaires pour les algorithmes d'apprentissage machine à apprendre une correspondance entre les expressions faciales et les mouvements des moteurs musculaires. Une fois que le robot a appris la relation entre les expressions faciales et les mouvements musculaires nécessaires à leur faire, il pourrait alors apprendre à faire des expressions faciales, il ne l'avait jamais rencontrés.

Après l'un des servos grillée et l'équipe a décidé de poursuivre l'expérience de toute façon, le modèle a même réussi à apprendre à compenser en activant une combinaison de proximité servos.

Bien que l'objectif principal de la recherche était de résoudre le problème d'ingénierie rapprochant l'apparition de mouvements musculaires du visage humain avec moteurs, les chercheurs affirment que ce genre de travail pourrait également conduire à mieux comprendre comment les êtres humains apprennent et développer des expressions faciales.

Les recherches de l'équipe de UCSD est détaillée dans le document, Apprendre à faire des expressions faciales, qui a été présenté à la Conférence internationale 2009 du IEEE sur le développement et l'apprentissage.

Vous pouvez vérifier la tête de robot Einstein en action dans la vid, mais il semble que ça va être un certain temps avant de pouvoir tirer la langue comme la fameuse photo.