Aibo de Sony peut être interrompu, mais les animaux robotiques de toutes formes et tailles continuent de jalonner un claim dans le cœur des gens partout dans le monde. Malgré l'intelligence apparente de certains de ces animaux de robots, leur comportement et leurs actions sont généralement rien de plus que des réponses pré-programmées à des stimuli - être caressé dans un endroit particulier ou de répondre à une commande vocale, par exemple. Chair et de sang réel animaux sont beaucoup plus complexes à cet égard, même discernement et de répondre à l'état émotionnel d'une personne. Animaux robotiques pourraient être dirigés dans cette direction, avec des chercheurs de Taiwan se tournent vers les réseaux de neurones pour les aider à briser le cycle de comportement répétitif dans les jouets de robot et de les doter de réponses émotionnelles à presque interactions.

Construire créatures artificielles totalement autonomes avec une intelligence semblable à l'homme est un objectif à très long terme de la conception du robot et de l'informatique. Sur le chemin de ces machines, de divertissement à domicile et de dispositifs de services publics tels que "Tamagotchi"Animaux domestiques numériques et robots jouets domestiques tels que Aibo, le chien robotique et même le Roomba robot aspirateur, ont été développés. Dans le même temps, la culture de science-fiction populaire a suscité des attentes des consommateurs.

Dans un effort pour fournir des gadgets amusants et réalistes qui répondent à l'interaction humaine de manière toujours plus nuancées, imitant le comportement des animaux réels pour animaux de compagnie ou même des personnes, des chercheurs de Taiwan cherchent maintenant à un nouveau paradigme de conception qui pourrait voir le développement d'un robot module de vision qui pourrait un jour reconnaître les expressions faciales humaines et répondre de façon appropriée.

"Avec les technologies actuelles de l'informatique et de l'électronique et des connaissances en éthologie, des neurosciences et de la cognition, il est maintenant possible de créer des prototypes incarnée de jouets vivants artificiels agissant dans le monde physique," Wei-Po Lee et ses collègues de l'Université nationale Sun Yat-sen (NSYSU), Kaohsiung, expliquer.

Il ya trois grandes questions à prendre en considération dans la conception du robot, l'équipe explique. La première consiste à construire une architecture de commande approprié par lequel le robot peut se comporter de manière cohérente. La deuxième est de développer des moyens naturels pour le robot d'interagir avec une personne. Le troisième est d'intégrer les réponses émotionnelles et les comportements dans l'ordinateur du robot.

Les chercheurs espèrent répondre aux trois questions en adoptant une approche de l'architecture basée sur le comportement - en utilisant un réseau de neurones - qui pourrait permettre au propriétaire d'un animal de compagnie de robot pour reconfigurer le dispositif «d'apprendre», ou évoluer nouveau comportement et dans le même temps veiller à ce que les fonctions robots de compagnie correctement en temps réel.

L'équipe a évalué leur cadre en construisant des contrôleurs de robots pour réaliser diverses tâches avec succès. Ils, et d'autres équipes de recherche à travers le monde, travaillent actuellement sur des modules de vision pour les robots. La technique est pas encore totalement mature, mais finalement ils espèrent être en mesure de construire un animal de compagnie de robot qui pourrait reconnaître les expressions faciales de son propriétaire et peut-être y répondre en conséquence. Une telle évolution a des implications majeures pour une gamme de dispositifs interactifs, ordinateurs et les robots fonctionnels de l'avenir.

L'équipe de NSYSU de Taiwan expliquer leur approche dans le numéro actuel de la International Journal of modélisation, d'identification et de contrôle.