Forscher machen das Gesicht des Androidenkindes deutlich ausdrucksstärker.

Japans Zuneigung zu Robotern ist kein Geheimnis. Aber ist das Gefühl, dass man sich bei den erstaunlichen Androiden des Landes gegenseitig fühlt? Robotiker sind nun einen Schritt näher dran, Androiden mehr Gesichtsausdrücke zu geben, mit denen sie kommunizieren können.

Trotz aller Fortschritte bleibt die Erfassung humanistischer Ausdrücke in einem Robotergesicht eine schwer fassbare Herausforderung. Obwohl ihre Systemeigenschaften allgemein angesprochen wurden, wurden die Gesichtsausdrücke der Androiden nicht im Detail untersucht. Dies ist auf Faktoren wie die große Bandbreite und Asymmetrie der natürlichen menschlichen Gesichtsbewegungen, die Einschränkungen der Materialien, die in der Androidenhaut verwendet werden, und die komplizierte Technik und Mathematik zurückzuführen, die die Bewegungen der Roboter antreibt.

Ein Trio von Forschern der Universität Osaka hat nun eine Methode zur Identifizierung und quantitativen Auswertung von Gesichtsbewegungen auf ihrem Androidenroboterkopf gefunden. Das Modell der ersten Generation mit dem Namen Affetto wurde in einer Publikation aus dem Jahr 2011 vorgestellt. Die Forscher haben nun ein System entwickelt, um das Affetto der zweiten Generation ausdrucksstärker zu machen. Ihre Ergebnisse bieten Androiden einen Weg, um größere Gefühlsbereiche auszudrücken und letztlich eine tiefere Interaktion mit dem Menschen zu erreichen.

Die Forscher berichteten über ihre Ergebnisse in der Zeitschrift Frontiers in Robotics and AI.

„Oberflächendeformationen sind ein zentrales Thema bei der Kontrolle von Androidengesichtern“, erklärt Studienko-Autor Minoru Asada. „Bewegungen ihrer weichen Gesichtshaut erzeugen Instabilität, und das ist ein großes Hardwareproblem, mit dem wir uns herumschlagen. Wir suchten nach einem besseren Weg, um es zu messen und zu kontrollieren.“

Die Forscher untersuchten 116 verschiedene Gesichtspunkte von Affetto, um seine dreidimensionale Bewegung zu messen. Die Gesichtspunkte wurden durch sogenannte Deformationseinheiten unterstützt. Jede Einheit umfasst eine Reihe von Mechanismen, die eine ausgeprägte Gesichtsverzerrung erzeugen, wie z.B. das Absenken oder Anheben eines Teils einer Lippe oder eines Augenlids. Messungen aus diesen wurden dann einem mathematischen Modell unterzogen, um ihre Oberflächenbewegungsmuster zu quantifizieren.

Während die Forscher auf Herausforderungen bei der Balance der aufgebrachten Kraft und bei der Anpassung der synthetischen Haut stießen, konnten sie mit ihrem System die Deformationseinheiten zur präzisen Steuerung der Affettoschen Gesichtsoberflächenbewegungen einstellen.

„Android-Robotergesichter sind nach wie vor ein Blackbox-Problem: Sie wurden implementiert, aber nur vage und allgemein beurteilt“, sagt der Erstautor der Studie Hisashi Ishihara. „Unsere genauen Ergebnisse werden es uns ermöglichen, die androiden Gesichtsbewegungen effektiv zu kontrollieren, um nuanciertere Ausdrücke wie Lächeln und Stirnrunzeln zu erzeugen.“

Mehr Informationen:
Hisashi Ishihara et al, Identifizierung und Bewertung des Gesichtssystems eines kindlichen Android-Roboters Affetto für Surface Motion Design, Frontiers in Robotics and AI (2018). DOI: 10.3389/frobt.2018.00119

Teilen Ist Liebe! ❤

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

shares