Der Roboter lernt, Handgesten zu benutzen, einschließlich Zeigen, indem er 52 Stunden TED-Talk-Videos anschaut.

Wissenschaftler haben einem Roboter beigebracht, wie man menschenähnliche Handgesten beim Sprechen benutzt, indem man ihm Filmmaterial von Personen zuführt, die Präsentationen halten.

Der Androide lernte, eine Zeigegeste zu benutzen, um „Du“ oder „Ich“ darzustellen, sowie eine schiefe Armbewegung, um vorzuschlagen, etwas zu halten.

Der Bau von Robotern, die wie Menschen gestikulieren, wird die Interaktion mit ihnen natürlicher machen, sagte das koreanische Team hinter der Technologie.

Sie bauten den Roboter um eine maschinelle Lernsoftware herum und zeigten 52 Stunden TED-Vorträge – Präsentationen von Experten zu verschiedenen Themen.

Menschen verwenden Co-Sprachgesten, wenn sie mit anderen sprechen, um Sprache zu betonen, Absichten zu zeigen oder etwas anschaulich zu beschreiben“, schrieben Forscher des Electronics and Telecommunications Research Institute in Daejeon, Korea, in ihrem Beitrag.

Roboter können Co-Sprachgesten aus menschlichen Verhaltensweisen lernen, wie wir es selbst tun.

„Die Nachahmung menschlicher Gesten ist eine praktikable Strategie für humanoide Roboter, da sie ähnliche Erscheinungsformen haben und Gelenke steuern.

Wissenschaftler trainierten ein maschinelles Lernprogramm, um Handgesten mit Wörtern und Sätzen, die von Ted Talk Speakers verwendet werden, in Einklang zu bringen.

Programme für maschinelles Lernen funktionieren, indem sie eine Vielzahl von Daten durchsuchen, um Muster zu lernen, wie z.B. Bewegungen in einem Video.

Nachdem die Software gelernt hatte, Gesten genau mit Phrasen abzugleichen, installierte das Team sie in einem humanoiden Roboter.

Viele Androiden verwenden bereits Handgesten, aber diese Aktionen sind vom Menschen vorprogrammiert, was Stunden dauert.

Das Repertoire des Roboters ist ebenfalls auf die von seinen Designern programmierten beschränkt, so dass im Vergleich zur breiten Palette der Menschen eine winzige Geste bleibt.

Um dies zu vermeiden, programmierten die Forscher den neuen Roboter, um die natürlichen Gesten des Menschen beim Sprechen zu erlernen.

Sie bildeten die Pose des Sprechers für jedes Bild des Videos ab, einschließlich der Position von Kopf, Armen und Händen, und passten dies dem an, was sie sagten.

Das Ergebnis war ein Roboter, der in der Lage war, komplexe Gesten zu geben, einschließlich einer offenen bewaffneten Aktion, um Inklusivität vorzuschlagen und auf die Darstellung von „mir“ und „dir“ zu verweisen.

Um das System zu testen, ließen die Forscher 46 Freiwillige die Gesten des neuen Roboters mit denen der aktuellen Technologie vergleichen.

Die Teilnehmer beurteilten die erlernten Handlungen als freundlicher, menschenähnlicher und passen besser zu den gesprochenen Worten als die anderer moderner Roboter.

Die Forscher planen, die Handbewegungen zu personalisieren, damit die Roboter in Zukunft nicht mehr alle die gleichen Gesten verwenden.

Teilen Ist Liebe! ❤

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

shares