Heim Nachricht New Wave Tech verbessert Android -Emotionen für größere Natürlichkeit

New Wave Tech verbessert Android -Emotionen für größere Natürlichkeit

21. April 2025
BenHernández
17

Wenn Sie jemals mit einem Android unterhalten haben, das auffallend menschlich aussieht, haben Sie vielleicht gespürt, dass etwas "aus" war. Dieses unheimliche Gefühl geht über das bloße Aussehen hinaus; Es ist tief damit verbunden, wie Roboter Emotionen vermitteln und diese emotionalen Zustände aufrechterhalten. Im Wesentlichen geht es um ihren Mangel bei der Nachahmung menschlicher emotionaler Fähigkeiten.

Die heutigen Androiden sind geschickt darin, einzelne Gesichtsausdrücke nachzuahmen, aber die wirkliche Herausforderung besteht darin, reibungslose Übergänge zu erstellen und emotionale Konsistenz aufrechtzuerhalten. Traditionelle Systeme hängen häufig von voreingestellten Ausdrücken ab, die sich eher als ein Buch statischer Bilder als einen natürlichen Fluss von Emotionen durchblättern lassen können. Diese Steifheit kann zu einer Trennung zwischen dem führen, was wir sehen und dem sich wie echter emotionaler Ausdruck anfühlt.

Dies wird besonders bei längeren Wechselwirkungen auffällig. Ein Android könnte in einem Moment ein perfektes Lächeln schenken, aber dann kämpfen Sie, um nahtlos zu einem anderen Ausdruck zu wechseln und uns daran zu erinnern, dass wir uns eher mit einer Maschine als mit einem Wesen mit echten Emotionen beschäftigen.

Eine Wellenbasis-Lösung

Geben Sie an der Osaka University bahnbrechende Forschungen ein, in der eine neue Perspektive eingeführt wird, wie Androids Emotionen ausdrücken sollten. Anstatt die Gesichtsausdrücke als separate Aktionen anzusehen, sieht diese neue Technologie sie als miteinander verbundene Bewegungswellen, die natürlich über das Gesicht eines Androids fegen.

Stellen Sie sich es wie eine Symphonie vor, bei der verschiedene Instrumente zur Schaffung von Harmonie mischen. Dieses System verschmilzt unterschiedliche Gesichtsbewegungen - von subtiler Atmung zu Augenblinzeln - in ein zusammenhängendes Ganzes. Jede Bewegung wird als Welle dargestellt, die in Echtzeit mit anderen angepasst und kombiniert werden kann.

Die Innovation hier ist die dynamische Natur dieses Ansatzes. Durch die Erzeugung von Ausdrücken organisch durch die Überlagerung dieser Bewegungswellen schafft es ein flüssigeres und natürlicheres Aussehen und löscht jene Roboterübergänge, die die Illusion authentischer emotionaler Expression zerstören können.

Der wichtigste technische Fortschritt ist das, was Forscher "Wellenformmodulation" bezeichnen. Diese Funktion ermöglicht es dem internen Zustand des Android, sich direkt zu beeinflussen, wie sich diese Expressionswellen manifestieren, und fördert eine echte Verbindung zwischen den programmierten Emotionen des Roboters und seinen physischen Ausdrücken.

Bildnachweis: Hisashi Ishihara

Echtzeit emotionale Intelligenz

Betrachten Sie die Herausforderung, einen Roboter schläfrig aussehen zu lassen. Es geht nicht nur darum, Augenlider herzustellen; Es beinhaltet die Koordination zahlreicher subtiler Bewegungen, die Menschen instinktiv als Zeichen von Müdigkeit erkennen. Dieses neue System befasst sich mit dieser Komplexität durch einen cleveren Ansatz zur Bewegungskoordination.

Dynamische Expressionsfunktionen

Die Technologie orchestriert neun grundlegende Arten koordinierter Bewegungen, die mit verschiedenen Erregungszuständen verbunden sind: Atmung, spontanes Blinken, schilderte Augenbewegungen, nicken, Kopfschütteln, Saugreflexion, pendelischer Nystagmus, Kopfseite Schwingen und Gähnen.

Jede Bewegung wird von einer "verfallenden Welle" bestimmt, einem mathematischen Muster, das vorschreibt, wie sich die Bewegung im Laufe der Zeit entwickelt. Diese Wellen werden mit fünf Schlüsselparametern akribisch abgestimmt:

  • Amplitude: steuert die Intensität der Bewegung
  • Dämpfungsverhältnis: Bestimmt, wie schnell die Bewegung verblasst
  • Wellenlänge: Legt den Zeitpunkt der Bewegung fest
  • Oszillationszentrum: Legt den neutralen Punkt der Bewegung fest
  • Reaktivierungszeit: Vorschreibt, wie oft die Bewegung wiederholt

Interner Zustandsreflexion

Das herausragende Merkmal dieses Systems ist seine Fähigkeit, diese Bewegungen mit dem internen Erregungzustand des Roboters zu verknüpfen. Wenn das System eine hohe Erregung signalisiert (wie Aufregung), passen sich bestimmte Wellenparameter automatisch an - zum Beispiel wird das Atmen häufiger und ausgeprägt. In einem niedrigen Erregungszustand (wie Schläfrigkeit) könnten Sie langsamer, ausgeprägter Gähnen und gelegentlicher Kopfnicken beobachten.

Dies wird durch "Temporal Management" und "Postural Management" -Module erreicht. Das zeitliche Modul schreibt vor, wann Bewegungen auftreten, während das Haltungsmodul sicherstellt, dass alle Gesichtskomponenten in Harmonie funktionieren.

Hisashi Ishihara, der Hauptautor dieser Forschung und Associate Professor am Abteilung für Maschinenbau der Graduiertenschule für Ingenieurwesen und die Osaka University, erklärt: "Anstatt oberflächliche Bewegungen zu schaffen, können die Weiterentwicklung eines Systems, in dem interne Emotionen in jedem Detail der Handlungen von Androiden reflektiert werden, dazu führen, dass die Handlungen von Androiden dazu führen, dass die Erschaffung von Androids, die als Herz vermeint sind."

Schläfriger Stimmungsausdruck auf einem Kind Android -Roboter (Bildnachweis: Hisashi Ishihara)

Verbesserung der Übergänge

Im Gegensatz zu herkömmlichen Systemen, die zwischen vorgezeichneten Ausdrücken wechseln, gewährleistet dieser Ansatz eine reibungslose Übergänge, indem diese Wellenparameter kontinuierlich angepasst werden. Die Bewegungen werden durch ein ausgeklügeltes Netzwerk koordiniert, das sicherstellt, dass Gesichtsaktionen auf natürliche Weise zusammenarbeiten, ähnlich wie die Gesichtsbewegungen eines Menschen unbewusst koordiniert werden.

Das Forschungsteam zeigte dies durch Experimente, die zeigen, wie das System effektiv unterschiedliche Erregungsniveaus vermitteln kann und gleichzeitig natürlich aussehende Ausdrücke aufrechterhalten wird.

Zukünftige Implikationen

Die Entwicklung dieses wellenbasierten emotionalen Expressionssystems eröffnet aufregende Möglichkeiten für die Interaktion zwischen Mensch und Robot und könnte sich möglicherweise in Technologien wie verkörperte KI integrieren. Während aktuelle Androiden bei längeren Interaktionen häufig ein Gefühl der Unbehagen hervorrufen, könnte diese Technologie dazu beitragen, das unheimliche Tal zu überbrücken - diesen beunruhigenden Raum, in dem Roboter fast, aber nicht ganz menschlich erscheinen.

Der entscheidende Durchbruch besteht darin, eine emotionale Präsenz mit echtem Gesicht zu schaffen. Durch die Erzeugung von flüssigen, kontextgerechten Ausdrücken, die sich mit internen Zuständen entsprechen, könnten Androids in Rollen wirksamer werden, die emotionale Intelligenz und menschliche Verbindung erfordern.

Koichi Osuka, der leitende Autor und Professor an der Abteilung für Maschinenbau der Osaka University, stellt fest, dass diese Technologie "die emotionale Kommunikation zwischen Menschen und Robotern sehr bereichern könnte". Stellen Sie sich vor, Gesundheitsbegleitungen, die angemessene Besorgnis, Bildungsroboter ausdrücken, die Begeisterung zeigen, oder Service-Roboter, die echte Aufmerksamkeitsfähigkeit vermitteln.

Die Forschung zeigt besonders vielversprechende Ergebnisse, um unterschiedliche Erregungsniveaus auszudrücken-von energiereicher Aufregung bis hin zur schläfrigen Energieerdigkeit. Diese Fähigkeit kann in Szenarien von entscheidender Bedeutung sein, in denen Roboter:

  • Übermitteln Sie die Wachsamkeitsniveaus bei langfristigen Wechselwirkungen
  • Ausdrücken geeigneter Energieniveaus in therapeutischen Umgebungen
  • Passen Sie ihren emotionalen Zustand mit dem sozialen Kontext an
  • Bei erweiterten Gesprächen emotionale Konsistenz beibehalten

Die Fähigkeit des Systems, natürliche Übergänge zwischen Staaten zu erzeugen, macht es besonders wertvoll für Anwendungen, die eine anhaltende Interaktion zwischen Menschen-Roboter erfordern.

Durch die Behandlung des emotionalen Ausdrucks als flüssiges, wellenbasiertes Phänomen und nicht als eine Reihe vorprogrammierter Zustände eröffnet die Technologie viele neue Möglichkeiten, Roboter zu schaffen, die sich auf emotional sinnvolle Weise mit Menschen beschäftigen können. Die nächsten Schritte des Forschungsteams werden sich darauf konzentrieren, die emotionale Reichweite des Systems zu erweitern und seine Fähigkeit, subtile emotionale Zustände zu vermitteln, weiter zu verfeinern und zu beeinflussen, wie wir über Androids in unserem täglichen Leben nachdenken und mit ihnen interagieren werden.

Verwandter Artikel
2025年4月 2025年4月 在機器人技術和自動化的興起的驅動下,建築行業正在經歷著顯著的轉變。到2030年,全球建築機器人市場預計將達到35億美元,這些創新正在徹底改變工作現場的安全性和效率。從自主堆D
3D-VITAC:負擔得起的觸覺傳感系統封閉了人類和機器人之間的差距 3D-VITAC:負擔得起的觸覺傳感系統封閉了人類和機器人之間的差距 機器人技術的領域長期以來一直在努力模仿人類自然而然的細微感官能力的挑戰。儘管在視覺處理方面取得了重大進展,但機器人經常努力複製人類用來處理所有事物的微妙觸摸敏感性
Sonicsense通過聲學振動通過類似人類的傳感增強了機器人 Sonicsense通過聲學振動通過類似人類的傳感增強了機器人 杜克大學的超音速:機器人Sensingduke大學最新創新Sonicsense的遊戲規則改變,將徹底改變機器人感知並與周圍環境互動的方式。通過從傳統的基於視覺的系統轉移,Sonicsense使用聲學振動來提供RO
Kommentare (0)
0/200
Back to Top
OR