Mensch-Maschine-Schnittstelle

Mitfühlende Roboter helfen im Alltag

| Redakteur: Hendrik Härter

Was tun wir als nächstes? Um Robotern beizubringen, was Menschen wollen, nutzen Forscher am KIT Eyetracking.
Was tun wir als nächstes? Um Robotern beizubringen, was Menschen wollen, nutzen Forscher am KIT Eyetracking. (Bild: Laila Tkotz / KIT Karlsruhe)

Mehr zum Thema

Ein Roboter erkennt die Stimmung seines menschlichen Gegenübers und kann gezielt darauf eingehen. Forscher arbeiten an Mensch-Maschine-Schnittstellen, die auf Bedürfnisse eingehen können. Eine Möglichkeit ist das Eye-Tracking.

Forscher des Karlsruher Institut für Technologie (KIT) arbeiten an zukünftigen Mensch-Maschine-Schnittstellen, die nicht nur nutzerfreundlich, sondern auch adaptiv sein sollen. Damit soll es möglich sein, menschliche Bedürfnisse zu erkennen und auf diese einzugehen. Gerade mobile Roboter-Helfer können bei körperlich eingeschränkten Personen zur Hand gehen. Der Roboter erkennt Stress oder Probleme mit einer zu pflegenden Person und kann Hilfe anbieten.

Barbara Deml ist Leiterin des Instituts für Arbeitswissenschaft und Betriebsorganisation am KIT in Karlsruhe. Die Psychologin und Ingenieurin arbeitet daran, Maschinen beizubringen, körperliche Verfassung sowie Gemütszustand von Menschen zu erfassen und sich entsprechend zu verhalten. Dabei sei es relativ gleichgültig, ob Assistenzsysteme in einem Maschinenleitstand, dem Cockpit eines Flugzeugs, einem Operationssaal oder eben der häuslichen Pflege zum Einsatz kämen.

Berührungen als auch Annäherungen erkennen

Beim Projekt „SINA“ – einer Art fahrbarem Greifarm – gehe es darum, Übergabevorgänge zwischen Mensch und Roboter zu organisieren, zum Beispiel, wenn ein Patient ein Glas Wasser möchte. Dabei müssen neuartige Sensoren eingesetzt werden, die sowohl Berührungen als auch Annäherungen erkennen können, um Unfälle zu vermeiden. Ein weiterer wichtiger Punkt sei die Akzeptanz von Roboter-Helfern.

Eine Möglichkeit, Maschinen erkennen zu lassen, was wir wollen oder was wir als nächstes tun werden, ist das Eyetracking. „Wohin wir schauen, wie lange unser Blick auf einer Stelle verharrt oder ob unsere Pupillen geweitet sind, lässt darauf schließen, was wir empfinden“, erläutert Deml. Darüber hinaus nutzt sie Messungen physiologischer Parameter wie Herzrhythmus, Muskelaktivität oder Hautleitfähigkeit.

Diese Daten werden von der Maschine statistisch abgeglichen; gibt es Abweichungen vom Üblichen, wird sie aktiv. So könnten beispielsweise Fahrassistenzsysteme durch Beobachtung des Fahrers brenzlige Verkehrssituationen voraussehen oder Industrieroboter Arbeiter vor Überbeanspruchung schützen, indem sie etwa ihr Arbeitstempo Beim Ableiten psychologischer Zustände aus physiologischer Information stünden empirische Studien und deren statistische Datenauswertung im Mittelpunkt: „Uns ist es wichtig, bei der Analyse nicht nur rein datengetrieben vorzugehen, wie es im Moment mit vielen Deep-Learning-Ansätzen im Bereich der Künstlichen Intelligenz verfolgt wird, sondern entgegen des Trends auch modellbasiert zu arbeiten“, sagt Deml abschließend.

Dieser Beitrag stammt von unserem Partnerportal ELEKTRONIKPRAXIS.

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45246624 / Aktuelles & Hintergründe)