Let's Talk Tech! Wie lernen Roboter Emotionen?
KI-Algorithmen können unsere Stimmen und Gesichtsausdrücke analysieren und darin Muster erkennen. So lernen Maschinen, menschliche Gefühle zu entschlüsseln und entsprechend zu reagieren. Wie diese Technologie funktioniert und welche Risiken sie mit sich bringt, erklärt KI-Expertin Katharina Weitz.
Sie saugen zu Hause den Boden, montieren und schweißen in der Fabrik Bauteile und operieren mit höchster Präzision: Roboter unterstützen den Menschen bei vielen mechanischen Tätigkeiten.
Zunehmend werden sie auch im direkten Kontakt mit Menschen erprobt: Im Krankenhaus bringen sie den Patientinnen und Patienten das Essen und überwachen ihren Gesundheitszustand. Sie führen Gespräche mit älteren Menschen gegen die Einsamkeit oder unterstützen bei der Therapie autistischer Kinder.
Soziale Roboter sollen lernen, menschliche Emotionen zu verstehen und adäquat darauf zu reagieren, indem sie empathisch sind und selbst Gefühle ausdrücken. Doch können Roboter wirklich emotionale und soziale Bedürfnisse erfüllen?
Im Gespräch mit Tech-Journalistin Svea Eckert zeigt Informatikerin und Psychologin Katharina Weitz anhand vieler praktischer Beispiele, wie genau Roboter Emotionen lernen und wo die Grenzen liegen müssen.
In unserer Reihe Let’s Talk Tech geht es um Fragen rund um Digitalisierung und künstliche Intelligenz. Erfahren Sie mehr über Geräte, Apps oder Funktionen, die längst Teil unseres Alltags oder unserer Arbeit geworden sind. Ziel ist es, komplexe Themen einfach und anschaulich zu erklären – technische Vorkenntnisse sind nicht erforderlich.