Lifestyle-Apps, Fitness-Armbänder oder Schrittzähler – das Thema Self-Tracking erstaunt heute keinen mehr. Auch wenn das vor wenigen Jahren noch ganz anders war. Was heute bei vielen schon Alltag ist, war vor fünf Jahren der absolute Trend, den viele noch skeptisch betrachtet haben! Beim Self-Tracking geht es darum, sich selbst im Auge zu behalten und alle Daten gewissenhaft in Apps zu übertragen. Der nächste logische Schritt wäre es doch, dass Computer – oder nennen wir sie direkt Roboter – diesen Part von Grund auf übernehmen. Was uns zu Affective Computing führt.

Doch eine Hürde gibt es da noch. Wir Menschen benötigen immer ein gewisses Vertrauen in die Menschen, denen wir Dinge anvertrauen. Und Vertrauen bauen wir durch bestimmte Erfahrungen und auch Emotionen auf. Emotionen sind wichtig, weil wir Menschen diese vor allem früher zum Überleben gebraucht haben – werden auch Künstliche Intelligenzen (KI) sie zum Überleben benötigen? Und wenn ja, was gehört alles dazu?

Künstliche Intelligenz und Emotionen mit
Affective Computing

Gestik und Mimik sind elementare Bestandteile unserer Kommunikation. Wenn wir glücklich oder traurig sind, kann man uns das ansehen. Doch welche Zeichen zu welcher Emotion gehören, dass müssen nicht nur Kinder von klein auf erlernen, auch Künstliche Intelligenzen sollen dazu künftig in der Lage sein. Rund 65 bis 90 Prozent unserer Kommunikation läuft Schätzungen zufolge nonverbal ab. Vieler dieser Signale sind wir uns selbst gar nicht bewusst und wir können diese auch nicht bewusst steuern. Das gilt besonders für Mikroexpressionen – also den Teil der Mimik, der nur für einen Sekundenbruchteil über unser Gesicht huscht. Diese Art des Gesichtsausdrucks ist der bewussten Kontrolle entzogen und kann auch nur sehr schwer nachgeahmt werden. Fernsehserien wie Lie to me basieren auf dem Prinzip, dass Lügen durch das Erkennen und Deuten von Mikroexpressionen entlarvt werden. Anhand Affective Computing lernen Künstliche Intelligenzen Emotionen konkret zu deuten.

Affective Computing – Signale richtig deuten

Während dem ungeschulten Menschen solche Signale oft entgehen, können Kameras jedes Detail davon einfangen und, gepaart mit einer lernfähigen künstlichen Intelligenz, auch deuten. Beim sogenannten Affective Computing lernen Computer Gesichter nach Gefühlsausdrücken zu scannen und zu analysieren. Dazu wurden den Maschinen zunächst sechs Basisemotionen beigebracht: traurig, fröhlich, überrascht, ängstlich, verärgert, angewidert. Dazu kamen im Laufe der Zeit bereits über 20 weitere Messgrößen.

Wie wir in unserem Beitrag „Wenn Computer lieben lernen“ dem ersten Teil zu Affective Computing erläutert haben, schulen Forscher seit einiger Zeit Künstliche Intelligenzen in der Deutung und Bedeutung von Gesichtsausdrücken. Auch Forscher am MIT sind bereits seit einigen Jahren dabei, Affective Computing umzusetzen und haben dabei eine Software entwickelt, die das Verhältnis zwischen Mensch und Maschine menschlicher wirken lassen soll. Um die KI anzulernen, wurden bereits Gesichtsausdrücke von mehr als fünf Millionen Menschen aufgenommen und ausgewertet.

Damit Affective Computing funktioniert, muss die Maschine in der Lage sein, Gesichtsausdrücke zu interpretieren. Ein Lächeln wird in der Regel sofort mit Freude gleichgestellt, aber manchmal kann ein Lächeln auch Schadenfreude oder Scham ausdrücken. Oder es ist einfach ein aufgesetztes, nicht ernst gemeintes Lächeln. Um hier richtig schlussfolgern zu können, werden außerdem noch weitere Faktoren mit einbezogen.

Stimme und Körpersignale durch
Affective Computing

Auch die Stimme gibt viele Merkmale wider, die Rückschlüsse auf unsere Emotionen geben. Die Plattform Beyond Verbal kann durch die Intonation der Stimme Emotionen in verschiedene Kategorien einteilen, darunter Ärger, Traurigkeit, Fröhlichkeit und Freundlichkeit. So liegt es nicht fern, dass auch Systeme wie Siri, Alexa oder Cortana bald unsere Gefühle nach unserer Stimmlage deuten können und entsprechend darauf reagieren lernen.

Marktforschung und Heimnetzwerk

Einen großen Reiz hat das Erkennen und Deuten von Gesichtsausdrücken für die Werbeindustrie und Marktforschung. Wenn Werbetreibende erkennen können, welche Emotionen ein Werbespot auslöst und ob die Bereitschaft, ein Produkt zu kaufen, dadurch steigt oder sinkt oder man eine Marke wiedererkennt oder nicht, sind das wichtige Informationen.

Aber auch die Entwicklungen im Heimnetzwerk schreiten weiter voran. Je mehr internetfähige Geräte in unseren Wohnungen installiert werden, desto mehr wird sich auch unsere Interaktion mit den Geräten ändern. Ein nächster Schritt wird die direkte Kommunikation sein, in der sich die Maschinen das Affective Computing zunutze machen, auf unsere Stimmung reagieren und uns passende Musik oder Filme vorschlagen, um den Tag entspannt zu beenden.

Über den Autor

Foto von Jasmin Rast. Account Director bei HBI PR.
Jasmin Rast
Account Director bei HBI Helga Bailey GmbH – International PR & MarCom

Seit 2012 ist Jasmin Rast PR-Beraterin und betreut Kunden aus dem B2C/B2B-Bereich. Ihre langjährige PR-Erfahrung trägt maßgeblich zu einer erfolgreichen Kommunikation und Kundenbetreuung bei. Neben der PR liegt auch das Online Marketing in ihrem Aufgabenbereich und rundet das integrierte Kommunikationskonzept der Agentur ab.
Zurück zum Blog

Arbeiten Sie mit uns

Überzeugt? Dann kontaktieren Sie uns und wir melden uns schnellstmöglich bei Ihnen!

Kontakt

Immer auf dem Laufenden bleiben mit dem HBI Newsletter