Zum Inhalt springen

Emotionserkennung: Ein Milliardenmarkt mit sehr wackeliger wissenschaftlicher Substanz.

Der individuelle Kontext ist wichtiger als die künstliche Intelligenz bemerkt.

Im Juli 19 wurde eine Meta-Analyse von Emotionsforschern über die Zuverlässigkeit bzw. die tatsächlich zu hohen Fehlerraten von automatisierter Emotionsmessung veröffentlicht, die weltweit Resonanz gefunden hat. Nur mal wieder nicht in der deutschen Fachpresse der Markt- und Markenforschung. (Quellen am Ende) 

Schon in den BrainCandys 35 und 36 hatte ich ausführlich darüber berichtet, dass sich Emotionen nicht zuverlässig in irgendwelchen standardisierbaren körperlichen Repräsentationen zeigen. Einerseits sind unsere Emotionen nicht einfach nur Freude oder Wut, sondern können von einem hauchzarten Gefühl bis hin zu überbordenden Gefühlsausbrüchen reichen. Und wir haben alle gelernt, uns situativ angepasst zu verhalten. Der Kontext beeinflusst unser Verhalten. Wir können innerlich kochen vor Wut, können aber auch eiskalte Wut signalisieren oder uns explosiver Wutausbrüche unbeherrscht oder gar vorsätzlich hingeben. In der Marktforschung haben wir es ohnehin ungleich schwerer, weil Marken und Werbung bekanntlich nur schwache emotionale Reaktionen auslösen, wenn überhaupt. Natürlich gibt es immer wieder das Versprechen, dass man schwache Emotionen trotzdem gut in minimalen Augenbewegungen oder ganz clever in Mikro-Muskelbewegungen im Gesicht messen könne. Wenn aber schon die Grundannahme falsch ist, dann ist offensichtlich auch die besonders feine Messung nicht mehr als eine Nebelkerze für hoffnungsvolle Kunden.

Wie man hofft, dass Werbung arbeitet 
Was tatsächlich passiert 

Die Washington Post schreibt über die Studie1: „In nur wenigen Jahren hat sich das Geschäft der Emotionserkennung – mit Hilfe künstlicher Intelligenz zu verstehen, wie sich die Menschen fühlen – über Science-Fiction hinaus zu einer 20-MilliardenDollar-Industrie entwickelt. Unternehmen wie IBM und Microsoft preisen Software an, die Mimik analysieren und sie mit bestimmten Emotionen verknüpfen kann. Eine scheinbare Superkraft, die Unternehmen verwenden könnten, um zu sagen, wie Kunden auf ein neues Produkt reagieren oder wie sich ein Job-Kandidat während eines Interviews fühlt. Aber eine weitreichende Überprüfung der Emotionsforschung stellt fest, dass die Wissenschaft, die diesen Technologien zugrunde liegt, zutiefst fehlerhaft ist.“

Das Problem? Man kann nicht zuverlässig beurteilen, wie sich jemand fühlt, an dem, was sein Gesicht tut. 

Die Gruppe von Wissenschaftlern, die von der Association for Psychological Science zusammengebracht wurde, verbrachte zwei Jahre damit, diese Idee zu erforschen. Nach der Überprüfung von mehr als 1.000 Studien kamen die fünf Forscher zu dem Schluss, dass die Beziehung zwischen Gesichtsausdruck und Emotion nebulös, verworren und alles andere als universell ist. 

Diese führenden Experten der Psychologie, Neurowissenschaften und Informatik schreiben in ihrer umfassenden Überprüfung3: „Es ist nicht möglich, sicher Glücksgefühle von einem Lächeln, Ärger von einem finsteren Blick oder Traurigkeit von leerem Ausdruck abzuleiten, wie es die derzeitige Technologie versucht, in der Anwendung von etwas, was man für wissenschaftliche Fakten hält.

“ „Etwa 20 bis 30 Prozent der Zeit machen die Menschen den erwarteten Gesichtsausdruck“, wie zum Beispiel lächeln, wenn sie glücklich sind, sagte Lisa Feldman Barrett, Professorin für Psychologie an der Northeastern University.“ 

Das bedeutet auf Deutsch: In den meisten Fällen machen sie nicht das, was wir auf Grund unseres holzschnittartigen Verständnisses erwarten. Punkt. Wie soll man Muster erkennen, wenn das richtige Muster ungleich seltener auftritt als ‚falsche‘ Muster? 

Es ist wahrlich nicht verwunderlich, dass etwas so Komplexes und Gelerntes (!) wie menschliche Emotionen einer einfachen Klassifizierung trotzt. 

Microsoft lehnte es laut Washington Post ab, einen Kommentar dazu abzugeben, wie oder ob diese Überprüfung ihren Ansatz zur Emotionserkennung beeinflussen würde.

Mein Fazit: Ich glaube, dass wir uns frühestens mittelfristig einer genaueren Ableitung von Emotionen sicher sein können – und auch dann wird das kein einfaches Unterfangen sein. Die Anbieter werden sehr viele Daten bei jedem Individuum parallel erheben müssen (z.B. Gesicht, Stimmänderungen, Körperhaltung, Kopfbewegungen, Hautwiderstand, Hirnströme etc.). Damit scheiden rein beobachtende Anwendungen schon mal aus. (Darüber darf man sich dann als Privatperson ruhig mal freuen.) Zusätzlich muss die Software bei jeder Anwendung erst das individuelle Reaktionsprofil erlernen und das in spezifischen Kontexten/Situationen. Es wird also wohl niemals die einfache Methode werden, zu der man sie heute schon anpreist. 

Misstrauen Sie bitte solange allen schönen Versprechungen von angeblich objektiver Evaluierung Ihrer neuen Marketingideen. Wir selbst haben sehr viel Energie in die Arbeit mit Gehirnwellen (EEG) gesteckt, sogar eine sehr ordentliche Förderung erhalten können und waren am Ende ernüchtert von den nicht replizierbaren Ergebnissen. Denn Emotion findet nicht nur an bestimmten Punkten statt, sondern ist ein Ganzgehirnnetzwerk – individuell geknüpft. 

Heute wissen wir, dass wir uns den Aufwand hätten sparen können – wir sind einer wunderschönen Fata Morgana gefolgt. Wenn die theoretische Grundlage fehlerhaft ist, sind es die Messergebnisse auch. Da hilft auch keine künstliche Intelligenz.

Quellen: 

K&A BrainCandy No. 53

https://www.washingtonpost.com/business/2019/07/3 1/emotion-detection-ai-is-billion-industry-newresearch-says-it-cant-do-what-it-claims/?noredirect=on

https://www.sciencedaily.com/releases/2019/07/1907 18085318.htm 

https://journals.sagepub.com/stoken/default+domain/ 10.1177%2F1529100619832930-FREE/pdf

Sei der Erste der einen Kommentar abgibt

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.