Uncanny valley im e-Learning
Achtung Gruselgraben: Uncanny Valley im e-Learning
Roboter und Animationsfiguren gehören zu unserem Alltag. Sehen solch künstliche Figuren allerdings zu menschenähnlich aus, stoßen sie auf Ablehnung. Es droht der Fall ins Uncanny Valley. Dieser Effekt spielt auch im e-Learning eine wichtige Rolle.
Egal, ob WALL-E, der Blechmann aus „Der Zauberer von Oz“ oder die NS-5-Robots, die Will Smith in „I, Robot“ das Leben schwer machen: Roboter sind aus Film und Fernsehen nicht wegzudenken. Allerdings rufen nicht alle Roboter dieselben Emotionen bei den Seherinnen und Sehern hervor. Während die ersten beiden Roboter aus unserer kleinen Auswahl als freundliche, tollpatschige und liebenswürdige Geschöpfe wahrgenommen werden, lösen die Roboter aus „I, Robot“ eher Unbehagen aus. Das hat damit zu tun, dass ihr Aussehen und Verhalten dem von Menschen zu sehr ähnelt. Dieser Effekt, also die Ablehnung durch ein zu menschenähnliches Aussehen künstlicher Figuren, nennt man Uncanney Valley oder Akzeptanzlücke. Wir gehen gleich näher darauf ein, möchten diesen paradox erscheinenden Effekt aber noch mit einem Beispiel aus der Welt der Animationsfilme illustrieren. Einige von Ihnen kennen bestimmt den Film „Der Polarexpress“. Die Figuren dieses Weihnachtsfilms sollten Kinobesucherinnen und -besucher begeistern, stießen aber vielerorts auf Ablehnung. Der Grund: Sie sahen zu menschenähnlich aus. Animationsfilme wie „Die Eiskönigin“ oder „Shrek“, in denen auch animierte Menschen vorkommen, bergen hingegen keine Gefahr für Seherinnen und Seher, ins Uncanny Valley zu fallen. Die animierten Figuren sind bewusst überzeichnet und weisen comichafte Proportionen auf. Im Gegensatz zu anthropomorphen Figuren werden sie von den Menschen akzeptiert und vielfach sogar liebgewonnen. Ähnlich verhält es sich mit sprechenden Tieren oder belebten Dingen. Aber warum ist das so? Wieso sind sprechende Fische kein Problem, menschenähnliche Roboter allerdings schon?
Neben der fast schon teilweise realistischen Darstellung geht es aber auch um die Bewegung der dargestellten Figuren. Selbst die Bewegung kann einen Einfluss auf die Akzeptanz haben. Wir kennen es schon aus den Hollywood Blockbustern, wo in Greenbox Studios mit Personen voll mit Sensoren versucht wird Bewegungen so realistisch wie möglich im späteren 3D Rendering darzustellen.
Das Uncanny Valley im Detail
Das „unheimliche Tal“ beziehungsweise der „Gruselgraben“ wurde in den 1970er Jahren von einem japanischen Robotiker entdeckt. Der Effekt des Uncanny Valley besagt, dass die Akzeptanz des Verhaltens von künstlichen Figuren wie Robotern oder animierten Charakteren von deren Realitätsgrad abhängt. Zum besseren Verständnis soll folgende Grafik dienen:
Wie hier ersichtlich, hängen die Menschenähnlichkeit und das Vertrauen, das Menschen künstlichen Figuren entgegenbringen, zusammen. Beispielsweise rufen Industrieroboter, die größtenteils aus Greifarmen oder Förderbändern bestehen, kein Vertrauen bei Menschen hervor. Eine gewisse Menschenähnlichkeit ist also zwingend notwendig, wenn künstliche Figuren akzeptiert werden sollen. Versieht man Roboter, Stofftiere oder Animationsfiguren mit menschenähnlichen (physiognomischen oder psychologischen) Eigenschaften, steigt das Vertrauen bei den Menschen. Man denke hier an Pflegeroboter mit Glubschaugen, wie sie in Seniorenheimen beispielsweise schon zum Einsatz kommen. Dieser Vertrauenanstieg durch Menschenähnlichkeit funktioniert allerdings nur bis zu einem gewissen Grad. Wird die Figur zu menschenähnlich, sinken Vertrauen und Akzeptanz rapide. Deshalb spricht man in Bezug auf Uncanny Valley auch von der Akzeptanzlücke. Die Figuren lösen dann Unbehagen aus und stoßen auf Ablehnung. Dass es das Uncanny Valley gibt, ist relativ unbestritten, über die Gründe für seine Entstehung ist sich die Forschung allerdings nicht einig. Eine mögliche Erklärung stammt aus der Psychologie: Man geht davon aus, dass wir künstliche Figuren entweder als eigengesetzlich einordnen oder in die kategorische Schublade „Mensch“ stecken. Ersteres ist der Fall, wenn es sich um animierte Tiere mit menschlichen Eigenschaften oder verniedlichte Roboter handelt. Wir akzeptieren, dass diese Figuren eigenen Gesetzmäßigkeiten unterliegen und hinterfragen nicht alles. Ähnelt eine künstliche Figur einem Menschen zu stark, messen wir sie an menschlichen Maßstäben. Da diese Figuren allerdings nie zu 100 % menschenähnlich sind und deshalb immer Mängel im nonverbalen Verhalten (unnatürliche Mimik, Bewegungen etc.) aufweisen, lehnen wir sie instinktiv ab.
Das Uncanny Valley im digitalen Raum
Wir alle kennen und nutzen Chatbots, Chat-Programme, die durch Algorithmen in der Lage sind, Kommunikationsprozesse zu simulieren. Nahezu alle großen Unternehmen bieten solche Chatbots als Ergänzung ihres Kundenservices an. Diese virtuellen Helferlein konnten sich in den vergangenen Jahren recht gut etablieren. Der Grund: Sie geben gar nicht erst vor, ein Mensch zu sein. Würden diese Chat-Programme uns allerdings weismachen wollen, auf der anderen Seite säße ein Mensch, der mit uns chattet, bestünde nach einer als unpassend oder wenig menschlich empfundenen Antwort eine relativ hohe Chance für das Entstehen einer Akzeptanzlücke. Eine ähnliche Problematik tut sich bei Sprachassistentinnen wie Siri, Alexa & Co. auf: Eine Stimme, die zwar menschenähnlich klingt, aber noch immer „blechern“ genug ist, um sie als künstlich einzustufen, wird tendenziell eher akzeptiert als eine, die sich nicht von einer echten Menschenstimme unterscheiden lässt.
Auch im e-Learning droht ein Uncanny Valley
e-Learning, das wirkt, ermöglicht Lernenden realitätsnahe Lernerlebnisse – Stichwort Learning Experience Design. Diese Lernerlebnisse sollen sich an den tatsächlichen Bedürfnissen der Lernenden orientieren und sie in eine packende Geschichten eintauchen lassen. Aus jahrelanger Erfahrung im e-Learning Bereich wissen wir: e-Learning wird besser angenommen, wenn diese Geschichten mithilfe von Fotos oder Videos realer Personen aufgebaut werden. Eine Umsetzung mit menschenähnlichen Animations- oder Comicfiguren ist zwar auch möglich, birgt aber immer ein gewisses Risiko für ein Uncanny Valley in sich.
Um das Auftreten eines Uncanny Valley im e-Learning zu vermeiden, legen wir ein besonderes Augenmerk auf die Drehbuchplanung. Ist das e-Learning Drehbuch fertig, spielen wir es gemeinsam mit unseren Kundinnen und Kunden durch. Entdecken wir während dieser Rollenspiele potentielle Akzeptanzlücken, schließen wir sie noch vor Etablierung des e-Learnings. Ein stimmiges Lernangebot, das Lernenden einen Mehrwehrt bietet und sie garantiert nicht in den Gruselgraben schickt, wird damit sichergestellt.