Studie  |  01.05.2022

Ruled by Robots – Wie nehmen Menschen maschinengestützte Entscheidungen wahr?

Algorithmen und Künstliche Intelligenz (KI) sind zu einem integralen Teil von Entscheidungs­prozessen geworden. Würden Menschen moralische Entscheidungen, die sie betreffen, lieber von einem Menschen oder einem Algorithmus treffen lassen? In einer neuen Studie wurden diese und weitere Fragen in einem Laborexperiment untersucht.

Da technologiegestützte Entscheidungsfindung immer weiter verbreitet ist, ist es wichtig zu verstehen, wie die algorithmische Natur des Entscheidungsträgers sich darauf auswirkt, wie Betroffene solche Entscheidungen wahrnehmen. Die Anwendung algorithmischer Hilfsverfahren reicht von Vorhersage­entscheidungen, z.B. wen man einstellen und welches Gehalt man anbieten soll, bis hin zu moralischen Entscheidungen, für die es keine objektiv richtige Lösung gibt, z.B. wie ein Bonus innerhalb eines Teams gerecht verteilt werden soll.


Marina Chugunova und Wolfgang J. Luhan (University of Portsmouth) studieren in einem Laborexperiment die Präferenz für menschliche oder algorithmische Entscheidungsträger bei Umverteilungsentscheidungen. Umverteilungsentscheidungen können als eine Art moralischer Entscheidungen betrachtet werden, bei denen die Definition von richtig oder gerecht von den persönlichen Idealen und Überzeugungen des Betrachters abhängt. Das Autorenteam untersucht insbesondere, ob algorithmische Entscheidungsträger aufgrund ihrer Unvoreingenommenheit bevorzugt werden. Die Frage, welche Art von Entscheidungsträger bevorzugt wird und wessen Entscheidungen als fairer empfunden werden, kann die Akzeptanz von Entscheidungen oder politischen Maßnahmen und damit auch die Zustimmung dazu verbessern.


Das Experiment


Das Hauptziel des Experiments bestand darin, eine Situation zu schaffen, in der die Präferenz der Teilnehmenden für einen menschlichen oder algorithmischen Entscheidungsträger bei einer Einkommensumverteilung beobachtbar war. Zunächst verdienten die Versuchspersonen ihr Starteinkommen individuell, indem sie drei Aufgaben erfüllten. Diese drei Aufgaben bildeten drei potenzielle Determinanten des Einkommenserwerbs nach, die in den wichtigsten Fairness-Theorien eine zentrale Rolle spielen: Glück, Anstrengung und Talent. Anschließend wurden die Versuchspersonen zu Paaren zusammengestellt und mussten einen Entscheidungsträger wählen: entweder den Algorithmus oder eine dritte Person. Der Entscheidungsträger bestimmte, wie das Gesamteinkommen des Paares zwischen den beiden Partnern umverteilt werden sollte. Um die Rolle der Voreingenommenheit zu testen, wurde für den menschlichen Entscheidungsträger eine laborinduzierte Quelle potenzieller Diskriminierung eingeführt. Anschließend bekamen die Teilnehmenden die Entscheidung mitgeteilt und mussten angeben, wie zufrieden sie mit einer bestimmten Umverteilungs­entscheidung waren und wie fair sie diese bewerteten.


Die Ergebnisse


Im Gegensatz zu früheren Studien stellte das Autorenteam fest, dass die Mehrheit der Teilnehmenden – mit über 60% – den Algorithmus als Entscheidungsträger einem Menschen vorzieht. Dies ist jedoch nicht auf Bedenken über voreingenommene menschliche Entscheidungen zurückzuführen. Trotz der Präferenz für algorithmische Entscheidungsträger werden die von Menschen getroffenen Entscheidungen positiver bewertet. Die subjektive Bewertung von Entscheidungen wird vor allem durch eigene materielle Interessen und Fairnessideale bestimmt. Was die Fairnessideale betrifft, zeigen die Versuchspersonen im Experiment eine bemerkenswerte Flexibilität: Sie tolerieren jede erklärbare Abweichung zwischen der tatsächlichen Entscheidung und ihren eigenen Idealen. Sie sind zufrieden und halten jede Umverteilungsentscheidung, die Fairnessprinzipen folgt, für gerecht, auch wenn sie nicht mit ihren eigenen Prinzipien übereinstimmt. Sie reagieren aber sehr stark und negativ auf Umverteilungs­entscheidungen, die mit keinerlei Fairnessidealen erklärbar sind.


Die Schlussfolgerungen


Die Ergebnisse der Studie deuten darauf hin, dass selbst im Bereich moralischer Entscheidungen algorithmische Entscheidungsträger menschlichen Entscheidungsträgern vorgezogen werden könnten, wobei die tatsächliche Leistung des Algorithmus eine wichtige Rolle bei der Bewertung der Entscheidungen spielt. Um „den Erwartungen gerecht zu werden” und die Akzeptanz von KI-Entscheidungen zu erhöhen, muss der Algorithmus konsequent und kohärent Fairnessprinzipien anwenden.


Direkt zu Publikation der Studie:


Marina Chugunova, Wolfgang J. Luhan
Ruled by Robots: Preference for Algorithmic Decision Makers and Perceptions of Their Choices
Max Planck Institute for Innovation & Competition Research Paper No. 22-04