Insbesondere unter Menschen, die im Schichtbetrieb arbeiten, kann es zu Streit kommen, wenn etwa Dienstpläne besprochen werden. Manche fühlen sich etwa benachteiligt, da sie – gefühlt – zu oft ungeliebte Schichten übernehmen sollen. Abhilfe könnten Computerprogramme bieten, die bei der Dienstplanung helfen. Doch führen diese Systeme tatsächlich zu mehr Akzeptanz? Das hat ein Team der Saar-Uni untersucht und die Ergebnisse in der Fachzeitschrift Computers in Human Behavior veröffentlicht.

„Warum habe ich einen späteren Impftermin bekommen als meine Kollegin?“ „Warum bekommt mein Kollege mehr Geld als ich?“ „Ich soll schon wieder die Spätschicht machen, obwohl ich da meine Kinder betreuen muss?“ Bei all diesen Fragen schwingt ein Thema mit: Gerechtigkeit, vor allem die wahrgenommene beziehungsweise die „gefühlte“ Gerechtigkeit: Wer davon überzeugt ist, dass er benachteiligt wird, wird Entscheidungen nicht akzeptieren, sie hinterfragen, dagegen protestieren oder sogar rechtliche Schritte gegen solche als ungerecht empfundenen Entscheidungen einleiten. Gerechtigkeit ist daher auch ein wichtiger Faktor in der Dienstplanung. Eine gerechte Dienstplanung sollte alle Teammitglieder gleichermaßen berücksichtigen, frühzeitig feststehen, transparent kommuniziert werden und nach eindeutigen Entscheidungskriterien erfolgen.

Insbesondere im Gesundheitswesen birgt die Dienstplanung jedoch häufig Konfliktpotenzial, da Planende eine Doppelrolle innehaben: Sie sind Ersteller und Empfänger des Dienstplans zugleich. Schon seit einigen Jahren wird daher über den Einsatz automatisierter Entscheidungen für die Dienstplanung geforscht. Automatisierte Dienstplanung, beispielsweise mithilfe Künstlicher Intelligenz, bietet hier durch hohe Verarbeitungsgeschwindigkeit sowie vermeintliche Objektivität die Chance, um die Dienstplanung fairer zu gestalten. Aber werden Entscheidungen durch automatisierte Systeme wirklich als gerechter wahrgenommen? Und welche Rolle spielt die Nachvollziehbarkeit dieser Entscheidungen dabei?

Diese Fragen hat ein Team aus der Psychologie der Universität des Saarlandes in einer Studie untersucht. Hauptautorin ist die ehemalige Saarbrücker Psychologiestudentin Nadine Schlicker, die jetzt in Marburg am Institut für Künstliche Intelligenz in der Medizin arbeitet. Weitere Beteiligte sind Dr. Markus Langer und Professor Cornelius König (Arbeits- und Organisationspsychologie der Universität des Saarlandes), die Ergosign GmbH, die Universität Bielefeld und Kevin Baum (Computerethiker an der Saar-Uni). In ihrer Online-Studie haben sie medizinische Fachkräfte gebeten, sich in eine Situation zu versetzen, in der ihr Urlaubsantrag entweder von einem Mensch oder einem System abgelehnt wurde. Die Teilnehmenden erhielten für die Ablehnung des Antrages entweder keine Erklärung, eine, die auf dem Zufallsprinzip („Würfelglück“) basierte oder eine, die mit dem Leistungsprinzip („mehr Überstunden“) argumentierte.

„Die Ergebnisse zeigten dass, Entscheidungen von Menschen als respektvoller wahrgenommen werden“, erklärt Dr. Markus Langer. Auch die Mitsprache beziehungsweise die Möglichkeit, eigene Wünsche einzubringen, wurde als gerechter umgesetzt wahrgenommen, wenn ein Mensch die Entscheidung traf. Systeme hingegen wurden als objektiver und konsistenter wahrgenommen. Erklärungen führten, wenn eine Maschine die Entscheidung traf, zwar dazu, dass sich die Teilnehmenden besser informiert fühlten. „Bei genauerer Analyse zeigte sich jedoch, dass das Fehlen einer Erklärung für die Ablehnung des Urlaubsantrags nur dann zu einer ‚ungerechteren‘ Wahrnehmung führte, wenn ein Mensch die Entscheidung traf, nicht hingegen, wenn eine Entscheidung automatisiert getroffen wurde“, führt Markus Langer weiter aus.

Mögliche Ursache für dieses Ergebnis könnte sein, dass eine Person, deren Urlaubsantrag von einem Menschen ohne Begründung abgelehnt wird, diesem möglicherweise Absicht unterstellt, einer Maschine hingegen nicht, da sie ja keine persönlichen Empfindungen hegt. „Diese Befunde haben wichtige Implikationen für das Design von unterstützenden Computersystemen“, so Nadine Schlicker über das Fazit der Studie. Die Ergebnisse deuten darauf hin, dass Menschen teilweise keine Erklärungen für die Entscheidungen eines Computersystems erwarten, vielleicht auch, weil die Annahme besteht, dass Maschinen bessere, objektivere Entscheidungen treffen. Das birgt andere Schwierigkeiten: „Die Gefahr hierbei besteht darin, dass Menschen automatische Entscheidungen weniger wahrscheinlich hinterfragen, als objektiv ansehen und so am Ende mögliche fehlerhafte Entscheidungen des Computers unentdeckt bleiben“, erklärt Nadine Schlicker. Blindes Vertrauen in die Entscheidungen einer Maschine wird also auch nicht der zukünftige Königsweg sein können, um eine gerechtere Arbeitswelt zu garantieren.

„Eine große Erwartung jedoch ist, dass automatische Entscheidungen objektiver und konsistenter sein können als menschliche Entscheidungen. Diesen Erwartungen sollten Systeme auch gerecht werden“, sagt Nadine Schlicker. Um dies fortlaufend zu überprüfen, sind wiederum Erklärungen und Transparenz wichtig. Gerechte Entscheidungen müssen also nach wie vor letzten Endes von Menschen getroffen werden – Hilfe kann dabei jedoch sehr gut vom Kollegen Computer kommen.

Originalpublikation: Schlicker, N., Langer, M., Ötting, S., Baum, K., König, C. J., & Wallach, D. (2021). What to expect from opening up ‘Black Boxes’? Comparing perceptions of justice between human and automated agents. Computers in Human Behavior. https://doi.org/10.1016/j.chb.2021.106837

Vorheriger ArtikelAuch Blieskastel radelt für ein gutes Klima
Nächster ArtikelAuf fast jedem Smartphone wird ein Messenger genutzt

HINTERLASSEN SIE EINE ANTWORT

Bitte kommentieren sie.
Bitte geben sie ihren Namen ein.