NEWSLETTER ABONNIEREN
Sie interessieren sich für die Projekte und Ergebnisse unserer Zukunftslabore? Unser Newsletter fasst die wichtigsten Ereignisse alle zwei Monate zusammen.
Jetzt anmelden18.05.2021
Digitale Technologien sollen den Arbeitsalltag der Menschen erleichtern und Organisationsprozesse verbessern. Damit diese Technologien gesellschaftlich relevanten Normen und Gesetzen entsprechen, müssen diese bereits in der Entwicklungsphase mitbedacht werden. Um herauszufinden, welche Faktoren den Entwicklungsprozess digitaler Technologien beeinflussen, interviewten die Wissenschaftler*innen des Zukunftslabors Data Scientists und Entwickler*innen von Social Media Plattformen hinsichtlich sogenannter personalisierter Services (z. B. beim Produktkauf, wo ein Algorithmus Kaufempfehlungen ausspricht). Dabei fokussierten sie sich auf drei Aspekte: das Algorithmic Management (datengetriebene Formen, Arbeitsprozesse zu organisieren wie z. B. die Planung von Schichtdiensten), Anonymität (durch die Verbindungen verschiedener Daten kann Anonymität aufgehoben werden) und Datennachbarschaften (algorithmische Empfehlungen auf Basis von Entscheidungen anderer Personen mit ähnlichem Verhalten). Die Untersuchung ergab, dass bestimmte Annahmen der Entwickler*innen in die Gestaltung der Social Media Plattformen einflossen (z. B. dass „Datennachbarn“ als Gleichgesinnte mit ähnlichen Interessen gelten). Das bedeutet, dass bei der Entwicklung von Algorithmen stets betrachtet werden sollte, wer diese entwickelt und für wen.
Algorithmen werden in unterschiedlichsten Kontexten eingesetzt, um vermeintlich objektive oder effektivere Entscheidungen zu treffen. Dabei wird allerdings häufig vergessen zu bedenken, dass Algorithmen von Menschen entwickelt und eingesetzt werden. Wie Algorithmen tatsächlich von Personen in Entscheidungen bei der Arbeit einbezogen und interpretiert werden, kann praktisch anders aussehen, als die Management Etage dies denkt oder der Anbieter seine Technologie vermarktet. Algorithmen werden von Menschen entwickelt und eingesetzt, sie sind daher auch von sozialen und kulturellen Vorstellungen geprägt. Das heißt Algorithmen sind niemals neutral
Ein weiterer Aspekt, den die Wissenschaftler*innen betrachten, ist die Datenabhängigkeit von Algorithmen. Algorithmen treffen Entscheidungen auf Basis von Daten. Deshalb ist es relevant, die Abhängigkeit präzise zu erfassen und die Robustheit der Daten zu hinterfragen. Robust bedeutet in diesem Zusammenhang, dass überprüft wird, wie kategorisierte Daten auf Veränderungen reagieren. Wenn es zum Beispiel darum geht, die Qualität von automatisiert hergestellten Produkten zu analysieren, können Bilder der Produkte von einer KI analysiert werden, die z. B. unterscheidet in „rund“ und „oval“ (Kategorien). Wenn Kleinigkeiten an diesen Kategorien verändert werden, wird aus rund schnell oval. Das bedeutet, dass die Daten nicht robust sind. Die Wissenschaftler*innen des Zukunftslabors entwickelten ein neues Konzept, mit dem sie die Robustheit von Daten evaluieren können. Das ist wichtig bei der Entwicklung der Algorithmen. Denn nur wenn bekannt ist, wie der Algorithmus auf Veränderungen im Datensatz reagiert, werden seine Entscheidungen nachvollziehbar. Das entwickelte Konzept überprüften die Wissenschaftler*innen anhand verschiedener Datensets.
Neben der Entwicklung von Algorithmen identifizieren die Wissenschaftler*innen des Zukunftslabors auch Geschäftsprozesse, die durch den Einsatz Künstlicher Intelligenz automatisiert werden können. Gemeinsam mit einem Praxispartner arbeiten sie an einem automatisierten Auktionssystem, das gebrauchte Waren anbietet und auf der Basis von Algorithmen Produktvorschläge für Nutzer*innen ausgibt. Der Praxispartner gab unter anderem die Anforderung vor, dass die Entscheidungen des Systems erklärbar sein müssen, damit es auch im direkten Kundenkontakt eingesetzt werden kann. Zusätzlich zu den Produktinformationen ließen die Wissenschaftler*innen auch Informationen über die Käufer*innen sowie den Auktionsverlauf in verschiedene Methoden des Maschinellen Lernens einfließen, um einen passenden Algorithmus zu entwerfen. Als Grundlage verwendeten die Wissenschaftler*innen einen Datensatz, welcher 3.200 Nutzer*innen, 270.000 Artikel und 375.000 Gebote enthielt. Mithilfe dieser Daten entwickelten sie ein Modell, das bis zu elf Prozent effektiver als derzeit existierende State-of-the-art-Systeme arbeitet.
Der Einsatz solcher Algorithmen wirkt sich unmittelbar auf die Arbeit der Mitarbeitenden aus. Um diese Auswirkungen zu ermitteln, führten die Wissenschaftler*innen eine Literaturrecherche durch. Dabei stellten sie fest, dass algorithmische Systeme nur dann zielführend eingesetzt werden können, wenn sie ein Verständnis menschlichen Verhaltens aufweisen und Verhaltenstrends prognostizieren können. Außerdem muss sichergestellt werden, dass sie Verhaltensmuster der Mitarbeitenden nicht radikal verändern. Durch die Literaturrecherche deckten die Wissenschaftler*innen aber auch Forschungslücken auf. So ist z. B. noch nicht hinreichend untersucht, wie sich Transparenz und Interpretierbarkeit von Künstlicher Intelligenz auf menschliches Verhalten auswirken. Deshalb werden die Wissenschaftler*innen in verschiedenen Studien das Verhältnis von Mensch und Künstlicher Intelligenz näher betrachten. Eine Untersuchung zielt z. B. auf das Phänomen der Algorithm Aversion ab (Abneigung gegen durch Algorithmen getroffene Entscheidungen). Die Untersuchung soll zeigen, inwiefern Menschen in Vorhersageumgebungen zwischen lernenden und nicht-lernenden Algorithmen unterscheiden. Außerdem soll untersucht werden ob, und wenn warum, lernenden oder nicht lernenden Algorithmen im Zeitverlauf eher vertraut wird.