NEWSLETTER ABONNIEREN
Sie interessieren sich für die Projekte und Ergebnisse unserer Zukunftslabore? Unser Newsletter fasst die wichtigsten Ereignisse alle zwei Monate zusammen.
Jetzt anmeldenKI-Techniken, die auf Big Data und algorithmischer Verarbeitung basieren, werden zunehmend eingesetzt, um Entscheidungen in wichtigen gesellschaftlichen Bereichen zu lenken, z. B. bei Einstellungsentscheidungen, Hochschulzulassungen, Kreditvergabe und Kriminalitätsvorhersagen. Sie werden von Suchmaschinen, Internet-Empfehlungssystemen und Social-Media-Bots angewendet und beeinflussen unsere Wahrnehmung von politischen Entwicklungen und sogar von wissenschaftlichen Erkenntnissen. Es gibt jedoch zunehmend Bedenken hinsichtlich der erkenntnistheoretischen und normativen Qualität von KI-Bewertungen und -Vorhersagen. Insbesondere gibt es starke Hinweise darauf, dass Algorithmen manchmal bestehende Voreingenommenheit und Diskriminierung eher verstärken als beseitigen und dadurch negative Auswirkungen auf den sozialen Zusammenhalt und demokratische Institutionen haben können.
Die wissenschaftliche Auseinandersetzung mit diesen Themen hat begonnen, befindet sich aber noch in einem frühen Stadium und es bleibt noch viel zu tun. Insbesondere fehlt es noch an einem umfassenden Verständnis, wie einschlägige Konzepte von Bias oder Diskriminierung im Kontext von KI zu interpretieren sind und welche technischen Optionen zur Bekämpfung von Bias und Diskriminierung sowohl realistisch möglich als auch normativ gerechtfertigt sind. Die Forschungsgruppe "BIAS" untersucht diese Fragen in einem integrierten, interdisziplinären Projekt, das Experten aus Philosophie, Recht und Informatik zusammenbringt. Unsere gemeinsame Forschungsfrage lautet: Wie können Standards unvoreingenommener Einstellungen und nicht-diskriminierender Praktiken bei Big-Data-Analysen und algorithmenbasierten Entscheidungen erfüllt werden? Um uns dieser Frage zu nähern, stellen wir philosophische Analysen der relevanten Konzepte und Prinzipien im Kontext von KI ("Bias", "Diskriminierung", "Fairness"), untersuchen deren adäquate Rezeption in einschlägigen rechtlichen Rahmenwerken (Datenschutz-, Verbraucher-, Wettbewerbs-, Antidiskriminierungsrecht) und entwickeln konkrete technische Lösungen (Entbiasing-Strategien, Diskriminierungserkennungsverfahren etc.).
Beginn: 01.09.2019
Ende: 01.10.2023
Horizon 2020 (H2020)