Logo der Seite
Logo der Seite Logo der Seite
Titelbild zu BIAS: Bias and Discrimination in Big Data and Algorithmic Processing

BIAS: Bias and Discrimination in Big Data and Algorithmic Processing

Bias and Discrimination in Big Data and Algorithmic Processing. Collaboration with Philosophical Assessments, Legal Dimensions, and Technical Solutions

KI-Techniken, die auf Big Data und algorithmischer Verarbeitung basieren, werden zunehmend eingesetzt, um Entscheidungen in wichtigen gesellschaftlichen Bereichen zu lenken, z. B. bei Einstellungsentscheidungen, Hochschulzulassungen, Kreditvergabe und Kriminalitätsvorhersagen. Sie werden von Suchmaschinen, Internet-Empfehlungssystemen und Social-Media-Bots angewendet und beeinflussen unsere Wahrnehmung von politischen Entwicklungen und sogar von wissenschaftlichen Erkenntnissen. Es gibt jedoch zunehmend Bedenken hinsichtlich der erkenntnistheoretischen und normativen Qualität von KI-Bewertungen und -Vorhersagen. Insbesondere gibt es starke Hinweise darauf, dass Algorithmen manchmal bestehende Voreingenommenheit und Diskriminierung eher verstärken als beseitigen und dadurch negative Auswirkungen auf den sozialen Zusammenhalt und demokratische Institutionen haben können.

Die wissenschaftliche Auseinandersetzung mit diesen Themen hat begonnen, befindet sich aber noch in einem frühen Stadium und es bleibt noch viel zu tun. Insbesondere fehlt es noch an einem umfassenden Verständnis, wie einschlägige Konzepte von Bias oder Diskriminierung im Kontext von KI zu interpretieren sind und welche technischen Optionen zur Bekämpfung von Bias und Diskriminierung sowohl realistisch möglich als auch normativ gerechtfertigt sind. Die Forschungsgruppe "BIAS" untersucht diese Fragen in einem integrierten, interdisziplinären Projekt, das Experten aus Philosophie, Recht und Informatik zusammenbringt. Unsere gemeinsame Forschungsfrage lautet: Wie können Standards unvoreingenommener Einstellungen und nicht-diskriminierender Praktiken bei Big-Data-Analysen und algorithmenbasierten Entscheidungen erfüllt werden? Um uns dieser Frage zu nähern, stellen wir philosophische Analysen der relevanten Konzepte und Prinzipien im Kontext von KI ("Bias", "Diskriminierung", "Fairness"), untersuchen deren adäquate Rezeption in einschlägigen rechtlichen Rahmenwerken (Datenschutz-, Verbraucher-, Wettbewerbs-, Antidiskriminierungsrecht) und entwickeln konkrete technische Lösungen (Entbiasing-Strategien, Diskriminierungserkennungsverfahren etc.).

Beteiligte ZDIN Einrichtungen:
Beteiligte Wissenschaftler*innen:

Ansprechperson

Projektwebseite

Webseite

Laufzeit

Beginn: 01.09.2019
Ende: 01.10.2023

Fördergeber

Horizon 2020 (H2020)

Newsletter abonnieren

E-Mail*
* Pflichtfelder