Künstliche Intelligenz (KI) wird oft als das ultimative Werkzeug der Objektivität gepriesen, das fähig ist, Entscheidungen zu treffen, frei von menschlichen Vorurteilen und Fehlern. Doch die Realität zeigt ein komplexeres Bild: KI-Systeme, von Gesichtserkennungstechnologien bis hin zu Algorithmen für die Kreditvergabe, haben wiederholt gezeigt, dass sie rassistische und geschlechtsspezifische Vorurteile widerspiegeln und verstärken können.
Technologien sind nicht neutral, sondern spiegeln die Vorurteile derjenigen wider, die sie programmieren, sowie die historischen und sozialen Ungerechtigkeiten, die in den Daten verankert sind, auf denen sie trainiert werden.
Die Wurzel des Problems liegt in der Datenauswahl und -verarbeitung. KI-Systeme lernen aus riesigen Datensätzen, die menschliches Verhalten abbilden. Wenn diese Daten Vorurteile, Diskriminierung oder Ungleichheiten enthalten, lernt die KI, diese Muster zu replizieren. Ein bekanntes Beispiel ist der Einsatz von Gesichtserkennungstechnologien, die bei Menschen mit dunklerer Hautfarbe oder weiblichen Gesichtszügen weniger genau sind, weil die Systeme überwiegend mit Bildern weißer, männlicher Gesichter trainiert wurden. Solche Ungleichheiten in der Leistungsfähigkeit der Technologie haben reale Konsequenzen, von falschen Identifikationen durch die Polizei bis hin zu ungerechten Einstellungspraktiken.
Noch besorgniserregender ist, dass KI-Systeme nicht nur existierende Vorurteile widerspiegeln, sondern auch die Macht haben, sie zu verstärken. Wenn beispielsweise ein Algorithmus zur Vorhersage krimineller Rückfälligkeit systematisch gegen Minderheiten voreingenommen ist, kann dies zu einer überproportionalen Inhaftierung dieser Gruppen führen. Ähnlich kann ein voreingenommener Algorithmus in der Kreditvergabe den Zugang zu finanziellen Ressourcen für bestimmte Bevölkerungsgruppen einschränken, was deren wirtschaftliche Benachteiligung weiter zementiert.
Ein Kernproblem ist die weit verbreitete Annahme, dass KI-Systeme inhärent objektiv seien. Diese falsche Wahrnehmung von Neutralität verleiht den Entscheidungen der KI eine unverdiente Autorität und macht es schwierig, ihre Vorurteile zu hinterfragen. Wenn Diskriminierung durch Technologie erfolgt, erscheint sie oft als sachliche Notwendigkeit, verborgen hinter der Fassade mathematischer Berechnungen, was ihre Akzeptanz in der Gesellschaft erhöht.
Um KI-gesteuerte Ungerechtigkeiten zu bekämpfen, müssen Entwickler, Forscher und politische Entscheidungsträger zusammenarbeiten. Diversität in den Teams, die KI-Systeme entwickeln, ist essenziell, um unterschiedliche Perspektiven einzubringen und blinde Flecken zu minimieren. Zudem ist eine kritische Auseinandersetzung mit den Daten, auf denen KI-Modelle trainiert werden, notwendig, um systemische Vorurteile zu erkennen und zu korrigieren. Transparenz und Verantwortlichkeit sind weitere Schlüsselkomponenten: Die Algorithmen müssen überprüfbar und ihre Entscheidungsprozesse nachvollziehbar sein, um Ungerechtigkeiten effektiv anzugehen.
Gerade für die politische Jugendbildung ist dieses Thema wichtig. Deswegen empfehlen wir die Dokumentation
von Edith Löhle und Lena Nagel, von der wir uns auch den Titel für diesen Beitrag geliehen haben.
Welche Herausforderungen für die diskriminierungssensiblen Pädagog:innen im Bereich der generativen KI noch bestehen hat Nele Hirsch in diesem Blogpost sehr gut dargestellt "Besseres Prompting hilft nur bedingt gegen Bias!"
Und wir binden hier noch einmal den Vortrag "Ungerechtigkeit vorprogrammiert? Künstliche Intelligenz aus der Perspektive diskriminierungskritischer politischer Bildung" von Susanne Rentsch (TU Dresden) ein. Diesen hielt sie im Rahmen des Onlinefachtags „Diskriminierungskritische Bildung und Künstliche Intelligenzen“.
Themenwoche Künstliche Intelligenz |
|
Themenwoche Künstliche Intelligenz |
|
Themenwoche Künstliche Intelligenz |
|
Themenwoche Künstliche Intelligenz |
Politische Jugendbildung ist ein Angebot
der Jugendbildungsreferent*innen von
Arbeit und Leben DGB/VHS e.V.
Home