Coded Bias - Wie KI diskriminiert

  • Erstellt von JWD-Redaktion (ML)

Material für 2 Doppelstunden, geeignet für die Fächer Deutsch, Geschichte & Sozialkunde ab Sekundarstufe II.

Schüler:innen erarbeiten selbst, wie Diskriminierung und Rassismus sich in Künstlicher Intelligenz (KI) fortschreiben. In einem immer mehr von algorithmischen Entscheidungen beeinflussten Alltag sind KI-generierte Inhalte keineswegs als objektiv zu bezeichnen. Schon im eingespeisten Datensatz sind oft sexistische, rassistische, behindertenfeindliche oder andere Arten der Diskriminierung enthalten, die zu Coded Bias führen. Somit ist KI oft für die Manifestation und Weitergabe von diskriminierenden gesellschaftlichen Normen verantwortlich. Die vorgegebenen Datensätze enthalten oft Verzerrungen.

Das vorliegende Material beinhaltet Informationsbögen für Lehrer:innen und Arbeitsaufgaben für Schüler:innen. Das Unterrichtsmaterial unterteilt sich in die beiden Module A und B.

Im Modul A wird der Fokus der Lernenden auf die Erkenntnis gerichtet, das KI diskriminiert und es wird erklärt, wie es zu Coded Bias kommt. Dies soll im Podium diskutiert werden. Der Input wird hauptsächlich über Videosequenzen an die Lernenden herangetragen. Die anschließende Diskussion dient dem tiefergehenden Verständnis und der Entwicklung von Ansätzen, wie Diskriminierung durch KI-Systeme vermieden werden kann. Alle Schritte sind für die Lehrkraft einfach und schlüssig aufgearbeitet.

Modul B regt eine Gruppenarbeit in 3 Kleingruppen an, in denen sich jede Gruppe mit den Inhalten einer Organisation (Algorithmic Justice League, Algo.Rules, AlgorithmWatch) beschäftigt, die sich für faire KI-Systeme einsetzen. Anschließend stellt jede Gruppe kurz den Inhalt und das Anliegen ihrer jeweiligen Organisation vor. Ziel der Arbeit ist aufzuzeigen, dass KI nicht objektiv ist, zu teils sehr problematischen Ergebnissen führen kann und dass algorithmische Diskriminierung kein seltenes Phänomen, sondern allgegenwärtig ist. Dies sind auch Themen der Reflektionsrunde. Die Reihe schließt mit offenen Fragen wie: Was haltet ihr von offiziellen Beschwerdestellen gegen algorithmische Diskriminierung?

Das Material schafft bei den Lernenden ein Bewusstsein zum Thema Coded Bias. Sie werden angeregt, den Output von KI-System zu hinterfragen und sich eine subjektive Position jedes KI-Systems durch die verwendeten Inputdaten zu verdeutlichen. Die Inhalte werden in einigen sehr gut gemachten Videos von öffentlichen Stellen sehr gut zusammengefasst und dienen als Diskussionsgrundlage für die spätere Reflexion und Gruppenarbeit.

Die Inhalte stammen vom Wiener Bildungsserver - Verein zur Förderung von Medienaktivitäten im schulischen und außerschulischen Bereich.

Unsere Einschätzung: Coded Bias ist ein wichtiges Phänomen, das Nutzer:innen von KI bekannt sein muss, um den Output der KI kritisch auf diskriminierende Inhalte zu hinterfragen. Jedem Nutzenden sollte klar sein, dass KI nicht objektiv ist. Das Unterrichtsbeispiel arbeitet die Thematik sehr schön auf und eignet sich für ca. 2 Doppelstunden.

Die Lehrkraft sollte selbst sehr sensibel und gut informiert über das Thema Coded Bias sein und muss vorher einschätzen ob die Lernenden eine ausreichende emotionale Reife haben um sich mit den tiefgreifenden Diskussionen und Ansätzen der systemischen Diskriminierung durch KI zu stellen.

 

 

divya-agrawal-FpR_moGlShU-unsplash.jpg
© Divya Agrawal via unsplash