KI und Diskriminierung

Ein Kurs von Katja Schirmer
Dauer: 1 UE

Sind Computer objektiv und neutral? Die Antwort darauf ist ein klares JEIN. Insbesondere KI-basierte Systeme sind oft alles andere als fair, denn Künstliche Intelligenz tut das, was wir ihr beibringen. Ein Computer übernimmt menschliche Fehler und so musste etwa der südkoreanische Chatbot “Lee Luda” 2020 nach wenigen Tagen vom Netz genommen werden, weil er rassistisches Verhalten erlernte. Das Schicksal teilte er mit seinem Microsoft-Vorgänger “Tay”, der 2016 aus demselben Grund bereits nach wenigen Stunden wieder abgeschaltet werden musste. 

Das Ziel dieses Kurses ist, Lernenden die Schwachstellen von Künstlicher Intelligenz aufzuzeigen und sie dafür zu sensibilisieren, dass auch Computer Fehler machen. Die Lernenden erfahren, wie und warum KI-basierte Systeme Menschen diskriminieren, was ‘biased data’ sind und welche Methoden angewendet werden, um maschinelle Diskriminierungen zu verhindern oder zumindest zu verringern.

Zum Eduvidualkurs

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert