
Die KI plappert Vorurteile nach
n-tv
Seit Februar 2025 gelten in der EU erstmals strengere Regeln für Künstliche Intelligenz. Der AI-Act soll "menschenzentrierte" und "vertrauenswürdige" KI fördern und unter anderem Diskriminierung verhindern. Denn obwohl KI neutral sein sollte, hat sie viele Stereotype längst übernommen.
Gleichheit ist ein großes Wort. Thomas Jefferson schrieb es 1776 in die Einleitung der US-amerikanischen Unabhängigkeitserklärung, es steht in Artikel 3 des deutschen Grundgesetzes, im Vorwort der Europäischen Menschenrechtskonvention - und seit August 2024 in der Präambel des AI-Act, dem ersten KI-Gesetz der Welt. Erwägungsgrund 28 mahnt zur Achtung europäischer Werte und warnt zugleich vor den Gefahren Künstlicher Intelligenz (KI): einer Technologie, die missbraucht und als Werkzeug für "manipulative, ausbeuterische und soziale Kontrollpraktiken" genutzt werden kann. Noch sind apokalyptische Szenarien wie die vollständige Überwachung durch autonome KI Teil dystopischer Zukunftsvisionen, doch ein Problem ist bereits deutlich: Künstliche Intelligenz diskriminiert.
"Es gibt eine Fülle an Beispielen", sagt Katharina Mosene. Die Politikwissenschaftlerin beschäftigt sich seit Jahren mit dem ethischen Einsatz von Algorithmen und erforscht Lösungsansätze zur Bekämpfung digitaler Gewalt. Die Benachteiligung beginne bei ganz alltäglichen Dingen. "Schon vor mehreren Jahren entdeckten Studien ein erhebliches Gefälle im Bereich der Gesichtserkennungssoftware", sagt Mosene. Diese funktioniere für Schwarze Menschen schlechter als für weiße, für Schwarze Frauen am schlechtesten. Ein weiteres Beispiel seien Sprachassistenten wie Siri oder Alexa. "Diese haben meist weibliche Stimmen - eine typische Fortschreibung klassischer Rollenbilder."
