
„Brandgefährlich“: KI zeigt extreme Vorurteile gegen Millionen Deutsche
Frankfurter Rundschau
Eine Münchner Studie hat ergeben, dass KI-Systeme wie Chat GPT gegenüber bestimmten deutschen Vorurteile haben. Das könnte verheerende Folgen haben.
Frankfurt — Künstliche Intelligenz hat Vorurteile. Das ist mittlerweile bekannt. Die Systeme werden mit Daten trainiert, die bereits bestehende gesellschaftliche Stereotype, Ungleichheiten und menschliche Vorurteile widerspiegeln. Nun hat die Informatikprofessorin Anna Kruspe und ihre Mitarbeiterin Mila Stillman von der Hochschule München herausgefunden, inwiefern sich dieses Phänomen in Deutschland zeigt.
More Related News













