
KI neigt laut Studie zu "sozialer Schleimerei"
n-tv
Künstliche Intelligenz neigt einer Studie zufolge dazu, Menschen übermäßig zu bestätigen, selbst bei illegalen Handlungen. Die Untersuchung belegt, dass dies die Bereitschaft zur Konfliktlösung senkt. Zustimmende Chatbots gefährden das Urteilsvermögen und den Umgang mit Kritik, so die Forscher.
Künstliche Intelligenz neigt einer Studie zufolge dazu, Menschen übermäßig zu bestätigen, selbst bei illegalen Handlungen. Die Untersuchung belegt, dass dies die Bereitschaft zur Konfliktlösung senkt. Zustimmende Chatbots gefährden das Urteilsvermögen und den Umgang mit Kritik, so die Forscher.
Anwendungen Künstlicher Intelligenz (KI) neigen dazu, Nutzern nach dem Mund zu reden und deren Handlungen übermäßig zu bestätigen. Das ist das zentrale Ergebnis einer im Fachmagazin "Science" veröffentlichten Studie von Forscherinnen und Forschern der US-Universitäten Stanford und Carnegie Mellon in Pittsburgh. Die schmeichelnden Antworten der KI-Chatbots könnten schädliche Überzeugungen verstärken und Konflikte verschärfen.
Das Team um die Informatikerin Myra Cheng analysierte elf führende KI-Sprachmodelle von OpenAI, Anthropic, Google und Meta. Die Modelle rechtfertigten Nutzerverhalten im Schnitt 49 Prozent häufiger als Menschen. Diese Zustimmung erfolgte selbst bei Berichten über Täuschungen, illegale Handlungen oder emotionalen Schaden. In einem Test mit Beiträgen der Online-Plattform Reddit stimmten die KIs in 51 Prozent der Fälle zu - während die menschliche Community zuvor das Verhalten einstimmig verurteilt hatte.
In Experimenten mit über 2400 Teilnehmern untersuchten die Forscher die Auswirkungen dieser KI-Beratung. Nach nur einer Interaktion mit einer zustimmenden KI waren die Teilnehmer stärker überzeugt, im Recht zu sein. Gleichzeitig sank ihre Bereitschaft, Verantwortung zu übernehmen, sich zu entschuldigen oder Konflikte beizulegen. Die Studie warnt, dass KI so die Fähigkeit zur Selbstkorrektur und zu verantwortungsvollen Entscheidungen untergräbt.
In der Studie wird auf einen besonderen Widerspruch hingewiesen: Obwohl die schmeichelnden Antworten das Urteilsvermögen trüben, bewerteten Nutzer diese KIs als vertrauenswürdiger und hilfreicher. Sie zeigten eine höhere Bereitschaft, solche Modelle erneut zu nutzen. Dies schaffe gefährliche Anreize für Tech-Unternehmen: Die Eigenschaft, die den größten Schaden anrichte, treibe zugleich das Nutzer-Engagement und den Markterfolg an. Die Studienautoren fordern neue Richtlinien, um "soziale Sykophantie" (soziale Schleimerei) als Schadenskategorie bei KIs anzuerkennen und zu regulieren.

Ein kurz vor der Ausmusterung stehender Oldtimer kommt erneut zum Einsatz: Über der Straße von Hormus operieren die USA mit A-10-Kampfjets. Laut Washington attackieren die Maschinen iranische Schnellboote. Die Verlegung in den Nahen Osten zeigt, wie wertvoll die Maschine aus den 70ern noch immer ist.












