Ex-OpenAI-Mitarbeiterin befürchtet Datenmissbrauch
ZDF
OpenAI testet Werbung in ChatGPT. Eine Ex-Mitarbeiterin warnt vor dieser Strategie. Sie sieht die Möglichkeit einer neuen Form der Manipulation.
OpenAI testet Werbung in ChatGPT. Eine frühere Mitarbeiterin warnt vor dem möglichen Missbrauch von Nutzerdaten. Die Forscherin sieht Gefahren einer neuen Form der Manipulation. Die KI-Firma OpenAI will Werbeanzeigen bei ChatGPT schalten. Die ehemalige Mitarbeiterin Zoë Hitzig hat deshalb ihren Job gekündigt. In ihrem Gastbeitrag für die "New York Times" kritisiert die Forscherin die neue Finanzierungsstrategie scharf und befürchtet in der Zukunft einen Missbrauch von Kundendaten. Viele Nutzer erzählen Chatbots wie ChatGPT etwa von ihren persönlichen Ängsten oder Beziehungsproblemen. "Werbung, die auf diesem Archiv aufbaut, birgt das Potenzial, Nutzer auf eine Weise zu manipulieren, die wir nicht verstehen und schon gar nicht verhindern können", warnt Hitzig. OpenAI testet Anzeigen zunächst bei kostenlosen und vergünstigten Abonnements in den USA. Das Unternehmen betont zwar, Anzeigen in ChatGPT sollten keinen Einfluss auf die Antworten des Chatbots haben und klar als Werbung gekennzeichnet sein. Die Forscherin befürchtet aber, dass die KI-Firma sich in Zukunft von den eigenen Grundsätzen verabschieden könnte. "Ich glaube, dass die erste Version der Anzeigen wahrscheinlich diesen Grundsätzen entsprechen wird." So habe beispielsweise auch Facebook seinen Kunden in den Anfangsjahren Datenschutz versprochen, diese Zusagen aber schrittweise aufgeweicht, schreibt Hitzig. Die Forscherin betont, es gebe Alternativen zu teuren Bezahlmodellen oder einem werbefinanzierten System, in dem sensible Nutzerdaten missbraucht werden könnten. "Tech-Unternehmen können Optionen verfolgen, die diese Tools allgemein verfügbar halten und gleichzeitig die Anreize für Unternehmen begrenzen, ihre Nutzer zu überwachen, zu profilieren und zu manipulieren", erklärt sie.













