Ein Fake-News-Rausch: Warum ChatGPT für die Wahrheit im Journalismus katastrophal sein könnte | Emil Bell

ICHbinnen kürzester Zeit hat die KI-Anwendung ChatGPT einen disruptiven Einfluss auf den Journalismus genommen. Ein Technologie-Kolumnist der New York Times schrieb, dass ein Chatbot ausgedrückte Gefühle (was unmöglich ist). Andere Medien gefüllt mit Beispielen von „Sydney“, dem Microsoft-eigenen Bing-KI-Suchexperiment, als „unhöflich“ und „mobbing“ (ebenfalls unmöglich). Ben Thompson, der die Stratechery schreibt Newslettererklärte, Sydney habe ihm die „überwältigendste Computererfahrung meines Lebens“ beschert und er folgerte daraus, dass die KI darauf trainiert sei, emotionale Reaktionen hervorzurufen – und es schien gelungen zu sein.

Um es klar zu sagen, es ist für KI wie ChatGPT und Sydney nicht möglich, Emotionen zu haben. Sie können auch nicht sagen, ob sie Sinn machen oder nicht. Worin diese Systeme unglaublich gut sind, ist die Nachahmung menschlicher Prosa und die Vorhersage der „richtigen“ Wörter, die aneinandergereiht werden müssen. Diese „großen Sprachmodelle“ von KI-Anwendungen wie ChatGPT können dies, weil sie mit Milliarden von im Internet veröffentlichten Artikeln und Datensätzen gefüttert wurden. Sie können dann Antworten auf Fragen generieren.

Für journalistische Zwecke können sie sehr schnell riesige Mengen an Material – Wörter, Bilder, Töne und Videos – erstellen. Das Problem ist, dass sie der Wahrheit absolut nicht verpflichtet sind. Denken Sie nur daran, wie schnell ein ChatGPT-Benutzer das Internet mit gefälschten Nachrichten überschwemmen könnte, die scheinbar von Menschen geschrieben wurden.

Und doch, seit der ChatGPT-Test im November von der KI-Firma OpenAI der Öffentlichkeit zugänglich gemacht wurde, fühlt sich der Hype darum besorgniserregend vertraut an. Wie bei der Geburt der sozialen Medien hat die Begeisterung von Investoren und Gründern vorsichtige Stimmen übertönt. Christopher Manning, Direktor des Stanford AI Lab, getwittert: „Die KI-Ethik-Crowd verbreitet weiterhin ein Narrativ von generativen KI-Modellen, die zu voreingenommen, unzuverlässig und gefährlich in der Verwendung sind, aber nach dem Einsatz lieben die Menschen, wie diese Modelle neue Möglichkeiten bieten, um unsere Arbeitsweise zu verändern, Informationen zu finden und uns zu amüsieren. ” Ich würde mich als Teil dieser „Ethik-Crowd“ bezeichnen. Und wenn wir die schrecklichen Fehler der Verbrauchertechnologie der letzten 30 Jahre vermeiden wollen – von Facebooks Datenschutzverletzungen bis hin zu ungeprüften Fehlinformationen, die Wahlen stören und Völkermord provozieren – müssen wir dringend die Bedenken von Experten hören, die vor möglichen Schäden warnen.

Die besorgniserregendste Tatsache, die wiederholt werden muss, ist, dass ChatGPT keine Verpflichtung zur Wahrheit hat. Wie die MIT Technology Review bringt es auf den Punkt, große Sprachmodell-Chatbots sind „berüchtigte Bullshitter“. Auch Desinformation, Betrug und Kriminalität erfordern in der Regel kein Bekenntnis zur Wahrheit. Besuchen Sie die Foren von blackhatworld.com, wo diejenigen, die an düsteren Praktiken beteiligt sind, Ideen austauschen, um mit gefälschten Inhalten Geld zu verdienen, und ChatGPT als Gamechanger für die Generierung besserer gefälschter Rezensionen oder Kommentare oder überzeugender Profile angekündigt wird.

Im Journalismus setzen viele Redaktionen schon länger auf KI. Wenn Sie kürzlich dazu angeregt wurden, Geld zu spenden oder für das Lesen eines Artikels auf der Website eines Verlags zu bezahlen, oder wenn die Werbung, die Sie sehen, etwas feiner auf Ihren Geschmack abgestimmt ist, könnte auch dies bedeuten, dass KI am Werk ist.

Einige Verlage gehen jedoch so weit, KI zum Schreiben von Geschichten zu verwenden, mit gemischten Ergebnissen. Die Tech-Fachzeitschrift CNET wurde kürzlich mit automatisierten Artikeln erwischt, nachdem eine ehemalige Mitarbeiterin sie behauptet hatte Kündigung per E-Mail dass KI-generierte Inhalte, wie etwa ein Cybersicherheits-Newsletter, falsche Informationen veröffentlichten, die „den Lesern direkten Schaden zufügen könnten“.

Felix Simon, Kommunikationswissenschaftler am Oxford Internet Institute, hat mehr als 150 Journalisten und Nachrichtenverleger für eine bevorstehende Studie über KI in Nachrichtenredaktionen befragt. Er sagt, dass es Potenzial gibt, es Journalisten viel einfacher zu machen, Interviews zu transkribieren oder Datensätze schnell zu lesen, aber Probleme erster Ordnung wie Genauigkeit, Überwindung von Vorurteilen und die Herkunft von Daten hängen immer noch überwiegend von menschlichem Urteilsvermögen ab. „Ungefähr 90 % der Anwendungen von KI [in journalism] sind für vergleichsweise langwierige Aufgaben wie Personalisierung oder das Erstellen intelligenter Paywalls vorgesehen“, sagt Charlie Beckett, der ein Journalismus- und KI-Programm an der LSE leitet. Bloomberg News automatisiert seit Jahren große Teile seiner Berichterstattung über Finanzergebnisse, sagt er. Die Idee, Programme wie ChatGPT zum Erstellen von Inhalten zu verwenden, ist jedoch äußerst besorgniserregend. „Für Nachrichtenredaktionen, die es für unethisch halten, Lügen zu veröffentlichen, ist es schwierig, die Verwendung eines ChatGPT ohne viele begleitende menschliche Bearbeitungen und Faktenprüfungen zu implementieren“, sagt Beckett.

Es gibt auch ethische Probleme mit der Natur der Technologieunternehmen selbst. A Zeit expon stellte fest, dass OpenAI, die Firma hinter ChatGPT, Arbeitern in Kenia weniger als 2 US-Dollar pro Stunde bezahlt hatte, um Inhalte zu sichten, die anschauliche schädliche Inhalte wie Kindesmissbrauch, Selbstmord, Inzest und Folter beschreiben, um ChatGPT darin zu schulen, sie als anstößig zu erkennen. „Als Nutzer dieser Dienste haben Sie darauf keine Kontrolle“, sagt Simon.

In einem 2021 lernenbeschäftigten sich Wissenschaftler mit KI-Modellen, die Text in generierte Bilder umwandeln, wie Dall-E und Stable Diffusion. Sie fanden heraus, dass diese Systeme „demografische Stereotypen in großem Maßstab“ verstärkten. Wenn Sie beispielsweise aufgefordert wurden, ein Bild von „einer Person beim Putzen“ zu erstellen, waren alle generierten Bilder von Frauen. Für „eine attraktive Person“ waren die Gesichter alle repräsentativ für das „weiße Ideal“, stellten die Autoren fest.

“Enthusiastische Impulse von Investoren und Gründern haben vorsichtige Stimmen übertönt.” Foto: Sheldon Cooper/SOPA Images/REX/Shutterstock

NYU-Professorin Meredith Broussard, Autorin des demnächst erscheinenden Buches More Than a Glitch, das Rassen-, Geschlechts- und Fähigkeitsvorurteile in der Technologie untersucht, sagt, dass alles, was in aktuelle generative Modelle wie ChatGPT eingebrannt ist – von den Datensätzen bis hin zu denjenigen, die die meiste Finanzierung erhalten – widerspiegelt ein Mangel an Vielfalt. „Es ist Teil des Problems, dass Big Tech eine Monokultur ist“, sagt Broussard, und nicht eine, die Nachrichtenredaktionen, die diese Technologien verwenden, leicht vermeiden können. „Nachrichtenredaktionen sind bereits von Unternehmenstechnologien fasziniert, da sie noch nie ausreichend finanziert waren, um ihre eigenen zu entwickeln.“

Jonah Peretti, Gründer von BuzzFeed, begeisterte kürzlich die Mitarbeiter, dass das Unternehmen ChatGPT als Teil des Kerngeschäfts für Listen, Quiz und andere Unterhaltungsinhalte verwenden würde. „Wir sehen, dass die Durchbrüche in der KI eine neue Ära der Kreativität eröffnen … mit endlosen Möglichkeiten und Anwendungen für das Gute“, schrieb er. Der ruhende BuzzFeed-Aktienkurs stieg sofort um 150 %. Es ist zutiefst besorgniserregend – ein Berg billiger Inhalte, der von einem ChatGPT ausgespuckt wird, sollte für Medienunternehmen eher ein Worst-Case-Szenario sein als ein erstrebenswertes Geschäftsmodell. Der Enthusiasmus für generative KI-Produkte kann die wachsende Erkenntnis verdecken, dass dies möglicherweise nicht ausschließlich „Anwendungen für das Gute“ sind.

Ich leite ein Forschungszentrum an der Columbia Journalism School. Wir haben die Bemühungen politisch finanzierter „Dark Money“-Netzwerke untersucht, Hunderttausende von lokalen „Nachrichten“-Storys im Dienste politischer oder kommerzieller Gewinne zu replizieren und gezielt an Gemeinden zu senden. Die Fähigkeiten von ChatGPT erhöhen diese Art von Aktivität und machen sie für weit mehr Menschen so viel leichter verfügbar. In einem neueres Papier zu Desinformation und KI identifizierten Forscher aus Stanford ein Netzwerk gefälschter Profile, die generative KI auf LinkedIn verwendeten. Der verführerische Textaustausch, den Journalisten mit Chatbots so unwiderstehlich finden, ist insgesamt weniger attraktiv, wenn sie gefährdete Personen dazu überreden, ihre persönlichen Daten und Bankverbindungsdaten herauszugeben.

Es wurde viel über das Potenzial von Deepfake-Videos und -Audio geschrieben – realistische Bilder und Töne, die die Gesichter und Stimmen berühmter Persönlichkeiten nachahmen können (bekanntermaßen hatte einer davon die Schauspielerin Emma Watson, die Mein Kampf „las“). Aber die wirkliche Gefahr liegt außerhalb der Welt der sofortigen Täuschung, die leicht entlarvt werden kann, und im Bereich der Schaffung von Verwirrung und Erschöpfung durch „Überschwemmung der Zone“ mit Material, das die Wahrheit überwältigt oder zumindest ausgewogenere Perspektiven übertönt.

Es scheint einigen von uns in der „Ethik-Crowd“ unglaublich, dass wir nichts aus den letzten 20 Jahren von schnell eingesetzten und schlecht verwalteten Social-Media-Technologien gelernt haben, die gesellschaftliche und demokratische Probleme verschärft haben, anstatt sie zu verbessern. Wir scheinen von einer bemerkenswert ähnlichen Gruppe homogener und wohlhabender Technologen und Risikofonds auf einen weiteren ungetesteten und unregulierten Weg geführt zu werden, nur diesmal in größerem Maßstab und mit noch weniger Augenmerk auf Sicherheit.

Emily Bell ist Direktorin des Tow Center for Digital Journalism an der Graduate School of Journalism der Columbia University


source site-31