Wie der Ausstieg eines Mitarbeiters Google und die KI-Branche erschütterte

"Hallo Emily, ich frage mich, ob du etwas über ethische Überlegungen zu großen Sprachmodellen geschrieben hast oder etwas, das du von anderen empfehlen könntest?" fragte sie und bezog sich auf eine lebhafte Art von Software für künstliche Intelligenz, die auf Text von einer enormen Anzahl von Webseiten trainiert wurde.

"Entschuldigung, habe ich nicht!" Bender antwortete Gebru laut Nachrichten von CNN Business schnell. Aber Bender, der Gebru zu dieser Zeit hauptsächlich aus ihrer Präsenz auf Twitter kannte, war von der Frage fasziniert. Innerhalb weniger Minuten gab sie einige Ideen zu den ethischen Implikationen solcher hochmodernen KI-Modelle zurück, darunter die "Kohlenstoffkosten für die Erstellung der verdammten Dinge" und "KI-Hype / Leute, die behaupten, es sei verständlich, wenn es nicht so ist". und zitierte einige relevante wissenschaftliche Arbeiten.

Gebru, eine prominente schwarze Frau in der KI – ein Bereich, der größtenteils weiß und männlich ist – ist bekannt für ihre Forschungen zu Voreingenommenheit und Ungleichheit in der KI. Es ist ein relativ neues Forschungsgebiet, in dem untersucht wird, wie die Technologie, die vom Menschen hergestellt wird, unsere Vorurteile aufnimmt. Der Forscher ist auch Mitbegründer von Black in AI, einer Gruppe, die sich darauf konzentriert, mehr Schwarze auf das Feld zu bringen. Sie antwortete Bender, dass sie versucht habe, Google dazu zu bringen, die ethischen Auswirkungen großer Sprachmodelle zu berücksichtigen.

Bender schlug vor, eine wissenschaftliche Arbeit mitzuverfassen, die sich mit diesen KI-Modellen und den damit verbundenen ethischen Fallstricken befasst. Innerhalb von zwei Tagen schickte Bender Gebru einen Entwurf für ein Papier. Einen Monat später hatten die Frauen dieses Papier geschrieben (unterstützt von anderen Mitautoren, einschließlich Gebrus Co-Teamleiterin bei Google, Margaret Mitchell) und es der ACM-Konferenz zu Fairness, Rechenschaftspflicht und Transparenzoder FAccT. Der Titel der Zeitung war "Über die Gefahren stochastischer Papageien: Können Sprachmodelle zu groß sein?" und es enthielt ein winziges Papagei-Emoji nach dem Fragezeichen. (Der Ausdruck "stochastische Papageien" bezieht sich auf die Idee, dass diese riesigen KI-Modelle Wörter zusammenziehen, ohne wirklich zu verstehen, was sie bedeuten, ähnlich wie ein Papagei lernt, Dinge zu wiederholen, die er hört.)

Das Papier befasst sich mit den Risiken des Aufbaus immer größerer KI-Sprachmodelle, die in großen Teilen des Internets trainiert werden, wie z. B. den Umweltkosten und dem Fortbestehen von Vorurteilen, sowie mit den Maßnahmen zur Verringerung dieser Risiken. Es stellte sich heraus, dass es ein viel größeres Geschäft war, als Gebru oder Bender erwartet hatten.

Noch bevor sie im Dezember darüber informiert wurden, ob sie von der Konferenz akzeptiert wurden, verließ Gebru Google abrupt. Am Mittwoch, dem 2. Dezember, hat sie getwittert dass sie "sofort gefeuert" worden war für eine E-Mail schickte sie an eine interne Mailingliste. In der E-Mail äußerte sie Bestürzung über den anhaltenden Mangel an Vielfalt im Unternehmen und Frustration über einen internen Prozess im Zusammenhang mit der Überprüfung dieses noch nicht öffentlichen Forschungspapiers. (Google sagte, es habe Gebru's Rücktritt wegen einer Liste von Forderungen akzeptiert, die sie per E-Mail gesendet hatte und die erfüllt werden mussten, damit sie weiter im Unternehmen arbeiten konnte.)
Der Ausstieg von Gebru aus dem ethischen KI-Team von Google löste eine monatelange Krise für die KI-Abteilung des Technologiegiganten aus, darunter Mitarbeiterabgänge, ein Führungswechselund wachsendes Misstrauen gegenüber dem historisch angesehenen Stipendium des Unternehmens in der größeren KI-Community. Der Konflikt eskalierte schnell an die Spitze der Google-Führung und zwang CEO Sundar Pichai zu verkünden, dass das Unternehmen untersuchen würde, was passiert ist und sich dafür zu entschuldigen, dass einige Mitarbeiter aufgrund der Umstände der Abreise von Gebru ihren Platz im Unternehmen in Frage stellten. Die Firma beendete seine monatelange Überprüfung im Februar.
Aber ihr Sturz und die daraus resultierenden Folgen wecken erneut die Besorgnis über ein Problem, das Auswirkungen über Google hinaus hat: Wie Tech-Unternehmen versuchen, sich selbst zu überwachen. Mit sehr wenige Gesetze, die KI regeln In den USA legen Unternehmen und akademische Einrichtungen häufig ihre eigenen Regeln fest, was bei der Entwicklung immer leistungsfähigerer Software in Ordnung ist und was nicht. Ethische KI-Teams, wie das von Gebru bei Google mitgeführte, können bei dieser Rechenschaftspflicht helfen. Die Krise bei Google zeigt jedoch die Spannungen, die entstehen können, wenn akademische Forschung in einem Unternehmen durchgeführt wird, dessen Zukunft von derselben Technologie abhängt, die derzeit untersucht wird.

"Akademiker sollten in der Lage sein, diese Unternehmen ohne Auswirkungen zu kritisieren", sagte Gebru gegenüber CNN Business.

Google lehnte es ab, jemanden für ein Interview für dieses Stück zur Verfügung zu stellen. In einer Erklärung sagte Google, dass Hunderte von Menschen an verantwortungsbewusster KI arbeiten und im vergangenen Jahr mehr als 200 Veröffentlichungen zum Aufbau verantwortungsbewusster KI veröffentlicht haben. "Diese Forschung ist unglaublich wichtig und wir bauen unsere Arbeit in diesem Bereich im Einklang mit unseren KI-Prinzipien weiter aus", sagte ein Unternehmenssprecher.

"Ein ständiger Kampf vom ersten Tag an"

Gebru kam im September 2018 auf Drängen von Mitchell als Co-Leiter des Ethical AI-Teams zu Google. Laut denjenigen, die daran gearbeitet haben, bestand das Team aus einer kleinen, vielfältigen Gruppe von etwa einem Dutzend Mitarbeitern, darunter Forschungs- und Sozialwissenschaftler sowie Software-Ingenieure – und es wurde vor etwa drei Jahren von Mitchell zusammengeführt. Es untersucht die ethischen Auswirkungen von KI und berät das Unternehmen in Bezug auf KI-Richtlinien und -Produkte.

Zwei Google-Mitarbeiter kündigen den Ausstieg des KI-Forschers Timnit Gebru
Gebru, die bei Stanford in Computer Vision promovierte und eine Postdoktorandenstelle bei Microsoft Research innehatte, sagte, sie sei sich zunächst nicht sicher, ob sie in das Unternehmen eintreten würde. Gebru sagte, sie habe nicht viele stimmgewaltige, einfühlsame Frauen gesehen, die sie bei Microsoft gesehen habe, und eine Reihe von Frauen warnte sie vor Sexismus und Belästigung, denen sie bei Google ausgesetzt waren. (Die Firma, die hat öffentliche Kritik ausgesetzt von seinen Mitarbeitern über den Umgang mit sexueller Belästigung und Diskriminierung am Arbeitsplatz, hat zuvor verpfändet "einen gerechteren und respektvolleren Arbeitsplatz zu schaffen")

Sie war schließlich von Mitchells Bemühungen überzeugt, ein vielfältiges Team aufzubauen.

In den folgenden zwei Jahren, so Gebru, arbeitete das Team an zahlreichen Projekten, um eine Grundlage dafür zu schaffen, wie Menschen bei Google forschen und Produkte entwickeln, beispielsweise durch die Entwicklung von Modellkarten das soll KI-Modelle transparenter machen. Es hat auch mit anderen Gruppen bei Google zusammengearbeitet, um ethische Fragen zu berücksichtigen, die bei der Datenerfassung oder der Entwicklung neuer Produkte auftreten können. Gebru wies darauf hin, dass Alex Hanna, ein leitender Wissenschaftler bei Google, maßgeblich dazu beigetragen hat, Richtlinien zu finden, wann Forscher das Geschlecht im Datensatz mit Anmerkungen versehen möchten (oder nicht). (Dies könnte beispielsweise hilfreich sein oder Vorurteile oder Stereotypen aufrechterhalten.)

"Ich hatte das Gefühl, unsere Gruppe sei wie eine Familie", sagte Gebru.

Gebru beschrieb die Arbeit bei Google jedoch auch als "ständigen Kampf vom ersten Tag an". Wenn sie sich zum Beispiel über etwas beschwerte, sagte sie, man würde ihr sagen, sie sei "schwierig". Sie erzählte von einem Vorfall, bei dem ihr per E-Mail mitgeteilt wurde, dass sie nicht produktiv sei und Forderungen stelle, weil sie eine Einladung zu einem Treffen ablehnte, das am nächsten Tag stattfinden sollte. Obwohl Gebru keine Dokumentation solcher Vorfälle hat, sagte Hanna, sie habe eine Reihe ähnlicher Geschichten wie diese von Gebru und Mitchell gehört.

"Die Außenwelt sieht uns viel mehr als Experten, respektiert uns wirklich viel mehr als jeder andere bei Google", sagte Gebru. "Es war so ein Schock, als ich dort ankam, um das zu sehen."

Margaret Mitchell brachte das Ethical AI-Team bei Google zusammen und beschrieb später Gebru's Abgang als "schrecklicher lebensverändernder Verlust in einem Jahr schrecklicher lebensverändernder Verluste."

"Ständig entmenschlicht"

Anfang Dezember spitzten sich interne Konflikte zu. Gebru sagte, sie habe ein langes Hin und Her mit der Führung der Google-KI gehabt, in dem ihr wiederholt gesagt wurde, sie solle das Papier "Stochastische Papageien" von der Prüfung für die Präsentation auf der FAccT-Konferenz zurückziehen oder ihren Namen daraus entfernen.

Am Dienstagabend, dem 1. Dezember, schickte sie eine E-Mail an die Mailingliste Brain Women and Allies von Google, in der sie ihre Frustration über den internen Überprüfungsprozess und die Behandlung des Unternehmens sowie ihre Bestürzung über den anhaltenden Mangel an Vielfalt im Unternehmen zum Ausdruck brachte.

"Haben Sie jemals von jemandem gehört, der über ein privilegiertes und vertrauliches Dokument an die Personalabteilung 'Feedback' zu einem Papier erhält? Klingt das für Sie nach einem Standardverfahren oder passiert es nur Leuten wie mir, die ständig entmenschlicht werden?" sie schrieb in die E-Mail, die war zuerst berichtet von der Website Platformer. (Gebru bestätigte die Echtheit der E-Mail an CNN Business.)

Sie schrieb auch, dass das Papier an mehr als 30 Forscher zur Rückmeldung gesendet wurde, was Bender, der Professor, CNN Business in einem Interview bestätigte. Dies geschah, weil die Autoren vermuteten, dass ihre Arbeit in der KI-Community "wahrscheinlich einige Federn zerzaust", da sie gegen die derzeitige Hauptrichtung des Feldes verstößt, sagte Bender. Dieses Feedback wurde von einer Reihe von Personen eingeholt, darunter auch von vielen, deren erwartete Federn gekräuselt würden – und in das Papier aufgenommen.

"Wir hatten keine Ahnung, dass daraus das werden würde, was daraus geworden ist", sagte Bender.

Am nächsten Tag, Mittwoch, dem 2. Dezember, erfuhr Gebru, dass sie keine Google-Mitarbeiterin mehr war.

Emily Bender, eine Professorin für Computerlinguistik, schlug vor, gemeinsam mit Gebru eine wissenschaftliche Arbeit zu verfassen, in der diese KI-Modelle und die damit verbundenen ethischen Fallstricke untersucht wurden, nachdem sich die beiden auf Twitter gegenseitig informiert hatten. "Wir hatten keine Ahnung, dass es sich in das verwandeln würde, was es geworden ist." Sie sagte.
In einer E-Mail an Mitarbeiter von Google Research und öffentlich veröffentlicht Einen Tag später teilte Jeff Dean, der KI-Leiter von Google, den Mitarbeitern mit, dass das Unternehmen nicht die erforderlichen zwei Wochen Zeit habe, um das Papier vor Ablauf der Frist zu überprüfen. Das Papier wurde intern überprüft, schrieb er, aber es "traf unsere Messlatte für die Veröffentlichung nicht".

"Es ignorierte zu viele relevante Forschungsergebnisse – zum Beispiel sprach es über die Umweltauswirkungen großer Modelle, ignorierte jedoch nachfolgende Forschungsergebnisse, die eine viel höhere Effizienz zeigten. In ähnlicher Weise äußerte es Bedenken hinsichtlich der Voreingenommenheit in Sprachmodellen, berücksichtigte jedoch nicht die jüngsten Forschungsergebnisse um diese Probleme zu entschärfen ", schrieb er.

Gebru sagte, es sei nichts Ungewöhnliches daran, wie das Papier zur internen Überprüfung bei Google eingereicht wurde. Sie bestritt Deans Behauptung, dass das zweiwöchige Fenster eine Anforderung im Unternehmen sei, und stellte fest, dass ihr Team eine Analyse durchgeführt hatte, bei der festgestellt wurde, dass die Mehrheit der 140 kürzlich durchgeführten Forschungsarbeiten innerhalb eines Tages oder weniger eingereicht und genehmigt wurde. Seit sie bei der Firma angefangen hat, ist sie als Mitautorin bei aufgeführt zahlreiche Publikationen.

Gebru nahm ihren Namen unangenehm von der Zeitung und wollte Transparenz. Er schrieb eine E-Mail, mit der das Unternehmen bald ihr Schicksal besiegelte. Dean sagte, Gebru's E-Mail enthielt Forderungen, die erfüllt werden mussten, wenn sie bei Google bleiben wollte. "Timnit schrieb, wenn wir diese Anforderungen nicht erfüllen würden, würde sie Google verlassen und an einem Enddatum arbeiten", schrieb Dean.

Sie teilte CNN Business mit, dass ihre Bedingungen Transparenz über die Art und Weise, wie das Papier zurückgezogen werden soll, sowie Treffen mit Dean und einem anderen KI-Manager bei Google beinhalteten, um über die Behandlung von Forschern zu sprechen.

"Wir akzeptieren und respektieren ihre Entscheidung, von Google zurückzutreten", schrieb Dean in seiner Notiz.

Empörung über KI

Gebru's Ausstieg aus dem Technologieriesen löste sofort Empörung in ihrem kleinen Team, im gesamten Unternehmen sowie in der KI- und Technologiebranche aus. Mitarbeiter und andere teilten schnell ihre Online-Unterstützung, einschließlich Mitchell, der es als "schrecklichen lebensverändernden Verlust in einem Jahr schrecklicher lebensverändernder Verluste" bezeichnete.

EIN Mittlerer Beitrag, der Gebru's Abreise entschlüsselt Die Forderung nach Transparenz über die Entscheidung von Google in Bezug auf das Forschungspapier erhielt schnell die Unterschriften von mehr als 1.300 Google-Mitarbeitern und mehr als 1.600 Unterstützern im akademischen und KI-Bereich. In der zweiten Märzwoche war die Zahl der Unterstützer auf fast 2.700 Google-Mitarbeiter und über 4.300 andere angewachsen.
Google versuchte, die Kontroverse und den damit verbundenen Anstieg der Emotionen zu unterdrücken, und der CEO von Google versprach eine Untersuchung dessen, was passiert war. Mitarbeiter der ethischen KI-Gruppe antworteten mit Senden ihrer eigenen Liste von Forderungen in einem Brief an Pichai, einschließlich einer Entschuldigung von Dean und einem anderen Manager für die Behandlung von Gebru und für das Unternehmen, Gebru eine neue Position auf höherer Ebene bei Google anzubieten.

Hinter den Kulissen nahmen die Spannungen nur zu.

Mitchell teilte CNN Business mit, dass sie im Januar in Verwaltungsurlaub genommen wurde und ihr E-Mail-Zugang dann gesperrt wurde. Und Hanna sagte, das Unternehmen habe eine Untersuchung durchgeführt, bei der es Interviews mit verschiedenen Mitgliedern des KI-Ethik-Teams geplant habe, ohne es zu bemerken.

"Es waren offen gesagt Verhörsitzungen, wie Meg (Mitchell) es beschrieben hat und wie andere Teammitglieder es beschrieben haben", sagte Hanna, die immer noch bei Google arbeitet.

Alex Hanna, der immer noch bei Google arbeitet, sagte, das Unternehmen habe Interviews mit verschiedenen Mitgliedern des KI-Ethik-Teams geführt. "Es waren offen gesagt Verhörsitzungen," Sie sagte.
Am 18. Februar wurde das Unternehmen angekündigt es hatte mischte die Führung seiner verantwortlichen KI-Bemühungen. Marian Croak, eine schwarze Frau, die seit sechs Jahren Vizepräsidentin des Unternehmens ist, wurde beauftragt, ein neues Zentrum für verantwortungsvolle KI in Google Research zu betreiben. Zehn Teams, die sich mit KI-Ethik, Fairness und Zugänglichkeit befassen – einschließlich des Ethical AI-Teams – berichten ihr jetzt. Google lehnte es ab, Croak für ein Interview zur Verfügung zu stellen.

Hanna sagte, das ethische KI-Team habe sich Mitte Dezember mehrmals mit Croak getroffen, wobei die Gruppe Punkt für Punkt ihre Liste der Forderungen durchgesehen habe. Hanna sagte, es fühlte sich so an, als würden bei diesen Treffen Fortschritte erzielt.

Google versucht, die Kontroverse um sein Team für ethische KI zu beenden. Es läuft nicht gut
Einen Tag nach diesem Führungswechsel, Dean kündigte mehrere Richtlinienänderungen an In einem internen Memo heißt es, Google plane, seinen Ansatz für die Behandlung des Ausscheidens bestimmter Mitarbeiter aus dem Unternehmen zu ändern, nachdem eine monatelange Überprüfung des Ausstiegs von Gebru abgeschlossen wurde. Eine Kopie des Memos, das von CNN Business erhalten wurde, besagte, dass Änderungen beinhalten würden, dass HR-Mitarbeiter "sensible" Mitarbeiterausgänge überprüfen.
Es war jedoch noch kein ganz neues Kapitel für das Unternehmen. Nach Monaten der Äußerung auf Twitter nach dem Ausstieg von Gebru – einschließlich twittern ein langes internes Memo das war sehr kritisch gegenüber Google – Mitchells Zeit bei Google war abgelaufen. "Ich bin gefeuert", sagte sie getwittert dieser Nachmittag.

Ein Google-Sprecher bestritt nicht, dass Mitchell entlassen wurde, als er um einen Kommentar zu dieser Angelegenheit gebeten wurde. Das Unternehmen zitierte eine Überprüfung, in der "mehrfache Verstöße" gegen seinen Verhaltenskodex festgestellt wurden, einschließlich der Aufnahme "vertraulicher geschäftsrelevanter Dokumente und privater Daten anderer Mitarbeiter".

Mitchell sagte gegenüber CNN Business, dass das ethische KI-Team "Angst" hatte, dass sie als nächstes Gebru nachgehen würde.

"Ich habe keinen Zweifel daran, dass mein Eintreten für Rassen- und Geschlechterfragen sowie meine Unterstützung von Dr. Gebru dazu geführt haben, dass ich verboten und dann gekündigt wurde", sagte sie.

Jeff Dean, der Leiter der KI bei Google, deutete während einer Rathaussitzung auf einen Schlag für den Ruf des Unternehmens in der Forschung hin. "Ich denke, der Weg, um wieder Vertrauen zu gewinnen, besteht darin, weiterhin hochmoderne Arbeiten in vielen, vielen Bereichen zu veröffentlichen, einschließlich der Überschreitung der Grenzen für Themen im Zusammenhang mit verantwortungsbewusster KI." er sagte.

Große Firma, große Forschung

Mehr als drei Monate nach Gebru's Abreise sind die Schockwellen immer noch innerhalb und außerhalb des Unternehmens zu spüren.

"Es ist absolut verheerend", sagte Hanna. "Wie soll man wie gewohnt arbeiten? Wie soll man überhaupt wissen, was man sagen kann? Wo soll man wissen, was man machen soll? Wie werden die Bedingungen sein?" in dem die Firma dich unter den Bus wirft? "

Am Montag hat Google Walkout for Real Change, eine Aktivismusgruppe, die 2018 von Google-Mitarbeitern gegründet wurde, um gegen sexuelle Belästigung und Fehlverhalten im Unternehmen zu protestieren. gefordert diejenigen im KI-Bereich, um in Solidarität mit der KI-Ethikgruppe zu stehen. Es forderte akademische KI-Konferenzen auf, sich unter anderem zu weigern, von Anwälten "oder ähnlichen Unternehmensvertretern" herausgegebene Beiträge zu berücksichtigen, und Sponsoring von Google abzulehnen. Die Gruppe forderte auch Schulen und andere Forschungsgruppen auf, keine Mittel mehr von Organisationen wie Google zu erhalten, bis sie sich zu "klaren und extern durchgesetzten und validierten" Forschungsstandards verpflichtet haben.

Akademische Forschung über Technologie kann naturgemäß störend und kritisch sein. Zusätzlich zu Google betreiben viele große Unternehmen Forschungszentren wie Microsoft Research und Facebook AI Research, und sie tendieren dazu, diese öffentlich als etwas getrennt vom Unternehmen selbst zu projizieren.

Bis Google jedoch Transparenz über seine Forschungs- und Veröffentlichungsprozesse bietet, ist Bender der Ansicht, dass "alles, was aus Google kommt, mit einem großen Sternchen versehen ist". EIN aktueller Reuters-Bericht Dass Google-Anwälte eines der KI-Papiere seiner Forscher herausgegeben haben, schürt auch das Misstrauen gegenüber der Arbeit, die aus dem Unternehmen kommt. (Google antwortete Reuters, dass es das Papier wegen ungenauer Verwendung von Rechtsbegriffen bearbeitet habe.)

"Grundsätzlich befinden wir uns in einer Situation, in der, okay, hier ist ein Artikel mit einer Google-Zugehörigkeit. Wie viel sollten wir daran glauben?" Sagte Bender. Gebru sagte, was mit ihr und ihrer Gruppe passiert sei, signalisiere die Bedeutung der Finanzierung für unabhängige Forschung.

Und das Unternehmen hat angekündigt, seinen Ruf als Forschungseinrichtung zu festigen. In einer kürzlich abgehaltenen Rathaussitzung von Google, über die Reuters erstmals berichtete und von der CNN Business auch Audio erhalten hat, erläuterte das Unternehmen Änderungen an seinen internen Forschungs- und Veröffentlichungspraktiken. Google hat auf eine Frage zur Authentizität des Audios nicht geantwortet.

Ein Rettich in einem Tutu, der mit einem Hund spazieren geht? Diese KI kann es wirklich gut zeichnen

"Ich denke, der Weg, um wieder Vertrauen zu gewinnen, besteht darin, weiterhin hochmoderne Arbeiten in vielen, vielen Bereichen zu veröffentlichen, einschließlich der Überschreitung der Grenzen für Themen im Zusammenhang mit verantwortungsbewusster KI und der Veröffentlichung von Dingen, die für die Forschungsgemeinschaft zutiefst interessant sind Dean antwortete auf eine Mitarbeiterfrage bezüglich externer Forscher, dass sie Artikel von Google "jetzt mit größerer Skepsis" lesen werden.

Anfang März stoppte die FAccT-Konferenz ihre Sponsoring-Vereinbarung mit Google. Gebru ist einer der Gründer der Konferenz und Mitglied des ersten FAccT-Exekutivkomitees. Google war seit Beginn der Jahreskonferenz im Jahr 2018 jedes Jahr Sponsor. Michael Ekstrand, Co-Vorsitzender des ACM FAccT-Netzwerks, bestätigte gegenüber CNN Business, dass das Sponsoring eingestellt wurde, und erklärte, der Umzug sei "im besten Interesse von" die Gemeinde "und dass die Gruppe ihre Sponsoring-Politik für 2022" überdenken "wird. Ekstrand sagte, Gebru sei nicht an der Entscheidung beteiligt.

Die Konferenz, die praktisch letzte Woche begann, läuft bis Freitag. Das Papier von Gebru und Bender wurde vorgestellt Am Mittwoch. Im Tweets Gebru nannte die Erfahrung "surreal", die er während der Online-Präsentation gepostet hatte, die zuvor von Bender und einem anderen Mitautor der Zeitung aufgezeichnet worden war.

"Ich hätte nie gedacht, was passiert ist, nachdem wir beschlossen haben, an diesem Papier zusammenzuarbeiten", twitterte sie.