Für eine wirklich ethische KI muss ihre Forschung unabhängig von Big Tech sein | Timnit Gebrü

Vor einem Jahr erfuhr ich durch einen meiner direkten Vorgesetzten, dass ich offenbar gekündigt hatte. Ich war gerade auf eine der respektlosesten Weisen, die ich mir vorstellen konnte, von Google gefeuert worden.

Dank der Organisation durch ehemalige und aktuelle Google-Mitarbeiter und viele andere ist es Google nicht gelungen, meine Arbeit oder meinen Ruf zu beschmutzen, obwohl sie es versuchten. Meine Entlassung machte Schlagzeilen wegen der Arbeiterorganisation, die sich in der Tech-Welt aufgebaut hat, oft aufgrund der Arbeit von Menschen, die bereits an den Rand gedrängt sind und deren Namen wir oft nicht kennen. Seit ich im Dezember letzten Jahres entlassen wurde, gab es viele Entwicklungen in der Organisierung und beim Whistleblowing von Tech-Mitarbeitern. Die am meisten bekannt gemachte Aussage war die Aussage von Frances Haugen im Kongress; In Anlehnung an das, was Sophie Zhang, eine von Facebook entlassene Datenwissenschaftlerin, zuvor gesagt hatte, argumentierte Haugen, dass das Unternehmen dem Wachstum Vorrang vor allem anderen einräumt, selbst wenn es die tödlichen Folgen davon kennt.

Ich habe das aus erster Hand gesehen. Am 3. November 2020 brach in Äthiopien, dem Land, in dem ich geboren und aufgewachsen bin, ein Krieg aus. Die unmittelbaren Auswirkungen ungeprüfter Fehlinformationen, Hassreden und „alternativer Fakten“ in den sozialen Medien sind verheerend. Am 30. Oktober dieses Jahres meldeten ich und viele andere ein klarer Aufruf zum Völkermord auf Amharisch zu Facebook. Das Unternehmen antwortete, dass der Beitrag nicht gegen seine Richtlinien verstoße. Erst nachdem viele Reporter das Unternehmen fragten, warum dieser klare Aufruf zum Völkermord nicht gegen die Richtlinien von Facebook verstoße – und erst nachdem der Beitrag bereits von vielen geteilt, geliked und kommentiert worden war – entfernte das Unternehmen ihn.

Andere Plattformen wie YouTube haben trotz Studien und Artikeln nicht die erforderliche Prüfung erhalten Beispiele wie sie von verschiedenen Gruppen, einschließlich Regimen, verwendet werden, um Bürger zu schikanieren. Twitter und insbesondere TikTok, Telegram und Clubhouse haben die gleichen Probleme, werden aber viel weniger diskutiert. Als ich ein Papier schrieb, in dem die Schäden beschrieben wurden, die von Modellen ausgehen, die mit Daten von diesen Plattformen trainiert wurden, wurde ich von Google gefeuert.

Wenn Leute fragen, welche Vorschriften vorhanden sein müssen, um uns vor der unsicheren Verwendung von KI zu schützen, die wir gesehen haben, beginne ich immer mit Arbeitsschutz- und Kartellmaßnahmen. Ich kann sagen, dass einige Leute diese Antwort enttäuschend finden – vielleicht, weil sie erwarten, dass ich technologiespezifische Vorschriften erwähne. Diese sind zwar wichtig, aber die wichtigste Sache, die uns vor unsicherem Einsatz von KI schützen würde, wäre, die Macht der Unternehmen, die sie entwickeln, einzuschränken und die Macht derer zu stärken, die sich gegen die Schäden der KI und der Praktiken dieser Unternehmen aussprechen. Dank der harten Arbeit von Ifeoma Ozoma und ihren Mitarbeitern hat Kalifornien kürzlich den Silenced No More Act verabschiedet, der es illegal macht, Arbeiter daran zu hindern, sich über Rassismus, Belästigung und andere Formen des Missbrauchs am Arbeitsplatz zu äußern. Dies muss universell sein. Darüber hinaus brauchen wir eine viel stärkere Bestrafung von Unternehmen, die gegen bereits bestehende Gesetze verstoßen, wie z Gewerkschaftszerschlagung von Amazon. Wenn Arbeiter Macht haben, schafft dies eine Schicht von Kontrollen und Gleichgewichten für die Tech-Milliardäre, deren von Launen getriebene Entscheidungen zunehmend die ganze Welt betreffen.

Ich sehe dieses Monopol auch außerhalb von Big Tech. Ich habe vor kurzem ein KI-Forschungsinstitut gegründet, das hofft, unter anderen Anreizen arbeiten zu können als die der großen Technologieunternehmen und der akademischen Eliteinstitutionen, die sie ernähren. Während dieser Bemühungen stellte ich fest, dass dieselben großen Technologieführer, die Leute wie mich verdrängen, auch die großen Philanthropie und die Agenda der Regierung für die Zukunft der KI-Forschung kontrollieren. Wenn ich mich gegen einen potenziellen Geldgeber wehre, steht nicht nur mein Job auf dem Spiel, sondern auch die Jobs anderer am Institut. Und obwohl es einige – wenn auch unzureichende – Gesetze gibt, die versuchen, die Organisierung von Arbeitern zu schützen, gibt es so etwas in der Fundraising-Welt nicht.

Was ist also der Weg nach vorne? Um wirkliche Checks and Balances zu haben, sollten wir nicht dieselben Leute haben, die die Agenden von Big Tech, Forschung, Regierung und dem gemeinnützigen Sektor bestimmen. Wir brauchen Alternativen. Wir brauchen Regierungen auf der ganzen Welt, die in Gemeinschaften investieren und Technologien aufbauen, von denen sie wirklich profitieren, anstatt eine Agenda zu verfolgen, die von Big Tech oder dem Militär vorgegeben wird. Im Gegensatz zu der Rhetorik großer Technologiemanager im Stil des Kalten Krieges über ein Wettrüsten, ist das, was Innovation wirklich erstickt, die derzeitige Regelung, bei der einige wenige Menschen schädliche Technologien entwickeln und andere ständig daran arbeiten, Schaden zu verhindern, da sie nicht in der Lage sind, die Zeit, den Raum oder die Ressourcen für die Umsetzung zu finden ihre eigene Vision von der Zukunft.

Wir brauchen eine unabhängige Quelle staatlicher Finanzierung, um unabhängige KI-Forschungsinstitute zu ernähren, die eine Alternative zu der enorm konzentrierten Macht einiger weniger großer Technologieunternehmen und der eng mit ihnen verflochtenen Eliteuniversitäten sein können. Nur wenn wir die Anreizstruktur ändern, werden wir eine Technologie sehen, die dem Wohl der Bürger Priorität einräumt – und nicht ein fortgesetzter Wettlauf, um herauszufinden, wie man mehr Menschen effizienter umbringt oder das meiste Geld für eine Handvoll Unternehmen auf der ganzen Welt verdient.


source site-27