Machine-Learning-Systeme sind problematisch. Deshalb nennen Tech-Bosse sie „KI“ | John Naughton

ÖEiner der nützlichsten Texte für alle, die sich mit der Technologiebranche befassen, ist George Orwells berühmter Essay, Politik und englische Sprache. Orwell konzentrierte sich in dem Essay auf den politischen Gebrauch der Sprache, um, wie er es ausdrückte, „Lügen wahrheitsgetreu und Mord respektabel klingen zu lassen und dem reinen Wind einen soliden Anschein zu verleihen“. Aber die Analyse kann auch auf die Art und Weise angewendet werden, in der zeitgenössische Unternehmen die Sprache verbiegen, um die Aufmerksamkeit von der schmutzigen Realität dessen abzulenken, was sie vorhaben.

Die Tech-Industrie ist besonders geschickt in dieser Art von Linguistik. „Teilen“ ist beispielsweise das Klicken auf einen Link, um eine Datenspur zu hinterlassen, die verwendet werden kann, um das Profil zu verfeinern, das das Unternehmen über Sie pflegt. Sie geben Ihre „Zustimmung“ zu einem einseitigen Vorschlag: Stimmen Sie diesen Bedingungen zu oder verlieren Sie sich. Inhalte werden „moderiert“, nicht zensiert. Werbetreibende „kontaktieren“ Sie mit unerwünschten Nachrichten. Mitarbeiter, die entlassen werden, werden „losgelassen“. Fehlerhafte Produkte werden „zurückgerufen“. Usw.

Im Moment ist KI der schädlichste Euphemismus im Wörterbuch der Doppelsprache, der in den letzten zwei oder drei Jahren allgegenwärtig geworden ist. Ursprünglich ist es eine Abkürzung für künstliche Intelligenz, vom OED definiert als „die Fähigkeit von Computern oder anderen Maschinen, intelligentes Verhalten zu zeigen oder zu simulieren; die damit befasste Studienrichtung“. Ein Ngram-Tool (das Muster der Wortverwendung zeigt) enthüllt dass KI und künstliche Intelligenz bis in die 1960er-Jahre mehr oder weniger Synonyme waren, sich danach aber auseinanderentwickelten und KI heute in der Technologiebranche, in den Massenmedien und in der Wissenschaft weit verbreitet ist.

Nun, warum könnte das sein? Faulheit hat zweifellos etwas damit zu tun; schließlich sind zwei Buchstaben typografisch einfacher als 22. Aber das ist eine Rationalisierung, keine Erklärung. Wenn Sie es durch eine Orwellsche Linse betrachten, müssen Sie sich fragen: Welche Arbeit leistet diese sprachliche Komprimierung? Und für wen? Und da wird es interessant.

Als Thema und Begriff ist Intelligenz für uns Menschen unendlich faszinierend. Wir streiten seit Jahrhunderten darüber – was es ist, wie man es misst, wer es hat (und wer nicht) und so weiter. Und seit Alan Turing angedeutet hat, dass Maschinen denken könnten, Interesse an künstlich Die Intelligenz ist gewachsen und fiebert jetzt mit Spekulationen über die Aussicht auf Superintelligente Maschinen – manchmal bekannt als AGI (für künstliche allgemeine Intelligenz).

All das ist interessant, hat aber wenig mit dem zu tun, was die Tech-Industrie KI nennt, was ihr Name ist maschinelles Lernen, eine geheimnisvolle und kohlenstoffintensive Technologie, die manchmal gut darin ist, komplexe, aber sehr genau definierte Probleme zu lösen. Beispielsweise können maschinell lernende Systeme Weltklasse-Go spielen, die Faltung von Proteinmolekülen vorhersagen und Hochgeschwindigkeitsanalysen von Netzhautscans durchführen, um Fälle zu identifizieren, die einer weiteren Untersuchung durch einen menschlichen Spezialisten bedürfen.

Alles gute Sachen, aber der Grund, warum die Tech-Industrie von der Technologie besessen ist, ist, dass sie es ihr ermöglicht, Maschinen zu bauen, die aus dem Verhalten von Internetnutzern lernen, um vorherzusagen, was sie als nächstes tun könnten und insbesondere, was ihnen gefällt. Wert und möchten vielleicht kaufen. Aus diesem Grund rühmen sich Tech-Chefs damit, „KI überall“ in ihren Produkten und Dienstleistungen zu haben. Und deshalb antworten sie immer, wenn Mark Zuckerberg und Co wegen ihrer Unfähigkeit, giftige Inhalte von ihren Plattformen fernzuhalten, angegriffen werden, dass die KI das Problem schon bald lösen wird.

Aber hier ist die Sache: Die Industrie ist jetzt süchtig nach einer Technologie, die große technische und gesellschaftliche Nachteile hat. CO2 Die Emissionen beim Training großer maschineller Lernsysteme sind beispielsweise enorm. Sie sind zu zerbrechlich und fehleranfällig, um sich in sicherheitskritischen Anwendungen wie autonomen Fahrzeugen darauf verlassen zu können. Sie beinhalten rassische, geschlechtsspezifische und ethnische Vorurteile (teilweise, weil sie die Vorurteile aufgenommen haben, die in den Daten enthalten sind, auf denen sie trainiert wurden). Und sie sind unwiederbringlich undurchsichtig – in dem Sinne, dass selbst ihre Schöpfer oft nicht erklären können, wie ihre Maschinen zu Klassifizierungen oder Vorhersagen kommen – und entsprechen daher nicht den demokratischen Anforderungen der Rechenschaftspflicht. Und das ist nur für den Anfang.

Wie geht die Industrie also mit der schmutzigen Realität um, dass sie die Ranch auf eine mächtige, aber problematische Technologie gesetzt hat? Antwort: Indem man es vermeidet, es bei seinem richtigen Namen zu nennen, und es stattdessen in einen Namen verpackt, der impliziert, dass es irgendwie Teil eines größeren, großartigeren romantischen Projekts ist – der Suche nach künstlicher Intelligenz. Wie Orwell es ausdrücken könnte, ist dies die Art und Weise der Branche, „dem reinen Wind einen Anschein von Solidität zu verleihen“, während sie sich mit dem eigentlichen Geschäft des Reichmachens beschäftigt.

Was ich gelesen habe

Wirf ihnen einen Bono zu
Ein faszinierender Auszug aus der Autobiografie des U2-Sängers, veröffentlicht im New-Yorker.

Twittern Sie nicht?
Willkommen in der Hölle, Elon ist ein nettes, flottes Tutorial für den neuesten Medienmogul der Welt auf der Verge-Website.

Ein Einzelgänger
Roger Highfields schönes Profil auf der Aeon-Website des verstorbenen großen Klimaforschers James Lovelock.

source site-26