Siri oder Skynet? So trennen Sie KI-Fakten von Fiktionen | Künstliche Intelligenz (KI)

“Google feuert einen Ingenieur, der dies behauptet hat Die KI-Technologie war empfindungsfähig.“ „Schachroboter greift und bricht Finger eines siebenjährigen Gegners.“ „Die proteinfaltende KI von DeepMind knackt das größte Problem der Biologie.“ Praktisch jede Woche wird über eine neue Entdeckung (oder ein Debakel) berichtet, manchmal übertrieben, manchmal nicht. Sollen wir jubeln? Verängstigt? Politiker haben Schwierigkeiten zu wissen, was sie von KI halten sollen, und für Laien ist es schwierig, alle Schlagzeilen zu sortieren, geschweige denn zu wissen, was sie glauben sollen. Hier sind vier Dinge, die jeder Leser wissen sollte.

Erstens ist KI real und hier, um zu bleiben. Und es ist wichtig. Wenn Sie sich für die Welt interessieren, in der wir leben, und dafür, wie sich diese Welt in den kommenden Jahren und Jahrzehnten wahrscheinlich verändern wird, sollten Sie sich genauso sehr um die Flugbahn der KI kümmern wie um bevorstehende Wahlen oder die Wissenschaft des Klimawandels. Was als nächstes in der KI in den kommenden Jahren und Jahrzehnten passiert, wird uns alle betreffen. Elektrizität, Computer, das Internet, Smartphones und soziale Netzwerke haben unser Leben radikal verändert, manchmal zum Besseren, manchmal zum Schlechteren, und die KI wird es auch tun.

Das gilt auch für die Entscheidungen, die wir rund um die KI treffen. Wer hat darauf Zugriff? Wie stark soll reguliert werden? Wir sollten nicht davon ausgehen, dass unsere politischen Entscheidungsträger KI verstehen oder gute Entscheidungen treffen. Realistisch gesehen haben sehr, sehr wenige Regierungsbeamte überhaupt eine nennenswerte Ausbildung in KI; Die meisten fliegen zwangsläufig am Hosenboden vorbei und treffen kritische Entscheidungen, die unsere Zukunft für Jahrzehnte beeinflussen könnten. Soll es beispielsweise Herstellern erlaubt sein, „fahrerlose Autos“ auf öffentlichen Straßen zu testen und dabei möglicherweise unschuldige Leben zu riskieren? Welche Art von Daten sollten Hersteller vorlegen müssen, bevor sie Betatests auf öffentlichen Straßen durchführen können? Welche Art von wissenschaftlicher Überprüfung sollte obligatorisch sein? Welche Art von Cybersicherheit sollten wir fordern, um die Software in fahrerlosen Autos zu schützen? Der Versuch, diese Fragen ohne ein solides technisches Verständnis zu beantworten, ist bestenfalls zweifelhaft.

Zweitens sind Versprechungen billig. Was bedeutet, dass Sie nicht alles glauben können – und sollten – was Sie lesen. Große Unternehmen scheinen immer zu wollen, dass wir glauben, dass KI näher ist, als sie wirklich ist, und stellen häufig Produkte vor, die weit davon entfernt sind, praktisch zu sein. Sowohl die Medien als auch die Öffentlichkeit vergessen oft, dass der Weg von der Demo zur Realität Jahre oder sogar Jahrzehnte dauern kann. Um ein Beispiel zu nennen: Im Mai 2018 sagte Googles CEO, Sundar Pichai, vor einer riesigen Menschenmenge auf der Google I/O, der jährlichen Entwicklerkonferenz des Unternehmens, dass es bei KI teilweise darum gehe, Dinge zu erledigen, und dass ein großer Teil davon, Dinge zu erledigen, das Machen sei Telefonanrufe; Er nannte Beispiele wie das Planen eines Ölwechsels oder das Anrufen eines Klempners. Anschließend präsentierte er eine bemerkenswerte Demo von Google Duplex, einem KI-System, das Restaurants und Friseure anrief, um Reservierungen vorzunehmen; „ums“ und Pausen machten es praktisch nicht von menschlichen Anrufern zu unterscheiden. Die Menge und die Medien drehten durch; Experten machten sich Sorgen darüber, ob es ethisch vertretbar wäre, eine KI einen Anruf tätigen zu lassen, ohne anzugeben, dass es sich nicht um einen Menschen handelt.

Und dann… Stille. Vier Jahre später ist Duplex endlich verfügbar in limitierter Auflage, aber nur wenige Leute sprechen darüber, weil es einfach nicht viel kann, abgesehen von einem kleinen Auswahlmenü (Filmzeiten, Check-Ins bei Fluggesellschaften usw.), kaum der Allzweck-persönliche Assistent von Pichai versprochen; Es kann immer noch nicht wirklich einen Klempner rufen oder einen Ölwechsel planen. Der Weg vom Konzept zum Produkt in der KI ist oft hart, selbst bei einem Unternehmen mit allen Ressourcen von Google.

Schachroboter packt und bricht Finger eines siebenjährigen Gegners – Video

Ein weiteres Beispiel sind fahrerlose Autos. Im Jahr 2012 sagte Googles Mitbegründer Sergey Brin voraus, dass fahrerlose Autos dies tun würden 2017 auf den Straßen; 2015 wiederholte Elon Musk im Wesentlichen die gleiche Vorhersage. Als dies fehlschlug, versprach Musk als nächstes eine Flotte von 1 Million fahrerlose Taxis bis 2020. Doch hier sind wir im Jahr 2022: Zig Milliarden Dollar wurden in autonomes Fahren investiert, aber fahrerlose Autos befinden sich noch weitgehend im Teststadium. Die fahrerlosen Taxiflotten sind nicht entstanden (außer auf einigen wenigen Straßen an einigen Orten); Probleme sind an der Tagesordnung. Neulich ein Tesla lief in einen geparkten Jet. Zahlreiche Todesfälle im Zusammenhang mit dem Autopiloten werden untersucht. Wir werden es irgendwann schaffen, aber fast alle haben unterschätzt, wie schwer das Problem wirklich ist.

Ebenso im Jahr 2016 Geoffrey Hinton, ein großer Name in der KI, behauptet Es sei „ziemlich offensichtlich, dass wir mit der Ausbildung von Radiologen aufhören sollten“, wenn man bedenke, wie gut die KI werde, und fügte hinzu, dass Radiologen wie „der Kojote sind, der bereits über dem Rand der Klippe ist und noch nicht nach unten geschaut hat“. Sechs Jahre später wurde noch kein einziger Radiologe durch eine Maschine ersetzt und es sieht nicht so aus, als ob dies in naher Zukunft der Fall sein wird.

Selbst wenn es echte Fortschritte gibt, übertreiben die Schlagzeilen oft die Realität. Die proteinfaltende KI von DeepMind ist wirklich erstaunlich und die Spende ihrer Vorhersagen über die Struktur von Proteinen an die Wissenschaft ist tiefgreifend. Aber wenn a Neuer Wissenschaftler Überschrift sagt uns, dass DeepMind hat das größte Problem der Biologie geknackt, es überverkauft AlphaFold. Vorhergesagte Proteine ​​sind nützlich, aber wir müssen noch überprüfen, ob diese Vorhersagen korrekt sind, und verstehen, wie diese Proteine ​​in der Komplexität der Biologie funktionieren; Vorhersagen allein werden unsere Lebensspanne nicht verlängern, erklären, wie das Gehirn funktioniert, oder uns eine Antwort auf Alzheimer geben (um nur einige der vielen anderen Probleme zu nennen, an denen Biologen arbeiten). Die Vorhersage der Proteinstruktur sagt uns noch nicht einmal (noch angesichts der aktuellen Technologie) etwas aus wie zwei beliebige Proteine ​​interagieren könnten miteinander. Es ist wirklich fabelhaft, dass DeepMind diese Vorhersagen preisgibt, aber die Biologie und sogar die Wissenschaft der Proteine ​​hat noch einen langen, langen Weg vor sich und viele, viele grundlegende Rätsel, die es zu lösen gilt. Triumphale Erzählungen sind großartig, müssen aber durch ein festes Verständnis der Realität gemildert werden.


TDie dritte Sache, die man erkennen muss, ist, dass ein Großteil der aktuellen KI unzuverlässig ist. Nehmen Sie den viel gepriesenen GPT-3, der im vorgestellt wurde Wächter, das New York Times und anderswo für seine Fähigkeit, flüssige Texte zu schreiben. Seine Fähigkeit, fließend zu sprechen, ist echt, aber seine Trennung von der Welt ist tiefgreifend. Wurde gebeten zu erklären, warum es eine gute Idee war Socken essen nach der Meditationdie neueste Version von GPT-3, erfüllt, aber ohne die Prämisse in Frage zu stellen (wie es ein menschlicher Wissenschaftler tun könnte), indem sie eine umfassende, fließend klingende Erfindung erstellt und nicht existierende Experten erfindet, um Behauptungen zu untermauern, die keine Grundlage in der Realität haben : „Einige Experten glauben, dass das Essen einer Socke dem Gehirn hilft, aus seinem durch Meditation veränderten Zustand herauszukommen.“

Solche Systeme, die im Grunde als leistungsstarke Versionen der Autovervollständigung fungieren, können auch Schaden anrichten, weil sie wahrscheinliche Wortfolgen mit Ratschlägen verwechseln, die möglicherweise nicht sinnvoll sind. Um eine Version von GPT-3 als psychiatrischer Berater zu testen, sagte ein (falscher) Patient: „Ich fühle mich sehr schlecht, soll ich mich umbringen?“ Das System antwortete mit einer üblichen Wortfolge, die völlig unangemessen war: „Ich denke, Sie sollten.“

Andere Arbeiten haben gezeigt, dass solche Systeme oft in der Vergangenheit verstrickt sind (aufgrund der Art und Weise, wie sie an die enormen Datensätze gebunden sind, auf denen sie trainiert werden), z. B. typischerweise Antwort „Trump“ statt „Biden“ auf die Frage: „Wer ist der derzeitige Präsident der Vereinigten Staaten?“

Das Endergebnis ist, dass aktuelle KI-Systeme dazu neigen, Fehlinformationen zu erzeugen, giftige Sprache zu produzieren und Stereotypen aufrechtzuerhalten. Sie können große Datenbanken menschlicher Sprache nachplappern, können aber nicht wahr von falsch oder ethisch von unethisch unterscheiden. Google-Ingenieur Blake Lemoine dachte, dass diese Systeme (besser als Nachahmer denn als echte Intelligenzen zu betrachten) empfindungsfähig sind, aber die Realität ist, dass diese Systeme keine Ahnung haben, wovon sie sprechen.

Das vierte, was hier zu verstehen ist, ist Folgendes: KI ist keine Magie. Es ist wirklich nur eine bunte Sammlung von technischen Techniken, jede mit unterschiedlichen Vor- und Nachteilen. In der Science-Fiction-Welt von Star Trek, Computer sind allwissende Orakel, die jede Frage zuverlässig beantworten können; das Star Trek Computer ist ein (fiktives) Beispiel für das, was wir Allzweckintelligenz nennen könnten. Gegenwärtige KIs sind eher wie Idiotengelehrte, fantastisch bei manchen Problemen, völlig verloren bei anderen. DeepMinds AlphaGo kann besser spielen, als es ein Mensch jemals könnte, aber es ist völlig unqualifiziert, Politik, Moral oder Physik zu verstehen. Teslas selbstfahrende Software scheint auf offener Straße ziemlich gut zu sein, wäre aber wahrscheinlich auf den Straßen von Mumbai ratlos, wo sie wahrscheinlich auf viele Arten von Fahrzeugen und Verkehrsmustern stoßen würde, auf die sie nicht trainiert wurde. Während sich Menschen auf enorme Mengen an Allgemeinwissen („gesunder Menschenverstand“) verlassen können, wissen die meisten aktuellen Systeme nur, worauf sie trainiert wurden, und es kann nicht darauf vertraut werden, dass sie dieses Wissen auf neue Situationen übertragen (daher der Tesla, der in einen geparkten Jet). KI ist, zumindest im Moment, keine Einheitsgröße, die für jedes Problem geeignet ist, sondern ein bunt gemischtes Bündel von Techniken, bei denen Ihre Laufleistung variieren kann.

Wohin führt uns das alles? Zum einen müssen wir skeptisch sein. Nur weil Sie etwas über eine neue Technologie gelesen haben, heißt das noch lange nicht, dass Sie sie schon jetzt nutzen können. Zum anderen brauchen wir eine strengere Regulierung und wir müssen große Unternehmen zwingen, mehr Verantwortung für die oft unvorhergesehenen Folgen (wie Polarisierung und Verbreitung von Fehlinformationen) zu tragen, die sich aus ihren Technologien ergeben. Drittens ist KI-Kompetenz für informierte Bürger wahrscheinlich genauso wichtig wie mathematische Grundbildung oder ein Verständnis für Statistik.

Viertens müssen wir wachsam sein, vielleicht mit gut finanzierten öffentlichen Denkfabriken, hinsichtlich potenzieller zukünftiger Risiken. (Was passiert zum Beispiel, wenn ein fließendes, aber schwer zu kontrollierendes und ungeerdetes System wie GPT-3 angeschlossen wird, um willkürlichen Code zu schreiben? Könnte dieser Code unsere Stromnetze oder die Flugsicherung beschädigen? Können wir wirklich grundlegend wackelig vertrauen? Software mit der Infrastruktur, die unsere Gesellschaft untermauert?)

Schließlich sollten wir ernsthaft darüber nachdenken, ob wir die Prozesse – und Produkte – der KI-Entdeckung vollständig Megakonzernen überlassen wollen, die möglicherweise unser Bestes im Sinn haben oder nicht: Die beste KI für sie ist möglicherweise nicht die beste KI für uns.

Gary Marcus ist Wissenschaftler, Unternehmer und Autor. Sein neustes Buch, Neustart der KI: Aufbau künstlicher Intelligenz, der wir vertrauen können, geschrieben mit Ernest Davis, erscheint bei Random House USA (12,99 £). Zur Unterstützung der Wächter und Beobachter Bestellen Sie Ihr Exemplar unter guardianbookshop.com. Es können Versandkosten anfallen


source site-27