Machen Sie sich keine Sorgen — Die Maschinen werden noch lange nicht so schlau sein wie Menschen, denn sie müssen noch viel lernen

  • KI dominierte dieses Jahr die Agenda des Weltwirtschaftsforums in Davos.
  • Experten beharren darauf, dass KI – zumindest in ihrer aktuellen Form – trotz des Hypes ziemlich begrenzt ist.
  • Um eine KI zu schaffen, die dem Menschen ebenbürtig ist, seien neue Modelle erforderlich, sagten sie diese Woche vor einem Gremium.

KI könnte gewesen sein ist dieses Jahr in Davos in aller Mundeaber einige der anwesenden Experten hatten eine ziemlich ernüchternde Botschaft für alle Anwesenden: KI hat noch einen langen Weg vor sich, um wirklich schlau zu werden.

Es ist leicht zu verstehen Warum Beim Weltwirtschaftsforum in der Schweiz stand KI ganz oben auf der Agenda. Schließlich befindet es sich mitten in einem Hype-Zyklus, der Web3 erröten lassen würde.

Im Jahr seit der letzten Zusammenkunft von Weltführern zur jährlichen Messe haben Big-Tech-Titanen wie Google und Microsoft darum gekämpft, mit ChatGPT von OpenAI mithalten zu können, während Bill Gates die weltverändernden Fähigkeiten der Technologie angepriesen hat.

Aber trotz all des Hypes waren KI-Experten diese Woche felsenfest davon überzeugt, dass KI – zumindest in ihrer aktuellen Form – dies ist ziemlich begrenzt im Umfang. Vor allem, wenn das Endziel des Fachgebiets darin besteht, künstliche allgemeine Intelligenz zu schaffen. Hier ist der Grund.

KI kratzt an der Oberfläche

Während einer Podiumsdiskussion am Dienstag am generative KIExperten wiesen zunächst auf Datenherausforderungen hin, die bewältigt werden müssen, um die heutige KI viel intelligenter zu machen.

Daphne Koller, Informatikerin und MacArthur-„Genie“, sagte dem Gremium, dass „wir gerade erst anfangen, an der Oberfläche der verfügbaren Daten zu kratzen.“

Viele der heute beliebtesten KI-Modelle, wie z. B. GPT-4 von OpenAI, basieren auf dem, was im Internet öffentlich verfügbar ist. Die Art von Daten, die Koller mit KI verarbeiten möchte, geht darüber hinaus.

Coursera-Gründerin Daphne Koller
Daphne Koller.

Zum einen gibt es eine Welt voller Daten, die aus der sogenannten „verkörperten KI“ stammen können. Hierbei handelt es sich um in Agenten wie Robotern eingebettete KI, die mit der physischen Umgebung interagieren können. Heutige Chatbots erhalten nicht wirklich viele dieser Daten.

Derzeit gibt es bestimmte Fälle, in denen KI mit einer solchen Umgebung interagiert, um Daten zu sammeln. Überlegen Sie, wie autonome Autos Daten über den Straßenverkehr erfassen und analysieren die Art und Weise, wie KI eingesetzt wird, um frühe Anzeichen von Netzhauterkrankungen zu erkennen.

Das einzige Problem besteht darin, dass es noch kein sinnvolles Allzweck-KI-Modell gibt, das alle diese Daten zusätzlich zu den Daten aus dem Internet analysieren und verarbeiten kann.

Es fehlen auch Daten, die aus Experimenten stammen.

Wie Koller feststellte, ist die Fähigkeit, „mit dieser Welt zu experimentieren“, Teil dessen, was Menschen so effektiv beim Lernen macht. Im Vergleich dazu mangelt es der KI derzeit an der Fähigkeit, dies zu tun.

Eine Lösung für dieses Datenproblem besteht darin, Maschinen die Möglichkeit zu geben, ihre eigenen synthetischen Daten zu erstellen – anstatt sich nur auf von Menschen erstellte Daten zu verlassen, die ihnen aus dem Internet zugeführt werden.

„Wenn wir wollen, dass diese Maschinen wachsen, müssen wir ihnen die Fähigkeit geben, nicht nur ‚in silico‘ miteinander zu kommunizieren … sondern wirklich mit der Welt zu experimentieren und die Art von Daten zu generieren, die ihnen hilft, weiter zu wachsen und sich weiterzuentwickeln.“ Sie sagte.

Das Architekturproblem

Das andere Problem, auf das Experten hingewiesen haben, dreht sich um die Architektur.

Für Yann LeCun, Chef-KI-Wissenschaftler bei MetaEs ist klar, dass autoregressive Large Language Models (LLMs) – die Modelle, die den heutigen KI-Chatbots zugrunde liegen – „einige neue Architekturen“ benötigen, um die nächste Ebene der Intelligenz zu erreichen.

Derzeit funktionieren KI-Modelle wie LLMs, indem sie beispielsweise einen Textabschnitt nehmen, ihn durch Entfernen von Wörtern verfälschen und die Modelle dann dazu bringen, den vollständigen Text zu rekonstruieren. LeCun merkt an, dass sie dies ziemlich gut mit Text machen können, aber Bilder oder Videos? Vergiss es.

„Ich mache ein Bild, das durch das Entfernen einiger Teile beschädigt wurde, und trainiere dann ein großes neuronales Netz, um das Bild wiederherzustellen. Und das funktioniert nicht, oder es funktioniert nicht sehr gut“, sagte der Meta-Wissenschaftler.

Es ist erwähnenswert, dass es heute KI-Modelle gibt, die bei der Generierung von Bildern recht effektiv sind, es handelt sich dabei jedoch um Text-zu-Bild-Modelle wie Midjourney und Stable Diffusion. OpenAI verfügt außerdem über ein von GPT-4 getrenntes KI-Modell namens DALL-E für die Bilderzeugung.

Für LeCunder Weg nach vorne zu einem KI-Modell, das alles kann, liegt möglicherweise nicht in den Dingen, von denen derzeit alle besessen sind.

„Es gibt noch keine wirkliche Lösung, aber die Dinge, die im Moment am vielversprechendsten sind, zumindest die Dinge, die für die Bilderkennung funktionieren – ich werde alle überraschen – sind nicht generativ, okay“, sagte er.

Koller sieht auch Probleme mit den heutigen LLMs. Ihrer Ansicht nach sind die heutigen Iterationen dieser Modelle beispielsweise nicht besonders gut darin, grundlegende kognitive Logik wie Ursache und Wirkung zu verstehen.

„Sie sind völlig prädiktive Motoren; sie stellen nur Assoziationen her“, sagte sie.

Dies ist nicht das erste Mal, dass Zweifel an der Leistungsfähigkeit heutiger KI-Modelle geäußert werden.

A Vordruckpapier, das im November von einem Trio von Google-Forschern bei ArXiv eingereicht wurde stellte fest, dass die Transformatortechnologie unter LLMs nicht sehr gut darin war, über den vorhandenen Datensatz hinaus zu verallgemeinern. Wenn AGI das große Ziel ist, ist das nicht sehr vielversprechend.

Kai Fu Lee
01.AI-Gründer Kai-Fu Lee.

Das soll nicht heißen, dass die heutigen LLMs nutzlos sind. Taiwanesischer Informatiker und 01.AI-Gründer Kai-Fu Lee, der ebenfalls an der Diskussionsrunde teilnahm, sprach von ihrem „unglaublichen kommerziellen Wert“. Sein Unternehmen erreichte weniger als acht Monate nach der Gründung einen Wert von 1 Milliarde US-Dollar.

„Sie lösen echte Probleme, sie können Inhalte generieren, sie verbessern unsere Produktivität dramatisch, sie werden überall eingesetzt“, sagte er.

Sind sie jedoch kurz davor, Maschinen so intelligent zu machen wie Menschen? Zumindest nicht in ihrer jetzigen Form.

Lesen Sie den Originalartikel auf Business Insider

source site-19