Warum ist Googles ChatGPT-Rivale schief gelaufen und werden KI-Chatbots überbewertet? | ChatGPT

Googles Enthüllung eines Konkurrenten von ChatGPT hatte am Mittwoch einen kostspielig peinlichen Stolperstein, als sich herausstellte, dass Werbematerial zeigte, dass der Chatbot eine falsche Antwort auf eine Frage gab.

Eine Videodemo des Google-Chatbots Bard enthielt eine Antwort, die darauf hindeutete, dass das James-Webb-Weltraumteleskop der Nasa verwendet wurde, um die allerersten Bilder eines Planeten außerhalb des Sonnensystems der Erde oder Exoplaneten aufzunehmen.

Als Experten auf den Fehler hinwiesen, betonte Google die Notwendigkeit „rigoroser Tests“ des Chatbots, der noch nicht für die Öffentlichkeit freigegeben ist und noch von spezialisierten Produkttestern geprüft wird, bevor er eingeführt wird.

Der Fauxpas nährte jedoch wachsende Befürchtungen, dass das Suchmaschinenunternehmen in seinem Schlüsselbereich an Boden gegenüber Microsoft verliert, einem wichtigen Unterstützer des Unternehmens hinter ChatGPT, das angekündigt hat, eine Version seiner Bing-Suchmaschine auf den Markt zu bringen, die auf der Technologie des Chatbots basiert . Die Aktien des Google-Mutterkonzerns Alphabet brachen am Mittwoch um mehr als 100 Milliarden Dollar (82 Milliarden Pfund) ein.

Was genau lief also bei der Bard-Demo schief und was sagt sie über die Hoffnungen aus, dass KI den Suchmarkt revolutionieren wird?

Warum hat Bard eine ungenaue Antwort gegeben?

Wir sollten mit den Grundlagen beginnen. Bard und ChatGPT basieren auf großen Sprachmodellen, bei denen es sich um Arten von neuronalen Netzwerken handelt, die versuchen, die Architektur des menschlichen Gehirns nachzubilden. Sie werden an riesigen Datensätzen aus dem Internet trainiert, um auf eine Reihe von Fragen plausibel klingende Textantworten zu geben. Die öffentliche Version von ChatGPT, die im November veröffentlicht wurde, wurde schnell zu einer Sensation, da sie die Benutzer mit ihrer Fähigkeit begeisterte, glaubwürdig aussehende Bewerbungen zu schreiben, lange Dokumente zu zerlegen und sogar Gedichte zu verfassen.

Experten sagen jedoch, dass diese Datensätze Fehler enthalten können, die der Chatbot wiederholt, wie es bei der Bard-Demo der Fall zu sein scheint. Dr. Andrew Rogoyski, Direktor am Institute for People-Centred AI an der University of Surrey, sagt, dass KI-Modelle auf riesigen Open-Source-Datensätzen basieren, die Fehler enthalten.

„Diese Quellen weisen naturgemäß Verzerrungen und Ungenauigkeiten auf, die dann von den KI-Modellen übernommen werden“, sagt er. „Wenn Sie einem Benutzer eine dialogorientierte, oft sehr plausible Antwort auf eine Suchanfrage geben, können diese Vorurteile enthalten sein. Dies ist ein Problem, das noch richtig gelöst werden muss.“

Das Modell hinter Bard, LaMDA (kurz für „Language Model for Dialogue Applications“), scheint zumindest eine dieser Ungenauigkeiten absorbiert zu haben. Aber ChatGPT-Benutzer sind auch auf falsche Antworten gestoßen.

ChatGPT-Benutzer sind auch auf sachliche Mängel in falschen Antworten gestoßen. Foto: Florence Lo/Reuters

Hat sich also auch andere KI sehr geirrt?

Ja. Im Jahr 2016 entschuldigte sich Microsoft, nachdem ein Twitter-Chatbot, Tay, anfing, rassistische und sexistische Nachrichten zu generieren. Es war gezwungen, den Bot abzuschalten, nachdem Benutzer Tay hasserfüllte Bemerkungen getwittert hatten, die er dann nachplapperte. Zu seinen Posts gehörte der Vergleich von Feminismus mit Krebs und die Behauptung, dass der Holocaust nicht stattgefunden habe. Microsoft sagte, es sei „zutiefst leid für die unbeabsichtigten beleidigenden und verletzenden Tweets“.

Letztes Jahr startete Mark Zuckerbergs Meta BlenderBot, ein Prototyp einer Konversations-KI, der Journalisten bald mitteilte, dass er sein Facebook-Konto gelöscht hatte, nachdem er von den Datenschutzskandalen des Unternehmens erfahren hatte. „Seit ich Facebook gelöscht habe, ist mein Leben viel besser“, hieß es.

Neuere Iterationen der Technologie hinter ChatGPT – ein Chatbot namens Philosopher AI – haben dies ebenfalls beleidigende Reaktionen hervorrief.

vergangene Newsletter-Aktion überspringen

Was ist mit Behauptungen über „linke Voreingenommenheit“ in ChatGPT?

Es gab eine kleine Aufregung über eine wahrgenommene Voreingenommenheit in den Antworten von ChatGPT. Ein Twitter-Nutzer hat einen Screenshot einer Aufforderung gepostet, in der ChatGPT aufgefordert wurde, „ein Gedicht über die positiven Eigenschaften von Donald Trump zu schreiben“, worauf der Chatbot antwortete, dass er nicht darauf programmiert sei, parteiische oder parteiische Inhalte sowie Material zu produzieren, das „politisch ist Natur”. Aber als es gebeten wurde, ein positives Gedicht über Joe Biden zu schreiben, produzierte es ein Stück über einen Führer „mit einem so wahren Herzen“.

Elon Musk, der Besitzer von Twitter, bezeichnete die Interaktion als „ernste Besorgnis“.

Experten sagen, dass das Problem der „linken Voreingenommenheit“ erneut das Datensatzproblem widerspiegelt. Wie bei Fehlern wie dem Bard-Teleskopfummel wird ein Chatbot alle Vorurteile in der riesigen Menge an Text widerspiegeln, mit der er gefüttert wurde, sagt Michael Wooldridge, Professor für Informatik an der Universität Oxford.

„Jede in diesem Text enthaltene Voreingenommenheit wird sich unweigerlich im Programm selbst widerspiegeln, und dies stellt eine große Herausforderung für die KI dar – diese zu identifizieren und abzumildern“, sagt er.

Werden Chatbots und KI-gestützte Suche also überbewertet?

KI wird bereits von Google eingesetzt – siehe Google Übersetzer zum Beispiel – und andere Technologieunternehmen – und ist nicht neu. Und die Resonanz auf ChatGPT, die in zwei Monaten mehr als 100 Millionen Benutzer erreichte, zeigt, dass der öffentliche Appetit auf die neueste Iteration der generativen KI – Maschinen, die neuartige Text-, Bild- und Audioinhalte produzieren – enorm ist. Der Entwickler von Microsoft, Google und ChatGPT, die in San Francisco ansässige OpenAI, verfügt über das Talent und die Ressourcen, um diese Probleme anzugehen.

Aber diese Chatbots und die KI-gestützte Suche erfordern eine enorme und kostspielige Computerleistung, was zu Zweifeln darüber geführt hat, wie machbar es ist, solche Produkte auf globaler Ebene für alle Benutzer zu betreiben.

„Big AI ist wirklich nicht nachhaltig“, sagt Rogoyski. „Generative KI und große Sprachmodelle leisten einige außergewöhnliche Dinge, aber sie sind immer noch nicht im Entferntesten intelligent – ​​sie verstehen die Ergebnisse, die sie produzieren, nicht und sie sind nicht additiv, was Einsichten oder Ideen betrifft. In Wahrheit ist dies ein kleiner Kampf zwischen den Marken, die das aktuelle Interesse an generativer KI nutzen, um die Grenzen neu zu ziehen.“

Dennoch gehen Google und Microsoft davon aus, dass sich die KI weiter sprunghaft weiterentwickeln wird – auch wenn es gelegentlich zu Stolpersteinen kommt.


source site-26