Der ehemalige Salesforce-Manager sagt, dass große Sprachmodelle lernen müssen, wie man programmiert, wenn sie aufsteigen wollen

Um die KI zu verbessern, könnte es darum gehen, sie zum Programmieren zu „zwingen“, sagte der ehemalige Salesforce-Manager Richard Socher.

  • Der ehemalige Salesforce-Manager Richard Socher sprach in einem Podcast der Harvard Business Review über KI-Modelle.
  • Er sagte, eine Möglichkeit, die KI erheblich zu verbessern, bestehe darin, Reaktionen zu programmieren – und nicht nur vorherzusagen.
  • Es „wird ihnen in den nächsten Jahren viel mehr Antrieb geben, was sie tun können“, sagte er.

Die generative KI-Technologie hat sich in den letzten Jahren so rasant weiterentwickelt, dass einige Experten bereits darüber besorgt sind, ob wir sie erreicht haben „Spitzen-KI.“ 

Aber Richard Socher, ehemaliger Chefwissenschaftler bei Salesforce und CEO der KI-gestützten Suchmaschine You.com, glaubt, dass wir noch einen weiten Weg vor uns haben.

Auf einer Harvard Business Review Podcast Letzte Woche sagte Socher, dass wir große Sprachmodelle verbessern können, indem wir sie zwingen, auf bestimmte Eingabeaufforderungen im Code zu reagieren.

Im Moment sagen große Sprachmodelle einfach „den nächsten Token voraus, basierend auf dem vorherigen Satz von Token“, sagte Socher – Token sind die kleinsten Dateneinheiten, die in KI-Systemen eine Bedeutung haben. Auch wenn LLMs beeindruckende Leseverständnis- und Programmierfähigkeiten aufweisen und schwierige Prüfungen bestehen können, tendieren KI-Modelle immer noch dazu halluzinieren – ein Phänomen, bei dem sie sachliche Fehler überzeugend als Wahrheit ausspucken.

Und das sei besonders problematisch, wenn ihnen komplexe mathematische Fragen gestellt würden, sagte Socher.

Er nannte ein Beispiel, an dem ein großes Sprachmodell herumfummeln könnte: „Wenn ich einem Baby bei der Geburt 5.000 US-Dollar geben würde, um es in einen gebührenfreien Aktienindexfonds zu investieren, und ich gehe von einem bestimmten Prozentsatz der durchschnittlichen Jahresrendite aus, wie viel wird es dann im Alter von zwei Jahren haben?“ zu fünf?”

Ein großes Sprachmodell, sagte er, würde einfach damit beginnen, Text auf der Grundlage ähnlicher Fragen zu generieren, denen es in der Vergangenheit ausgesetzt gewesen sei. „Es heißt eigentlich nicht: ‚Nun, dafür muss ich sehr sorgfältig nachdenken, richtig rechnen und dann die Antwort geben‘“, erklärte er.

Aber wenn man das Modell „zwingen“ könne, diese Frage in Computercode zu übersetzen und eine Antwort basierend auf der Ausgabe dieses Codes zu generieren, sei die Wahrscheinlichkeit höher, eine genaue Antwort zu erhalten, sagte er.

Socher machte keine Angaben zu dem Verfahren, sagte jedoch, dass es bei You.com möglich sei, Fragen in Python zu übersetzen. Im Großen und Ganzen wird ihnen die Programmierung „in den nächsten Jahren viel mehr Antrieb geben, was sie tun können“, fügte er hinzu.

Sochers Kommentare kommen zu einem Zeitpunkt, an dem die wachsende Zahl großer Sprachmodelle darum kämpft, OpenAIs GPT-4 zu überlisten. Gemini, „Googles bisher leistungsfähigstes KI-Modell“ übertrifft GPT-4 bei wichtigen Benchmarks wie MMLU, einer der beliebtesten Methoden zur Messung des Wissens und der Problemlösungsfähigkeiten von KI-Modellen, kaum. Und während der gewählte Ansatz einfach darin bestand, diese Modelle im Hinblick auf die ihnen zur Verfügung stehenden Daten und Rechenleistung zu skalieren, vermutet Socher, dass dieser Ansatz in eine Sackgasse führen könnte.

„Es gibt nur so viel mehr Daten, die für das Modelltraining sehr nützlich sind“, sagte er.

Lesen Sie den Originalartikel auf Business Insider

source site-18