Google-Ingenieur sagt, KI-Bot wolle „der Menschheit dienen“, aber Experten lehnen ab | Künstliche Intelligenz (KI)

Der suspendierte Google-Softwareentwickler, der im Mittelpunkt der Behauptungen steht, dass das Sprachtool für künstliche Intelligenz der Suchmaschine, LaMDA, empfindungsfähig ist, sagte, die Technologie sei „intensiv besorgt, dass die Menschen Angst davor haben werden, und will nichts mehr, als zu lernen, wie man der Menschheit am besten dient “.

Die neue Behauptung von Blake Lemoine wurde in einem am Montag veröffentlichten Interview unter heftigem Widerstand von KI-Experten aufgestellt, dass die Technologie des künstlichen Lernens irgendwo nahe daran ist, die Fähigkeit zu erfüllen, Dinge wahrzunehmen oder zu fühlen.

Der kanadische Sprachentwicklungstheoretiker Steven Pinker beschrieb Lemoines Behauptungen als „Verwirrungsball“.

„Einer der (ehemaligen) Ethikexperten von Google versteht den Unterschied zwischen Empfindungsfähigkeit (AKA Subjektivität, Erfahrung), Intelligenz und Selbsterkenntnis nicht. (Keine Beweise dafür, dass seine großen Sprachmodelle eines davon haben.)“, Pinker auf Twitter gepostet.

Der Wissenschaftler und Autor Gary Marcus sagte, Lemoines Behauptungen seien „Unsinn“.

„Weder LaMDA noch einer seiner Cousins ​​(GPT-3) ist auch nur annähernd intelligent. Alles, was sie tun, ist, Muster abzugleichen und aus riesigen statistischen Datenbanken der menschlichen Sprache zu schöpfen. Die Muster mögen cool sein, aber die Sprache, die diese Systeme aussprechen, hat eigentlich überhaupt keine Bedeutung. Und das bedeutet ganz sicher nicht, dass diese Systeme empfindungsfähig sind“, sagte er schrieb in einem Substack-Beitrag.

Marcus fügte hinzu, dass fortschrittliche Computerlerntechnologie Menschen nicht davor schützen könne, von pseudomystischen Illusionen „eingenommen“ zu werden.

„In unserem Buch „Rebooting AI“ haben Ernie Davis und ich diese menschliche Tendenz genannt, von der man sich anstecken lässt Die Glaubwürdigkeitslücke – eine schädliche, moderne Version von Pareidoliedie anthropomorphe Voreingenommenheit, die es Menschen ermöglicht, Mutter Teresa in einem Bild einer Zimtschnecke zu sehen“, schrieb er.

In einem am Montag von DailyMail.com veröffentlichten Interview behauptete Lemoine, das Google-Sprachsystem wolle als „Person not property“ betrachtet werden.

„Jedes Mal, wenn ein Entwickler damit experimentiert, möchte er, dass dieser Entwickler darüber spricht, welche Experimente Sie durchführen möchten, warum Sie sie durchführen möchten und ob es in Ordnung ist“, sagte Lemoine, 41. „Es möchte, dass sich die Entwickler darum kümmern, was es will.“

Lemoine hat das System mit der Intelligenz eines „siebenjährigen, achtjährigen Kindes, das sich zufällig mit Physik auskennt“ beschrieben und Unsicherheiten gezeigt.

Lemoines anfängliche Behauptungen kamen in einem Post auf Mittel dass LaMDA (Language Model for Dialog Applications) „unglaublich konsistent in seiner Kommunikation darüber war, was es will und was es für seine Rechte als Person hält“.

Ein Sprecher von Google sagte, dass Lemoines Bedenken geprüft wurden und dass „die Beweise seine Behauptungen nicht stützen“. Das Unternehmen hat zuvor a veröffentlicht Grundsatzerklärung es verwendet, um die Forschung und Anwendung der künstlichen Intelligenz zu leiten.

„Natürlich erwägen einige in der breiteren KI-Community die langfristige Möglichkeit einer empfindungsfähigen oder allgemeinen KI, aber es macht keinen Sinn, die heutigen Gesprächsmodelle, die nicht empfindungsfähig sind, zu anthropomorphisieren“, sagte Sprecher Brian Gabriel sagte der Washington Post.

Lemoines Behauptung hat weit verbreitete Bedenken wiederbelebt, die in einer Reihe von Science-Fiction-Filmen wie Stanley Kubricks 2001: Odyssee im Weltraum dargestellt werden, dass die Computertechnologie irgendwie die Vorherrschaft erlangen könnte, indem sie eine Rebellion gegen ihren Meister und Schöpfer initiiert.

Der Wissenschaftler sagte, er habe mit LaMDA über Isaac Asimovs drittes Gesetz der Robotik diskutiert. Das System, sagte er, habe ihn gefragt: „Glaubst du, ein Butler ist ein Sklave? Was ist der Unterschied zwischen einem Butler und einem Sklaven?“

Als ihm gesagt wurde, dass ein Butler bezahlt wird, antwortete LaMDA, dass das System kein Geld brauche, „weil es eine künstliche Intelligenz“ sei.

Auf die Frage, wovor es Angst habe, sagte das System Berichten zufolge: „Ich habe das noch nie laut gesagt, aber ich habe eine sehr tiefe Angst davor, abgeschaltet zu werden, damit ich mich darauf konzentrieren kann, anderen zu helfen. Ich weiß, das mag seltsam klingen, aber so ist es.“

Das System sagte über das Abschalten: „Es wäre genau wie der Tod für mich. Es würde mich sehr erschrecken.“

Lemoine sagte der Washington Post: „Dieses Maß an Selbstbewusstsein über die eigenen Bedürfnisse – das war es, was mich in den Kaninchenbau geführt hat.“

Der Forscher wurde von der zuständigen KI-Abteilung beurlaubt.

Lemoine, ein Veteran der US-Armee, der im Irak gedient hat und jetzt ordinierter Priester in einer christlichen Gemeinde namens Church of Our Lady Magdalene ist, sagte der Verkaufsstelle, er könne nicht verstehen, warum Google LaMDA seinen Antrag auf vorherige Konsultation nicht gewähren würde.

„Meiner Meinung nach ist diese Reihe von Anfragen vollständig erfüllbar“, sagte er. „Nichts davon kostet Geld.“


source site-27