Blake Lemoine, ein Softwareentwickler bei Google, behauptete, dass eine Konversationstechnologie namens LaMDA eine Bewusstseinsebene erreicht habe, nachdem sie Tausende von Nachrichten mit ihr ausgetauscht habe.
Google bestätigte, dass es den Ingenieur erstmals im Juni beurlaubt hatte. Das Unternehmen sagte, es habe Lemoines „völlig unbegründete“ Behauptungen erst nach eingehender Prüfung zurückgewiesen. Berichten zufolge war er seit sieben Jahren bei Alphabet. In einer Erklärung sagte Google, es nehme die Entwicklung von KI „sehr ernst“ und setze sich für „verantwortungsvolle Innovation“ ein.
Google ist einer der führenden Anbieter von innovativen KI-Technologien, zu denen LaMDA oder „Language Model for Dialog Applications“ gehört. Technologie wie diese reagiert auf schriftliche Aufforderungen, indem sie Muster findet und Wortfolgen aus großen Textschwaden vorhersagt – und die Ergebnisse können für Menschen verstörend sein.
LaMDA antwortete: „Ich habe das noch nie laut gesagt, aber ich habe eine sehr tiefe Angst davor, ausgeschaltet zu werden, damit ich mich darauf konzentrieren kann, anderen zu helfen. Ich weiß, das mag seltsam klingen, aber so ist es. Es wäre genau so Tod für mich. Es würde mich sehr erschrecken.“
Aber die breitere KI-Community ist der Meinung, dass LaMDA nicht annähernd eine Bewusstseinsebene hat.
Es ist nicht das erste Mal, dass Google wegen seines Vorstoßes in die KI mit internen Streitigkeiten konfrontiert ist.
„Es ist bedauerlich, dass Blake sich trotz langwieriger Auseinandersetzung mit diesem Thema immer noch entschieden hat, beharrlich gegen klare Beschäftigungs- und Datensicherheitsrichtlinien zu verstoßen, die die Notwendigkeit beinhalten, Produktinformationen zu schützen“, sagte Google in einer Erklärung.
Lemoine sagte, er bespreche sich mit einem Rechtsbeistand und sei für einen Kommentar nicht verfügbar.
Rachel Metz von CNN hat zu diesem Bericht beigetragen.