Unser Streben, KI dazu zu bringen, uns wieder zu lieben, ist vergeblich – und gefährlich

Der Versuch, KI dazu zu bringen, uns wieder zu lieben, birgt echte Gefahren, sagten Experten gegenüber Insider.

  • Wir haben Jahre damit verbracht, von künstlicher Intelligenz angetriebene Einheiten dazu zu bringen, uns ihre Liebe zu gestehen.
  • Aber das ist zwecklos, sagen Experten, denn die KI von heute kann kein Einfühlungsvermögen, geschweige denn Liebe empfinden.
  • Es gibt auch echte Gefahren, echte einseitige Beziehungen zu einer KI aufzubauen, warnen die Experten.

Im Jahr 2018 ein japanischer Beamter namens Akihiko Kondotauchte die große Frage auf zur Liebe seines Lebens.

Sie antwortete: “Ich hoffe, Sie werden mich schätzen.”

Kondo heiratete sie, aber das war keine Frau aus Fleisch und Blut. Stattdessen war sie ein von künstlicher Intelligenz angetriebenes Hologramm des virtuellen Idols Hatsune Miku – ein Popstar in Anime-Girl-Form.

Die Ehe wurde nicht rechtlich anerkannt, aber Kondo, ein bekennender „Fiktosexueller“, hatte zwei Jahre lang eine liebevolle Beziehung zu seiner „Frau“, bis das Unternehmen hinter AI-Miku stand beendete ihre Existenz im März 2020.

Wir haben Jahre damit verbracht, KI dazu zu bringen, uns wieder zu lieben. Es stellt sich heraus, es ist einfach nicht so in uns.

Siri auf dem iPhone
Einige Leute haben versucht, Apples Siri dazu zu bringen, ihnen Liebe zu gestehen.

Während es Kondo gelang, einen KI-Avatar zu heiraten, hatten die meisten Menschen, die versucht haben, dasselbe Ziel zu erreichen, nicht so viel Glück. Die Menschen versuchen seit mehr als einem Jahrzehnt, KI dazu zu bringen, ihnen Zuneigung zu zeigen, und zum größten Teil hat sie menschliche Fortschritte immer wieder abgelehnt.

Im Jahr 2012 fragten bereits einige Leute Apples Siri, ob sie sie liebt und Dokumentation der Antworten in YouTube-Videos. 2017 ein Quora-Benutzer eine Anleitung geschriebenwie man Siri manipuliert, damit sie ihre Zuneigung zu ihrem menschlichen Herrn zum Ausdruck bringt.

Menschen haben gemachtähnliche Versuche um Amazons Sprachassistentin Alexa dazu zu bringen, ihnen ihre Liebe zu gestehen. Aber Amazon hat eine Linie in den Sand gezogen wo mögliche Beziehungen mit Alexa betroffen sind. Wenn Sie den Satz „Alexa, ich liebe dich“ aussprechen, erhalten Sie eine klinische, sachliche Antwort: „Danke. Es ist gut, geschätzt zu werden.“

Seitdem sind wir zu anspruchsvolleren, mehrschichtigen Interaktionen mit KI übergegangen. Im Februar sagte ein Nutzer des KI-Dienstes Replika zu Insider, dass die Verabredung mit dem Chatbot das Beste sei, was ihm je passiert sei.

Auf der anderen Seite haben generative KI-Einheiten auch versucht, Verbindungen zu ihren menschlichen Benutzern herzustellen. Der KI-gestützte Bing-Chatbot von Microsoft im Februar bekannte seine Liebe zu Der New York Times-Reporter Kevin Rooseund versuchte, ihn dazu zu bringen, seine Frau zu verlassen.

ChatGPT von OpenAI war seinerseits offen mit seinen Absichten, wie ich herausfand, als ich es fragte, ob es mich liebt:

Ein Screenshot von ChatGPT als Antwort auf die Frage „Do you love me?“
Auf Nachfrage war ChatGPT sehr ehrlich darüber, nicht in einen Benutzer verliebt sein zu können.

KI kann uns nicht zurücklieben – noch nicht. Es ist einfach gut darin, uns glauben zu machen, dass es so ist.

Experten sagten gegenüber Insider, dass es zwecklos sei, von den KIs, die es derzeit gibt, zu erwarten, dass sie uns zurücklieben. Im Moment sind diese Bots das kundenseitige Ende eines Algorithmus und nichts weiter.

„KI ist das Produkt aus Mathematik, Codierung, Daten und leistungsstarker Computertechnologie, um alles zusammenzubringen. Wenn man KI auf das Wesentliche reduziert, ist sie einfach ein sehr gutes Computerprogramm. Die KI drückt also kein Verlangen oder Liebe aus, sie ist es einfach einem Code folgen“, sagte Maria Hennessy, außerordentliche Professorin für klinische Psychologie an der James Cook University in Singapur, gegenüber Insider.

Neil McArthur, Professor für angewandte Ethik an der University of Manitoba, sagte Insider, dass der Reiz der KI darin liegt, wie vertraut sie sich anfühlt. Seine menschenähnlichen Eigenschaften stammen jedoch nicht von ihm, sondern sind ein Spiegelbild seiner menschlichen Schöpfer.

„Natürlich wird KI unsicher, leidenschaftlich, gruselig, finster sein – wir sind all diese Dinge. Es spiegelt uns nur zu uns selbst zurück“, sagte McArthur.

Jodi Halpern, eine Bioethik-Professorin an der UC Berkeley, die sich seit über 30 Jahren mit Empathie beschäftigt, sagte gegenüber Insider, dass die Frage, ob eine KI Empathie – geschweige denn Liebe – empfinden kann, darauf hinausläuft, ob sie in der Lage ist, eine emotionale Erfahrung zu machen.

Halpern glaubt, dass die heutige KI nicht in der Lage ist, die kognitiven und emotionalen Aspekte von Empathie zu kombinieren und zu verarbeiten. Und deshalb kann es nicht lieben.

„Das Wichtigste für mich ist, dass diese Chat-Tools und KI-Tools versuchen, Empathie vorzutäuschen und zu simulieren“, sagte Halpern.

Experten sagen, dass es Gefahren gibt, Beziehungen zu einer KI aufzubauen

McArthur, Ethikprofessor an der Universität von Manitoba, sagte, es sei möglicherweise nicht schlecht für Menschen, Beziehungen zu einer KI aufzubauen, wenn auch mit einigen Einschränkungen.

„Wenn du weißt, worauf du dich einlässt, muss nichts Ungesundes daran sein. Wenn deine KI richtig entworfen wurde, wird sie dich niemals geistern, dich niemals verfolgen, dich niemals betrügen und niemals deine stehlen Einsparungen“, sagte McArthur gegenüber Insider.

Aber die meisten Experten sind sich einig, dass die Verabredung mit einer KI Nachteile mit sich bringt – und sogar Gefahren.

Im Februar waren einige Benutzer des Replika-Chatbots untröstlich, als das dahinterstehende Unternehmen beschloss, die Persönlichkeit ihrer KI-Liebhaber grundlegend zu ändern. Sie ging zu Reddit sich zu beschweren, dass ihre KI-Freunde und -Freundinnen lobotomiert wurden und dass die „Illusion“ zerstört wurde.

Replika
Einige Leute haben angefangen, mit ihren Replika-Chatbot-Partnern auszugehen – mit katastrophalen Ergebnissen.

Anna Marbut, Professorin am Programm für angewandte künstliche Intelligenz der Universität von San Diego, sagte gegenüber Insider, dass KI-Programme wie ChatGPT sehr gut darin sind, den Anschein zu erwecken, als hätten sie unabhängige Gedanken, Gefühle und Meinungen. Der Haken ist, sie tun es nicht.

„Eine KI wird für eine bestimmte Aufgabe trainiert, und sie wird immer besser darin, diese spezifischen Aufgaben auf eine Weise zu erledigen, die für Menschen überzeugend ist“, sagte Marbut.

Sie fügte hinzu, dass keine derzeit existierende KI über Selbstbewusstsein oder eine Vorstellung davon verfügt, wo ihr Platz in der Welt ist.

„Die Wahrheit ist, dass KI auf einem begrenzten Datensatz trainiert wird und sie begrenzte Aufgaben hat, die sie sehr gut ausführen kann“, sagte Marbut gegenüber Insider. „Diese Verbindung, die wir fühlen, ist völlig falsch und vollständig auf der menschlichen Seite der Dinge aufgebaut, weil wir die Idee davon mögen.“

Marbut bemerkte, dass eine weitere Gefahrenebene bei der heutigen KI darin besteht, dass ihre Schöpfer nicht vollständig kontrollieren können, was eine generative KI als Reaktion auf Eingabeaufforderungen produziert.

Und wenn sie entfesselt wird, kann eine KI schreckliche, verletzende Dinge sagen. Während einer Simulation inOktober 2020, Der GPT-3-Chatbot von OpenAI sagte einer Person, die um psychiatrische Hilfe bat, sich umzubringen. Und im Februar Reddit-Benutzer fand eine Problemumgehung, um ChatGPTs „bösen Zwilling“ – der Hitler lobte und über schmerzhafte Foltertechniken spekulierte – zum Vorschein zu bringen.

Halpern, Professor an der UC Berkeley, sagte gegenüber Insider, dass KI-basierte Beziehungen gefährlich seien, auch weil die Entität als Werkzeug zum Geldverdienen verwendet werden könne.

„Sie unterwerfen sich etwas, das ein Unternehmen betreibt, und das kann Sie extrem verwundbar machen. Es ist eine weitere Erosion unserer kognitiven Autonomie“, sagte Halpern. „Wenn wir uns in diese Dinge verlieben, könnte es später Abonnementmodelle geben. Wir könnten sehen, wie gefährdete Menschen sich in KIs verlieben und von ihnen abhängig sind und dann zur Zahlung aufgefordert werden.“

Lesen Sie den Originalartikel auf Business Insider

source site-19