„Wir haben ein bisschen Angst“: OpenAI-CEO warnt vor Risiken künstlicher Intelligenz | Künstliche Intelligenz (KI)

Sam Altman, CEO von OpenAI, dem Unternehmen, das die umstrittene verbraucherorientierte Anwendung für künstliche Intelligenz ChatGPT entwickelt hat, hat davor gewarnt, dass die Technologie echte Gefahren mit sich bringt, da sie die Gesellschaft umgestaltet.

Altman, 37, betonte, dass Regulierungsbehörden und die Gesellschaft in die Technologie einbezogen werden müssen, um sich vor potenziell negativen Folgen für die Menschheit zu schützen. „Wir müssen hier vorsichtig sein“, Altman sagte ABC News am Donnerstag und fügte hinzu: „Ich denke, die Leute sollten froh sein, dass wir ein bisschen Angst davor haben.

„Ich bin besonders besorgt darüber, dass diese Modelle für groß angelegte Desinformation verwendet werden könnten“, sagte Altman. „Jetzt, da sie besser darin werden, Computercode zu schreiben, [they] für offensive Cyberangriffe genutzt werden könnten.“

Aber trotz der Gefahren, sagte er, könnte es auch „die größte Technologie sein, die die Menschheit bisher entwickelt hat“.

Die Warnung kam, als OpenAI die neueste Version seines Sprach-KI-Modells, GPT-4, weniger als vier Monate nach der Veröffentlichung der Originalversion veröffentlichte und zur am schnellsten wachsenden Verbraucheranwendung in der Geschichte wurde.

In dem Interview sagte der Ingenieur für künstliche Intelligenz, dass die neue Version zwar „nicht perfekt“ sei, aber in den USA bei den Anwaltsprüfungen 90 % und beim SAT-Mathematiktest der High School eine nahezu perfekte Punktzahl erzielt habe. Es könnte auch Computercode in den meisten Programmiersprachen schreiben, sagte er.

Befürchtungen über verbraucherorientierte künstliche Intelligenz und künstliche Intelligenz im Allgemeinen konzentrieren sich darauf, dass Menschen durch Maschinen ersetzt werden. Aber Altman wies darauf hin, dass KI nur unter Anleitung oder Eingabe von Menschen funktioniert.

„Es wartet darauf, dass ihm jemand einen Input gibt“, sagte er. „Dies ist ein Werkzeug, das sehr viel menschlicher Kontrolle unterliegt.“ Aber er sagte, er habe Bedenken, welche Menschen die Eingabekontrolle hätten.

„Es wird andere Leute geben, die einige der Sicherheitsgrenzen, die wir auferlegt haben, nicht einhalten“, fügte er hinzu. „Die Gesellschaft hat meiner Meinung nach nur begrenzt Zeit, um herauszufinden, wie sie darauf reagieren, wie sie das regulieren und wie sie damit umgehen soll.“

Viele Benutzer von ChatGPT sind auf eine Maschine gestoßen, deren Reaktionen defensiv bis hin zur Paranoia waren. In Tests, die der Fernsehnachrichtenagentur angeboten wurden, führte GPT-4 einen Test durch, bei dem es Rezepte aus dem Inhalt eines Kühlschranks zauberte.

Der Tesla-CEO Elon Musk, einer der ersten Investoren in OpenAI, als es noch ein Non-Profit-Unternehmen war, hat immer wieder davor gewarnt, dass KI oder AGI – künstliche allgemeine Intelligenz – gefährlicher sei als eine Atomwaffe.

Moschus geäußert Bedenken, dass Microsoft, das ChatGPT auf seiner Bing-Suchmaschine hostet, seine Abteilung für Ethikaufsicht aufgelöst hat. „Es gibt keine regulatorische Aufsicht über KI, was ein *großes* Problem darstellt. Ich fordere seit über einem Jahrzehnt eine KI-Sicherheitsverordnung!“ Musk twitterte im Dezember. Diese Woche, Moschus ärgerte sichauch auf Twitter, das ihm gehört: “Was bleibt uns Menschen zu tun?”

Am Donnerstag räumte Altman ein, dass die neueste Version eher deduktives Denken als Auswendiglernen verwendet, ein Prozess, der zu bizarren Antworten führen kann.

„Das, wovor ich die Leute am meisten zu warnen versuche, ist das, was wir das ‚Halluzinationsproblem‘ nennen“, sagte Altman. „Das Modell wird Dinge souverän aussagen, als wären sie Tatsachen, die vollständig erfunden sind.

„Die richtige Art, über die von uns erstellten Modelle nachzudenken, ist eine Denkmaschine, keine Faktendatenbank“, fügte er hinzu. Während die Technologie als Datenbank mit Fakten fungieren könnte, sagte er, „das ist nicht wirklich das Besondere an ihnen – wir wollen, dass sie etwas tun, das eher der Fähigkeit zur Vernunft entspricht, nicht dem Auswendiglernen.“

Was man rausbekommt, hängt davon ab, was man reinsteckt, warnte der Guardian kürzlich in einer Analyse von ChatGPT. „Wir verdienen etwas Besseres an den Tools, die wir verwenden, den Medien, die wir konsumieren, und den Gemeinschaften, in denen wir leben, und wir werden nur das bekommen, was wir verdienen, wenn wir in der Lage sind, uns voll und ganz daran zu beteiligen.“


source site-27