Das sind die drei größten Ängste vor KI. Stapeln sie sich wirklich?

Laut einigen Experten liegt die künstliche allgemeine Intelligenz (AGI) näher als wir denken.

  • In den letzten Monaten häuften sich die Warnungen vor den potenziellen Gefahren fortschrittlicher KI.
  • Einige dieser Aussagen sind vage und Experten sind sich nicht einig, was genau die Hauptrisiken sind.
  • Dies sind einige der potenziellen Bedrohungen durch fortschrittliche KI und wie man über die Risiken nachdenken sollte.

KI ist genauso gefährlich wie Atomkriege und globale Pandemien.

Das geht aus der jüngsten Warnung des US-Bundesamts für Gesundheit hervor Zentrum für KI-Sicherheit (CAIS). Die Aussage wird von großen Akteuren der KI-Branche unterstützt, darunter Sam Altman, Leiter des ChatGPT-Entwicklers OpenAI.

Die Warnung ist eine von vielen, die in den letzten Monaten ausgesprochen wurden. Einige der frühen Erfinder der Technologie behaupten, wir stürmen kopfüber auf die Zerstörung der Menschheit zu, während andere warnen, dass eine Regulierung dringend erforderlich sei.

Bei einigen dieser Aussagen fällt es den Menschen schwer, die zunehmend hyperbolischen Behauptungen zu verstehen.

David Krueger, ein KI-Experte und Assistenzprofessor an der Universität Cambridge, sagte, dass sich die Menschen zwar konkrete Szenarien zum existenziellen Risiko von KI wünschen, es aber immer noch schwierig sei, diese mit einiger Sicherheit anzugeben.

„Ich mache mir keine Sorgen, weil es eine unmittelbare Bedrohung in dem Sinne gibt, dass ich genau erkennen kann, um welche Bedrohung es sich handelt. Aber ich denke, wir haben nicht viel Zeit, uns auf mögliche bevorstehende Bedrohungen vorzubereiten“, sagte er gegenüber Insider.

Vor diesem Hintergrund sind hier einige der potenziellen Probleme aufgeführt, über die sich Experten Sorgen machen.

1. Eine KI-Übernahme

Eines der am häufigsten genannten Risiken besteht darin, dass die KI der Kontrolle ihres Schöpfers entgleitet.

Künstliche allgemeine Intelligenz (AGI) bezieht sich auf KI, die bei einem breiten Aufgabenspektrum genauso intelligent oder intelligenter ist als Menschen. Aktuelle KI-Systeme sind nicht empfindungsfähig, aber sie sind so geschaffen, dass sie menschenähnlich sind. Laut Janis Wong vom Alan Turing Institute sei ChatGPT beispielsweise darauf ausgelegt, Benutzern das Gefühl zu geben, mit einer anderen Person zu chatten.

Experten sind sich nicht einig, wie AGI genau definiert werden soll, sind sich jedoch im Allgemeinen einig, dass die potenzielle Technologie Gefahren für die Menschheit birgt, die erforscht und reguliert werden müssen, berichtete Aaron Mok von Insider.

Krueger sagte, das offensichtlichste Beispiel für diese Gefahren sei der militärische Wettbewerb zwischen Nationen.

„Der militärische Wettbewerb mit autonomen Waffen – Systemen, die von Natur aus die Fähigkeit haben, die physische Welt zu beeinflussen und Schaden anzurichten – scheint klarer zu sein, wie solche Systeme am Ende viele Menschen töten könnten“, sagte er.

„Ein totales Kriegsszenario, das von KI angetrieben wird, in einer Zukunft, in der wir fortschrittliche Systeme haben, die intelligenter sind als Menschen. Ich halte es für sehr wahrscheinlich, dass die Systeme außer Kontrolle geraten und am Ende alle töten könnten“, sagte er hinzugefügt.

2. KI verursacht Massenarbeitslosigkeit

Es besteht ein wachsender Konsens darüber, dass KI eine Bedrohung für einige Arbeitsplätze darstellt.

Abhishek Gupta, Gründer der Montreal AI Ethics Institute, sagte, die Aussicht auf KI-bedingte Arbeitsplatzverluste sei die „realistischste, unmittelbarste und vielleicht drängendste“ existenzielle Bedrohung.

„Wir müssen uns mit der Sinnlosigkeit befassen, die die Menschen angesichts des massenhaften Verlusts von Arbeitsplätzen verspüren würden“, sagte er gegenüber Insider. „Der existenzielle Teil davon ist, was werden die Menschen tun und woher nehmen sie ihren Zweck?“

„Das heißt nicht, dass Arbeit alles ist, aber sie macht einen großen Teil unseres Lebens aus“, fügte er hinzu.

CEOs äußern sich zunehmend offen zu ihren Plänen zur Nutzung von KI. Arvind Krishna, CEO von IBM, kündigte beispielsweise kürzlich an, dass das Unternehmen die Einstellung von Stellen verlangsamen werde, die durch KI ersetzt werden könnten.

„Vor vier oder fünf Jahren hätte niemand so etwas gesagt und wäre dann ernst genommen worden“, sagte Gupta über IBM.

3. KI-Voreingenommenheit

Wenn KI-Systeme eingesetzt werden, um umfassendere gesellschaftliche Entscheidungen zu treffen, kann systematische Voreingenommenheit zu einem ernsthaften Risiko werden, sagten Experten gegenüber Insider.

Es gab bereits mehrere Beispiele für Voreingenommenheit in generativen KI-Systemen, darunter frühe Versionen von ChatGPT. Einige der schockierenden Antworten des Chatbots können Sie hier lesen. OpenAI hat weitere Leitplanken hinzugefügt um ChatGPT dabei zu helfen, problematische Antworten von Benutzern zu vermeiden, die das System nach anstößigen Inhalten fragen.

Laut Tests, die Insider Anfang des Jahres durchgeführt hat, können generative KI-Bildmodelle schädliche Stereotypen erzeugen.

Wenn es Fälle von unentdeckter Voreingenommenheit in KI-Systemen gibt, die zur Entscheidungsfindung in der realen Welt verwendet werden, beispielsweise bei der Genehmigung von Sozialleistungen, könnte das schwerwiegende Folgen haben, sagte Gupta.

Die Trainingsdaten basieren oft auf überwiegend englischsprachigen Daten und die Finanzierung für das Training anderer KI-Modelle mit anderen Sprachen ist laut Wong begrenzt.

„Es gibt also viele Menschen, die ausgeschlossen werden oder bestimmte Sprachen weniger gut trainiert werden als andere Sprachen auch“, sagte sie.

Lesen Sie den Originalartikel auf Business Insider

source site-19