Der ehemalige Google-CEO Eric Schmidt gab gerade eine beunruhigende Antwort zum Umgang mit KI mit freiem Willen

Der ehemalige Google-CEO investiert in eine Reihe von KI- und Wissenschafts-Startups.

  • Eric Schmidt äußerte auf der VivaTech in Paris einige beunruhigende Vorhersagen über die Gefahren der KI.
  • Der ehemalige Google-CEO sagte, wenn Computer einen freien Willen entwickeln, „werden wir sie vom Strom trennen.“
  • Er sagte auch, dass die Gefahren biologischer Angriffe und Cyberangriffe in drei bis fünf Jahren präsent sein werden.

Eric Schmidt machte auf der jährlichen VivaTech-Konferenz am Mittwoch in Paris einige beunruhigende Vorhersagen zur KI.

Seit er Google verlassen hat, hat der ehemalige CEO in eine Reihe von KI-Startups investiert und warnte davor, dass jede KI-Regulierung ein Gleichgewicht finden sollte, um sicherzustellen, dass sie Innovationen nicht erstickt.

Schmidt räumte zwar ein, dass die Entwicklung der KI Gefahren birgt, sagte aber, dass die größten Bedrohungen noch nicht eingetreten seien. Falls und wenn diese Bedrohungen tatsächlich eintreten, scheint Schmidt zu glauben, dass die Welt damit klarkommen wird.

„Übrigens, wissen Sie, was wir tun werden, wenn Computer einen freien Willen haben?“, sagte Schmidt am Mittwoch auf der Konferenz. „Wir werden sie vom Strom trennen.“

„Mal sehen, wer wem den Stecker zieht“, antwortete Yoav Shoham, Mitbegründer und Co-CEO von AI21 Labs, der bei der Veranstaltung auch mit Schmidt sprach.

Ja, der Gedanke, KI-Systeme, sobald sie ihren freien Willen entwickelt haben, in Windeseile abzuschalten – und das rechtzeitig zu erkennen, wenn es passiert – ist nicht gerade das beruhigendste Gedankenexperiment. Aber Schmidt sagte, Forscher hätten die Gefahren der KI detailliert untersucht und „die Antwort lautet: Man kann die Gefahr kommen sehen.“

Es ist erwähnenswert, dass der ehemalige Google-CEO in Bemühungen zur Bekämpfung von KI-Risiken investiert hat. Schmidt hat sich mit OpenAI zusammengetan, um ein 10-Millionen-Dollar-Zuschussprogramm zur Unterstützung der technischen Forschung mit dem Superalignment-Team des Unternehmens zu starten, das sich dem Management der mit KI verbundenen Risiken widmet. Trotz der Auflösung des Teams letzte Woche wird OpenAI das Förderprogramm weiter vorantreiben, sagte ein Sprecher gegenüber Business Insider.

Im Moment sei dies bei der aktuellen Form der KI nicht der Fall, sagte Schmidt Das gefährlich – außer Desinformation, die „außer Kontrolle“ sei und ein „echtes Problem für Demokratien“ darstelle.

Desinformation ist seit dem Aufkommen der KI in den letzten Jahren zu einem Problem geworden. Jüngste Untersuchungen mit Meta- und OpenAI-Systemen haben gezeigt, dass eine Reihe von KI-Systemen gelernt haben, systematisch „falsche Überzeugungen bei anderen zu erzeugen, um ein anderes Ergebnis als die Wahrheit zu erzielen“.

Deepfakes sind ebenfalls zu einem Problem geworden, mit KI-generierten Pornos von Persönlichkeiten des öffentlichen Lebens und Nachahmungen politischer Führer. Menschen haben von KI-generierten Anrufen berichtet, bei denen Nachrichten von Präsident Joe Biden gefälscht wurden. Im Jahr 2022 bekannten sich Betrüger schuldig, weil sie gezielte Robocalls eingesetzt hatten, um Wähler von der Verwendung von Briefwahlzetteln abzubringen.

Schmidt sagte, dass die wirklichen Gefahren großer Sprachmodelle Cyber- und biologische Angriffe seien, die es noch nicht gebe. Aber „sie kommen in drei bis fünf Jahren“, prognostizierte er.

Schmidt reagierte nicht sofort auf die Bitte von BI um einen Kommentar vor der Veröffentlichung.

Lesen Sie den Originalartikel auf Business Insider

source site-18