Factbox: Regierungen wetteifern um die Regulierung von KI-Tools Von Reuters


© Reuters. DATEIFOTO: In dieser Abbildung, die am 23. Juni 2023 aufgenommen wurde, sind AI-Buchstaben (Künstliche Intelligenz) auf der Hauptplatine eines Computers platziert. REUTERS/Dado Ruvic/Illustration//Dateifoto

(Reuters) – Rasante Fortschritte in der künstlichen Intelligenz (KI) wie das von Microsoft unterstützte ChatGPT von OpenAI erschweren die Bemühungen der Regierungen, Gesetze zur Nutzung der Technologie zu vereinbaren.

Hier sind die neuesten Schritte, die nationale und internationale Leitungsgremien zur Regulierung von KI-Tools unternehmen:

AUSTRALIEN

* Planungsvorschriften

Australien wird Suchmaschinen veranlassen, neue Kodizes auszuarbeiten, um die Weitergabe von durch KI erstelltem Material über sexuellen Kindesmissbrauch und die Produktion von Deepfake-Versionen desselben Materials zu verhindern.

GROSSBRITANNIEN

* Planungsvorschriften

Führende KI-Entwickler einigten sich am 2. November auf dem ersten globalen KI-Sicherheitsgipfel in Großbritannien darauf, mit Regierungen zusammenzuarbeiten, um neue Grenzmodelle zu testen, bevor sie veröffentlicht werden, um dabei zu helfen, die Risiken der sich entwickelnden Technologie zu bewältigen.

Mehr als 25 auf dem Gipfel anwesende Länder, darunter die USA und China sowie die EU, unterzeichneten am 1. November eine „Bletchley-Erklärung“, um zusammenzuarbeiten und einen gemeinsamen Ansatz zur Aufsicht festzulegen.

Großbritannien sagte auf dem Gipfel, es werde seine Mittel für die „AI Research Resource“ auf 300 Millionen Pfund (364 Millionen US-Dollar) verdreifachen, bestehend aus zwei Supercomputern, die die Forschung unterstützen werden, um fortschrittliche KI-Modelle sicher zu machen, eine Woche nachdem Premierminister Rishi Sunak Großbritannien erklärt hatte würde das weltweit erste KI-Sicherheitsinstitut gründen.

Die britische Datenaufsichtsbehörde gab im Oktober bekannt, dass sie dies herausgegeben habe Snap Inc (NYSE:)s Snapchat mit einer vorläufigen Durchsetzungsmitteilung wegen eines möglichen Versäumnisses, die Datenschutzrisiken seines generativen KI-Chatbots für Benutzer, insbesondere Kinder, ordnungsgemäß einzuschätzen.

CHINA

* Einführung vorübergehender Regelungen

Wu Zhaohui, Chinas Vizeminister für Wissenschaft und Technologie, sagte auf der Eröffnungssitzung des KI-Sicherheitsgipfels am 1. November in Großbritannien, dass Peking bereit sei, die Zusammenarbeit im Bereich KI-Sicherheit zu verstärken, um beim Aufbau eines internationalen „Governance-Rahmens“ zu helfen.

China veröffentlichte im Oktober vorgeschlagene Sicherheitsanforderungen für Unternehmen, die auf generativer KI basierende Dienste anbieten, einschließlich einer schwarzen Liste von Quellen, die nicht zum Trainieren von KI-Modellen verwendet werden können.

Das Land erließ im August eine Reihe vorübergehender Maßnahmen, die von Dienstanbietern verlangten, Sicherheitsbewertungen vorzulegen und eine Genehmigung einzuholen, bevor sie KI-Produkte für den Massenmarkt auf den Markt bringen.

EUROPÄISCHE UNION

* Planungsvorschriften

EU-Gesetzgeber und Regierungen haben am 8. Dezember eine vorläufige Einigung über wegweisende Regeln für den Einsatz von KI erzielt, darunter den Einsatz von KI durch Regierungen bei der biometrischen Überwachung und die Regulierung von KI-Systemen wie ChatGPT.

Das Abkommen verlangt, dass Basismodelle und Allzweck-KI-Systeme Transparenzpflichten erfüllen, bevor sie auf den Markt gebracht werden. Dazu gehören die Erstellung technischer Dokumentationen, die Einhaltung des EU-Urheberrechts und die Verbreitung detaillierter Zusammenfassungen der für die Schulung verwendeten Inhalte.

FRANKREICH

* Untersuchung möglicher Verstöße

Die französische Datenschutzbehörde erklärte im April, sie untersuche Beschwerden über ChatGPT.

G7

* Suche nach Input zu Vorschriften

Die G7-Staaten einigten sich am 30. Oktober auf einen 11-Punkte-Verhaltenskodex für Unternehmen, die fortschrittliche KI-Systeme entwickeln, der „darauf abzielt, sichere und vertrauenswürdige KI weltweit zu fördern“.

ITALIEN

* Untersuchung möglicher Verstöße

Italiens Datenschutzbehörde plant, KI-Plattformen zu überprüfen und Experten auf diesem Gebiet einzustellen, sagte ein hochrangiger Beamter im Mai. ChatGPT wurde im März in Italien vorübergehend verboten, im April jedoch wieder verfügbar gemacht.

JAPAN

* Planungsvorschriften

Japan rechnet damit, bis Ende 2023 Vorschriften einzuführen, die wahrscheinlich eher der Haltung der USA entsprechen als die in der EU geplanten strengen Vorschriften, sagte ein Beamter, der kurz vor den Beratungen steht, im Juli.

Der Datenschutzbeauftragte des Landes hat OpenAI davor gewarnt, sensible Daten ohne die Erlaubnis der Menschen zu sammeln.

POLEN

* Untersuchung möglicher Verstöße

Das polnische Amt für den Schutz personenbezogener Daten gab im September bekannt, dass es gegen OpenAI wegen einer Beschwerde ermittelt, dass ChatGPT gegen EU-Datenschutzgesetze verstößt.

SPANIEN

* Untersuchung möglicher Verstöße

Die spanische Datenschutzbehörde hat im April eine vorläufige Untersuchung möglicher Datenschutzverletzungen durch ChatGPT eingeleitet.

VEREINTE NATIONEN

* Planungsvorschriften

UN-Generalsekretär António Guterres kündigte am 26. Oktober die Schaffung eines 39-köpfigen Beratungsgremiums an, das sich aus Führungskräften von Technologieunternehmen, Regierungsbeamten und Wissenschaftlern zusammensetzt, um Fragen der internationalen Governance von KI zu behandeln.

VEREINIGTE STAATEN

* Suche nach Input zu Vorschriften

Die USA, Großbritannien und mehr als ein Dutzend andere Länder haben am 27. November ein 20-seitiges, unverbindliches Abkommen vorgestellt, das allgemeine Empfehlungen zu KI enthält, etwa zur Überwachung von Systemen auf Missbrauch, zum Schutz von Daten vor Manipulation und zur Überprüfung von Softwareanbietern.

Die USA werden ein KI-Sicherheitsinstitut gründen, um bekannte und neu auftretende Risiken sogenannter „Frontier“-KI-Modelle zu bewerten, sagte Handelsministerin Gina Raimondo am 1. November während des AI Safety Summit in Großbritannien.

Präsident Joe Biden erließ am 30. Oktober eine Durchführungsverordnung, um Entwickler von KI-Systemen, die Risiken für die nationale Sicherheit, die Wirtschaft, die öffentliche Gesundheit oder die Sicherheit der USA darstellen, zu verpflichten, die Ergebnisse von Sicherheitstests der Regierung mitzuteilen.

Die US-amerikanische Federal Trade Commission leitete im Juli eine Untersuchung gegen OpenAI ein, weil es angeblich gegen Verbraucherschutzgesetze verstoßen habe.

source site-20