Großbritannien und die USA greifen inmitten der schnellen Fortschritte der KI-Industrie ein | Künstliche Intelligenz (KI)

Das Vereinigte Königreich und die USA haben sich in den Wettlauf um die Entwicklung immer leistungsfähigerer Technologien für künstliche Intelligenz eingemischt, als die britische Wettbewerbsaufsicht eine Überprüfung des Sektors einleitete und das Weiße Haus Technologieunternehmen auf ihre grundlegende Verantwortung zur Entwicklung sicherer Produkte hinwies.

Die Regulierungsbehörden stehen unter wachsendem Interventionsdruck, da das Aufkommen von KI-gestützten Sprachgeneratoren wie ChatGPT Bedenken hinsichtlich der möglichen Verbreitung von Fehlinformationen, einer Zunahme von Betrug und den Auswirkungen auf den Arbeitsmarkt aufwirft, wobei Elon Musk zu fast 30.000 Unterzeichnern gehört Brief, der letzten Monat veröffentlicht wurde und auf eine Pause bei wichtigen Projekten drängte.

Die britische Wettbewerbs- und Marktbehörde (CMA) sagte am Donnerstag, sie werde die zugrunde liegenden Systeme – oder Basismodelle – hinter KI-Tools untersuchen. Die Ergebnisse der ersten Überprüfung, die von einem Rechtsexperten als „Vorwarnung“ für den Sektor bezeichnet wurde, werden im September veröffentlicht.

Am selben Tag kündigte die US-Regierung Maßnahmen an, um die Risiken in der KI-Entwicklung anzugehen, als Kamala Harris, die Vizepräsidentin, Vorstandsvorsitzende traf, die an der Spitze der schnellen Fortschritte der Branche stehen. In einer Erklärung sagte das Weiße Haus, dass Firmen, die die Technologie entwickeln, eine „grundlegende Verantwortung dafür tragen, sicherzustellen, dass ihre Produkte sicher sind, bevor sie eingesetzt oder veröffentlicht werden“.

Das Treffen krönte eine Woche, in der eine Reihe von Wissenschaftlern und Wirtschaftsführern vor der Geschwindigkeit warnten, mit der die Technologie etablierte Industrien stören könnte. Am Montag verließ Geoffrey Hinton, der „Pate der KI“, Google, um freier über die Gefahren der Technologie zu sprechen, während der scheidende wissenschaftliche Berater der britischen Regierung, Sir Patrick Vallance, die Minister aufforderte, „voranzukommen“. wirtschaftliche Veränderungen, die durch KI ausgelöst werden könnten, und sagen, dass die Auswirkungen auf die Arbeitsplätze so groß sein könnten wie die der industriellen Revolution.

Sarah Cardell sagte, KI habe das Potenzial, die Art und Weise, wie Unternehmen miteinander konkurrieren, zu „verändern“, aber die Verbraucher müssten geschützt werden.

Der CMA-Geschäftsführer sagte: „KI ist in den letzten Monaten in das öffentliche Bewusstsein eingedrungen, ist aber seit einiger Zeit auf unserem Radar. Es ist entscheidend, dass die potenziellen Vorteile dieser transformativen Technologie für britische Unternehmen und Verbraucher leicht zugänglich sind, während die Menschen vor Problemen wie falschen oder irreführenden Informationen geschützt bleiben.“

ChatGPT und der konkurrierende Bard-Dienst von Google neigen dazu, falsche Informationen als Reaktion auf die Eingabeaufforderungen der Benutzer zu liefern, während Bedenken über KI-generierten Sprachbetrug geäußert wurden. Die Anti-Fehlinformations-Agentur NewsGuard sagte diese Woche, dass Chatbots, die sich als Journalisten ausgaben, fast 50 KI-generierte „Content-Farmen“ betrieben. Letzten Monat wurde ein Song mit gefälschten KI-generierten Vocals, der vorgab, Drake and the Weeknd zu sein, von Streaming-Diensten gezogen.

Der CMA-Review wird untersuchen, wie sich die Märkte für Stiftungsmodelle entwickeln könnten, welche Chancen und Risiken es für Verbraucher und Wettbewerb gibt, und „Leitprinzipien“ zur Unterstützung des Wettbewerbs und zum Schutz der Verbraucher formulieren.

Die führenden Akteure im Bereich KI sind Microsoft, der ChatGPT-Entwickler OpenAI – bei dem Microsoft ein Investor ist – und die Google-Muttergesellschaft Alphabet, die mit DeepMind aus Großbritannien ein weltweit führendes KI-Unternehmen besitzt, während führende KI-Startups die Briten Anthropic und Stability AI umfassen Firma hinter Stable Diffusion.

Alex Haffner, Wettbewerbspartner bei der britischen Anwaltskanzlei Fladgate, sagte: „Angesichts der derzeitigen Richtung der regulatorischen Reise und der Tatsache, dass die CMA beschließt, Ressourcen für diesen Bereich bereitzustellen, muss ihre Ankündigung als eine Art Vorwarnung angesehen werden über die aggressive Entwicklung von KI-Programmen ohne angemessene Prüfung.“

In den USA traf Harris im Weißen Haus mit den Vorstandsvorsitzenden von OpenAI, Alphabet und Microsoft zusammen und skizzierte Maßnahmen, um den Risiken einer ungebremsten KI-Entwicklung zu begegnen.

Die Regierung sagte, sie werde 140 Millionen Dollar (111 Millionen Pfund) in sieben neue nationale KI-Forschungsinstitute investieren, um Fortschritte im Bereich der künstlichen Intelligenz zu verfolgen, die „ethisch, vertrauenswürdig, verantwortungsbewusst und dem Gemeinwohl dienen“. Die KI-Entwicklung wird vom privaten Sektor dominiert, wobei die Technologiebranche im vergangenen Jahr 32 bedeutende Modelle für maschinelles Lernen produzierte, verglichen mit drei von der Wissenschaft produzierten.

Führende KI-Entwickler haben außerdem zugestimmt, dass ihre Systeme auf der diesjährigen Cybersicherheitskonferenz Defcon 31 öffentlich evaluiert werden. Zu den Unternehmen, die sich zur Teilnahme bereit erklärt haben, gehören OpenAI, Google, Microsoft und Stability AI.

vergangene Newsletter-Aktion überspringen

„Diese unabhängige Übung wird Forschern und der Öffentlichkeit wichtige Informationen über die Auswirkungen dieser Modelle liefern“, sagte das Weiße Haus.

Der EU wurde am Donnerstag auch gesagt, dass sie die KI-Forschung an der Basis schützen muss oder riskiert, die Kontrolle über die Entwicklung der Technologie an US-Firmen zu übergeben.

In einem offenen Brief, der von der deutschen Forschungsgruppe Laion – oder Large-scale AI Open Network – koordiniert wurde, wurde dem Europäischen Parlament mitgeteilt, dass Einheitsregeln die Gefahr bergen, offene Forschung und Entwicklung zu eliminieren.

„Regeln, die von einem Forscher oder Entwickler verlangen, die nachgelagerte Nutzung zu überwachen oder zu kontrollieren, könnten die Veröffentlichung von Open-Source-KI in Europa unmöglich machen“, was „große Unternehmen verankern“ und „Bemühungen zur Verbesserung der Transparenz, zur Verringerung des Wettbewerbs, zur Einschränkung der akademischen Freiheit, und Investitionen in KI im Ausland vorantreiben“, heißt es in dem Brief.

„Europa kann es sich nicht leisten, die KI-Souveränität zu verlieren. Die Eliminierung von Open-Source-Forschung und -Entwicklung wird die europäische Wissenschaftsgemeinschaft und Wirtschaft in eine kritische Abhängigkeit von einer Handvoll ausländischer und proprietärer Firmen für die wesentliche KI-Infrastruktur bringen.“

Die größten KI-Bemühungen von Unternehmen wie OpenAI und Google werden stark von ihren Schöpfern kontrolliert. Es ist beispielsweise unmöglich, das Modell hinter ChatGPT herunterzuladen, und der kostenpflichtige Zugang, den OpenAI Kunden bietet, ist mit einer Reihe von rechtlichen und technischen Einschränkungen hinsichtlich seiner Verwendung verbunden. Im Gegensatz dazu beinhalten Open-Source-Bemühungen, ein Modell zu erstellen und es dann freizugeben, damit es jeder verwenden, verbessern oder anpassen kann, wie er es für richtig hält.

„Wir arbeiten an Open-Source-KI, weil wir glauben, dass diese Art von KI sicherer, zugänglicher und demokratischer sein wird“, sagte Christoph Schuhmann, Organisationsleiter bei Laion.

source site-26