Das Pentagon sagt, es habe mehr Hürden geschaffen, durch die man bei KI-Waffen springen kann, um die Befürchtungen zu zerstreuen, es würde „Killerroboter im Keller bauen“.

Unbemannte Luftfahrzeuge, die mit spezieller Software und Sensoren ausgestattet sind, fliegen während des Technical Concept Experiments auf dem Marine Corps Base Camp Pendleton, Kalifornien, am 19. Januar 2024.

  • Das Verteidigungsministerium hat eine zehn Jahre alte Richtlinie zur KI aktualisiert und strengere Überprüfungsrichtlinien aufgenommen.
  • Das Update diente teilweise dazu, den Leuten zu versichern, dass das Verteidigungsministerium keine „Killerroboter im Keller baut“, sagte ein hochrangiger Beamter.
  • Die USA und einige ihrer Gegner machen bei KI-Waffen rasche Fortschritte, was zu vielen Kontroversen führt.

Angesichts der anhaltenden Angst und Verwirrung über die Zukunft der künstlichen Intelligenz in Waffen hat das Pentagon kürzlich eine jahrzehntealte Richtlinie aktualisiert, um den Menschen zu versichern, dass es keine „Killerroboter im Keller baut“, so ein hochrangiger Beamter.

Die relativ neue Richtlinie des Verteidigungsministeriums sieht einen strengeren Überprüfungsprozess für die Entwicklung und Genehmigung der meisten autonomen Waffen vor, ein Schritt der „guten Regierungsführung“, sagte der Beamte kürzlich. Aber da KI im militärischen Bereich boomt, nicht nur in den USA, sondern auch in China und anderswo, steigt der internationale Druck, dies zu kontrollieren Der Einsatz und die Möglichkeiten der Technologie nehmen zu.

Letztes Jahr, Das Verteidigungsministerium hat seine Richtlinie aktualisiert über Autonomie in Waffensystemen, das ursprünglich im Jahr 2012 veröffentlicht wurde. Diese Änderung wurde auf „die dramatischen Fortschritte in der Technologie rund um uns herum“ zurückgeführt, sagte die stellvertretende Verteidigungsministerin Dr. Kathleen Kicks und spiegelte die enormen und schnellen Entwicklungen in der KI in der EU wider letztes Jahrzehnt.

Die vielleicht größte Änderung in der DoD-Richtlinie zur KI war die Aufnahme einer hochrangigen Überprüfungsrichtlinie, die erfordert, dass „autonome Waffensysteme, einschließlich Waffensysteme mit autonomen und halbautonomen Betriebsmodi“, von einer Vielzahl hochrangiger Verteidigungsbeamter genehmigt werden müssen bevor die Entwicklung beginnt und noch einmal, bevor eine Technologie eingesetzt wird.

Luftwaffenmeister Sgt.  Dominic Garcia beobachtet Atom, den Roboterhund, während Teamkollegen ihn per Fernsteuerungstraining auf der Barksdale Air Force Base, La., am 6. November 2023 bedienen.
Luftwaffenmeister Sgt. Dominic Garcia beobachtet Atom, den Roboterhund, während Teamkollegen ihn per Fernsteuerungstraining auf der Barksdale Air Force Base, La., am 6. November 2023 bedienen.

Die Überarbeitung der Richtlinie fügt strengere Regeln hinzu, die im Einklang mit einigen der vorsichtigeren Aussagen des Verteidigungsministeriums zur Entwicklung von KI in Waffensystemen stehen. Laut Dr. Michael C. Horowitz, stellvertretender stellvertretender Verteidigungsminister für Streitkräfteentwicklung und neue Fähigkeiten, trägt es auch dazu bei, einige Verwirrungen im Zusammenhang mit den Absichten des Pentagons in Bezug auf KI und militärische Anwendungen zu klären.

Im Panel des Center for Strategic and International Studies (CSIS) des Wadhwani Center for AI and Advanced Technologies Der Stand der DoD-KI- und Autonomiepolitik Anfang des Monats sagte Horowitz, das Ziel der Überarbeitung der Richtlinie sei „ehrlich gesagt vor allem ein guter Regierungsschritt.“

„Wir waren in einer Situation gelandet, in der die Interessengemeinschaft außerhalb des Ministeriums dachte, dass das Verteidigungsministerium möglicherweise Killerroboter im Keller baute“, erklärte Horowitz.

„Und innerhalb der Abteilung“, fuhr er fort, „gab es große Verwirrung darüber, was in der Richtlinie eigentlich stand, wobei einige tatsächlich dachten, die Richtlinie verbiete die Entwicklung autonomer Waffen mit möglicherweise bestimmten Merkmalen oder sogar allgemein.“

Die neue Richtlinie macht also klar, „was erlaubt ist und was nicht“ in Bezug auf die Politik des Verteidigungsministeriums zur Entwicklung von KI-Waffen. Es gibt vielleicht keine Killerroboter im Keller, aber es gibt einen Platz für KI, den das Militär aktiv verfolgt.

Ein unbemanntes Luftfahrzeug liefert am 19. Oktober 2020 im Rahmen einer Veranstaltung, die darauf abzielt, die Taktiken, Techniken und Verfahren der Expeditionslogistik des US Strategic Command zu testen und zu bewerten, eine Nutzlast an das ballistische Raketen-U-Boot USS Henry M. Jackson rund um die Hawaii-Inseln die Bereitschaft strategischer Kräfte.
Ein unbemanntes Luftfahrzeug liefert am 19. Oktober 2020 im Rahmen einer Veranstaltung, die darauf abzielt, die Taktiken, Techniken und Verfahren der Expeditionslogistik des US Strategic Command zu testen und zu bewerten, eine Nutzlast an das ballistische Raketen-U-Boot USS Henry M. Jackson rund um die Hawaii-Inseln die Bereitschaft strategischer Kräfte.

Aus der Richtlinie geht nun klar hervor, dass jedes autonome Waffensystem, das nicht in eine bestimmte, ausgenommene Kategorie passt – wie beispielsweise, wie Horowitz sagte, eine Technologie, die „eine US-Basis vor vielen gleichzeitigen Raketenangriffen schützt“ – einer Prüfung unterzogen werden muss Zusätzlich zu allen anderen Test- und Bewertungsanforderungen wird ein Senior-Review-Prozess durchgeführt.

Gemäß der Richtlinie sind an dem Prozess mehrere Unterstaatssekretäre des Verteidigungsministeriums sowie der stellvertretende Vorsitzende der Vereinigten Stabschefs beteiligt.

„Es ist ein riesiger bürokratischer Aufwand“, sagte Horowitz.

Der Schritt spiegelt das wachsende Interesse und die Fortschritte der USA bei der Entwicklung von KI-Waffensystemen wider. Aus dem anhaltenden Krieg in der Ukraine wurde viel gelernt, wo Drohnen zum dominierenden Faktor auf dem Schlachtfeld geworden sind und Autonomie das Hauptanliegen ist.

Geschichten über Drohnen aus der Ego-Perspektive, die Soldaten jagen oder Nutzlasten in ahnungslosen Panzern abwerfen, haben die wachsende Bedeutung qualifizierter Drohnenführer verdeutlicht. Diese Geschichten gingen oft mit Bedenken hinsichtlich der elektronischen Kriegsführung einher, Fähigkeiten, die Drohnen leicht stören oder blockieren können.

Diese Fälle haben Fragen zur Rolle der Autonomie bei Drohnen aufgeworfen, insbesondere wenn die Verbindung zwischen einem Bediener und seiner Drohne so leicht unterbrochen werden kann. Es bestehen auch Bedenken hinsichtlich der Einbindung eines menschlichen Bedieners in den Prozess. Und diese Diskussion geht weit über Drohnen hinaus, insbesondere wenn Militärs wie die USA und andere bereits über Dinge wie unbemannte Kampfflugzeuge, Kriegsschiffe und mehr nachdenken.

Flieger beobachten am 10. November 2020 einen Test eines unbemannten Bodenfahrzeugs auf der Tyndall Air Force Base, Florida.
Flieger beobachten einen Test eines unbemannten Bodenfahrzeugs auf der Tyndall Air Force Base, Florida, am 10. November 2020.

Da die USA und andere Großmächte bei der künstlichen Intelligenz eine Vorreiterrolle spielen, tragen sie möglicherweise auch dazu bei, eine neue Ära der Kriegsführung einzuläuten, die bei anderen Nationen große Sorgen hervorgerufen hat, insbesondere angesichts einiger Bedenken hinsichtlich „Killerrobotern“ und Vorfällen wie Eines davon geschah vor ein paar Jahren, als eine Drohne ohne Anweisung ein menschliches Ziel verfolgte.

In jüngerer Zeit gab es Berichte darüber, dass Israel KI einsetzt, um Hamas-Ziele zu finden, was eine Reihe von Fragen aufwirft.

Im vergangenen Herbst kam es in den Vereinten Nationen zu Debatten darüber, Beschränkungen dafür einzuführen, wie und wann KI auf dem Schlachtfeld Entscheidungen treffen kann. Viele Beamte äußerten Bedenken darüber, ob KI in der Lage sein würde, ohne menschliche Genehmigung zu entscheiden, ein menschliches Ziel zu töten.

Die USA, Russland, Australien und Israel argumentierten alle, dass es zu diesem Zeitpunkt keinen Bedarf für neue internationale Vorschriften gab. Die New York Times berichtete. Andere Nationen hatten jedoch gehofft, die UN als Plattform nutzen zu können, um Beschränkungen vorzuschlagen und die Funktionsweise autonomer Waffen einzuschränken.

„Selbstzufriedenheit scheint keine Option mehr zu sein“, sagte der pakistanische Botschafter Khalil Hashmi laut The Times während eines Treffens im UN-Hauptquartier. „Das Zeitfenster zum Handeln wird immer kleiner, während wir uns auf einen technologischen Durchbruch vorbereiten.“

Abgesehen von den Beschränkungen des Pentagons strebt das Militär nach Autonomie und künstlicher Intelligenz. Im August zum Beispiel Hicks sagte Die Abteilung möchte „in den nächsten 18 bis 24 Monaten zerbrechliche autonome Systeme in einer Größenordnung von mehreren Tausend in mehreren Bereichen einsetzen“, ein atemberaubender Vorstoß, um mit China zusammenzuarbeiten, das ebenfalls KI-Waffen und -Systeme will.

Lesen Sie den Originalartikel auf Business Insider

source site-19