KI-Experten sagen, dass bewaffnete Roboter sich selbst verwalten können

Auf einem Treffen der Vereinten Nationen argumentierten die Vereinigten Staaten gegen das Verbot waffenfähiger Roboter, was darauf hindeutet, dass sie sich selbst verwalten können, indem sie einen Verhaltenskodex befolgen. Als diese Diskussionen vor einigen Jahren begannen, war die Öffentlichkeit mit künstlicher Intelligenz möglicherweise nicht sehr vertraut. Im Jahr 2021 ist die Technologie jedoch mit jedem Smartphone und jedem intelligenten Lautsprecher allgegenwärtig geworden, der mit begrenztem Erfolg versucht, zu verstehen, was der Mensch will.

Die Diskussion über bewaffnete Roboter begann bei den Vereinten Nationen bereits 2014, aber das Thema hat eine sehr lange Geschichte. Die Kurzgeschichte von Isaac Asimov Herumlaufen detailliert die „Drei Gesetze der Robotik“ und das Datum ihrer Entstehung in der Science-Fiction-Geschichte war 2058 n. Chr. Das ist unheimlich nah an der Gegenwart, wenn man bedenkt, dass die Geschichte vor fast achtzig Jahren geschrieben wurde. Die erste lautet: “Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.” Die „Drei Gesetze“ gelten weithin als hervorragender Start in die fortschrittliche Roboterentwicklung auf Basis von KI.

Ähnlich: Elektrische Lieferroboter reduzieren Emissionen, indem sie 280.000 Autofahrten in einer Stadt einsparen

Bei einem kürzlichen UN-Treffen in Genf hat die Wächter Berichten zufolge schlugen die Vereinigten Staaten nach der Forderung nach einem Verbot tödlicher autonomer Waffen einen unverbindlichen Verhaltenskodex als den besten Weg vor, um Fortschritte zu erzielen, und räumten möglicherweise ein, dass ein Konsens in dieser Angelegenheit unwahrscheinlich sei. Entsprechend Reutershat der Kongress ein von der Regierung ernanntes Gremium von KI-Experten unter der Leitung von Eric Schmidt, dem ehemaligen Chief Executive Officer von Google, zum Einsatz von KI in der nationalen Sicherheit konsultiert. Das Gremium empfahl Anti-Proliferation, aber kein Verbot des Einsatzes von KI in der Waffenforschung und -technologie. Denkfabrik in Washington DC Informationstechnologie- und Innovationsstiftung veranstaltete einen Podcast, in dem Verteidigungsexperten vor der Gefahr des Aussitzens warnten, während andere Länder diese Technologien entwickeln.

Während die fehlende Einigkeit über die Erforschung und Nutzung künstlicher Intelligenz zur Automatisierung von bewaffneten Robotern beunruhigend ist, ist die Bedrohung durch vollständig autonome Waffen noch in weiter Ferne. Gegenwärtig ist für Angriffe immer noch die Genehmigung von Menschen erforderlich, aber es ist nie zu früh, die Möglichkeit in Betracht zu ziehen und zu versuchen, eine Einigung zu erzielen, wie die vielen Jahre zeigen, dass dieses Thema auf UN-Treffen ohne eine Resolution zur Sprache kommt.

Das Argument für bewaffnete Roboter ist, dass sie das Leben von Soldaten retten und sogar als Abschreckung für friedenserhaltende Missionen verwendet werden könnten. Das entgegengesetzte Extrem deutet darauf hin, dass „Killerroboter“ wild werden und alle Menschen zerstören werden. Die Wahrheit liegt irgendwo dazwischen. Es gibt sicherlich Anlass zur Sorge. Der Verlust von Menschenleben ist kein Anreiz, einen Krieg zu führen, aber wenn dieses Risiko für eine Seite beseitigt würde, könnte es zu leicht werden, sich auf aggressives Verhalten einzulassen. Während einige KI-Experten Vertrauen in die Zuverlässigkeit und Berechenbarkeit zukünftiger autonomer Waffen haben, sollte ein „unverbindlicher Verhaltenskodex“ für Roboter scheint ein viel zu schwacher Plan für eine so tödliche Technologie zu sein.

Weiter: Sind wir in einem Science-Fiction-Film? Wissenschaftler entwickeln erste selbstreplizierende Roboter

Quelle: Wächter, Reuters, Informationstechnologie- und Innovationsstiftung

source site-11