OpenAI lockert die Haltung gegenüber der Nutzung von ChatGPT für militärische Zwecke

OpenAI hat diese Woche stillschweigend Änderungen an seinen Nutzungsrichtlinien eingeführt und ein weitreichendes Verbot der Nutzung seiner Technologie in „Militär- und Kriegsführung“ aufgehoben.

  • OpenAI hat seine Nutzungsrichtlinien am 10. Januar aktualisiert.
  • Im Rahmen des Updates wurden die Beschränkungen für den militärischen Einsatz seiner Technologie gelockert.
  • Die Änderungen gehen mit der Einführung des GPT Store durch OpenAI einher – seinem benutzerdefinierten ChatGPT-Marktplatz.

OpenAI hat Anfang dieser Woche stillschweigend die Beschränkungen für militärische Anwendungen seiner Technologie gelockert.

In einem unangekündigten Update zu seiner Nutzungsrichtlinien Am 10. Januar hob OpenAI ein weitreichendes Verbot der Nutzung seiner Technologie für „Militär und Kriegsführung“ auf. Die neue Formulierung verbietet weiterhin die Nutzung der Dienste von OpenAI für spezifischere Zwecke wie die Entwicklung von Waffen, die Verletzung anderer oder die Zerstörung von Eigentum, sagte ein Sprecher von OpenAI gegenüber Business Insider.

Der Sprecher fügte hinzu, dass das Unternehmen „darauf abzielte, eine Reihe universeller Prinzipien zu schaffen, die sowohl leicht zu merken als auch anzuwenden sind, insbesondere da unsere Tools mittlerweile weltweit von alltäglichen Benutzern verwendet werden, die nun auch GPTs erstellen können.“ Am 10. Januar OpenAI hat seinen GPT Store eingeführtein Marktplatz, auf dem Benutzer angepasste Versionen von ChatGPT, sogenannte „GPTs“, teilen und durchsuchen können.

Die neue Nutzungsrichtlinie von OpenAI umfasst nun Grundsätze wie „Schade anderen nicht“, die „weit gefasst, aber leicht verständlich und in zahlreichen Kontexten relevant“ sind, sowie Verbote für bestimmte Anwendungsfälle wie die Entwicklung oder den Einsatz von Waffen, sagte der Sprecher von OpenAI.

Einige KI-Experten befürchten, dass die Neufassung der OpenAI-Richtlinie zu allgemein ist, insbesondere wenn KI-Technologie bereits im Konflikt in Gaza eingesetzt wird. Der Das israelische Militär gab an, KI einzusetzen um Ziele für Bombenangriffe innerhalb des palästinensischen Gebiets zu lokalisieren.

„Der Wortlaut der Richtlinie bleibt vage und wirft Fragen darüber auf, wie OpenAI die Durchsetzung angehen will“, sagt Sarah Myers West, Geschäftsführerin des AI Now Institute und ehemalige KI-Politikanalystin bei der Federal Trade Commission. sagte The Intercept.

Obwohl OpenAI seine Pläne nicht bekannt gab, könnten die Sprachänderungen die Tür für zukünftige Verträge mit dem Militär öffnen. Die Begeisterung rund um ChatGPT hat bereits zugenommen weckte bei Politikern Interesse an KI-gestützten Waffenso Palmer Luckey, Gründer des Verteidigungstechnologie-Startups Anduril.

Lesen Sie den Originalartikel auf Business Insider

source site-19