Die britische Spionageagentur sagt, dass KI-Chatbots wie ChatGPT eine Sicherheitsbedrohung darstellen

ChatGPT, ein von OpenAI entwickelter KI-Chatbot, wurde nach seiner Einführung im November viral.

  • Eine Einheit der britischen Spionageagentur GCHQ warnte davor, dass KI-Chatbots wie ChatGPT eine Sicherheitsbedrohung darstellen.
  • Sensible Abfragen, die von Chatbot-Anbietern gespeichert werden, könnten gehackt oder geleakt werden, hieß es.
  • Unternehmen wie Amazon und JPMorgan haben ihren Mitarbeitern davon abgeraten, ChatGPT für die Arbeit zu verwenden.

Eine britische Spionageagentur hat davor gewarnt, dass künstlich intelligente Chatbots wie ChatGPT eine Sicherheitsbedrohung darstellen, da sensible Abfragen gehackt oder durchgesickert werden könnten.

Das National Cyber ​​Security Center, eine Einheit des Geheimdienstes GCHQ, am Dienstag einen Blogbeitrag veröffentlicht Darstellung der Risiken für Einzelpersonen und Unternehmen durch die Verwendung einer neuen Generation leistungsstarker KI-basierter Chatbots.

Zu den weiteren Risiken gehörten Kriminelle, die Chatbots verwendeten, um „überzeugende Phishing-E-Mails“ zu schreiben und ihnen dabei zu helfen, Cyberangriffe „über ihre derzeitigen Möglichkeiten hinaus“ durchzuführen, schrieben die Autoren des NCSC-Blogbeitrags.

Die Autoren weisen darauf hin, dass in Chatbots eingegebene Anfragen von deren Anbietern gespeichert werden. Dies könnte es Anbietern wie dem Eigentümer von ChatGPT, OpenAI, ermöglichen, Abfragen zu verwenden, um zukünftige Versionen ihrer Chatbots zu lehren – und sie zu lesen – sagten die Autoren.

Dies birgt ein Risiko für sensible Anfragen, wie zum Beispiel die Frage eines CEO, „wie man am besten einen Mitarbeiter entlassen kann“, oder jemand, der Gesundheitsfragen stellt, schrieben die Autoren.

Sie fügten hinzu: „Online gespeicherte Abfragen können gehackt, durchgesickert oder, was wahrscheinlicher ist, versehentlich öffentlich zugänglich gemacht werden. Dies könnte potenziell benutzeridentifizierbare Informationen beinhalten.“

Rasmus Rothe, Mitbegründer von Merantix, einer KI-Investmentplattform, sagte gegenüber Insider: „Das größte Sicherheitsproblem bei Mitarbeitern, die mit Tools wie ChatGPT interagieren, besteht darin, dass die Maschine aus diesen Interaktionen lernt – und dazu könnte das Lernen und folglich das Wiederholen vertraulicher Informationen gehören.“

OpenAI reagierte nicht sofort auf eine Bitte um Stellungnahme von Insider, die außerhalb der normalen Geschäftszeiten gestellt wurde.

OpenAI sagt es überprüft Gespräche mit ChatGPT „um unsere Systeme zu verbessern und sicherzustellen, dass der Inhalt unseren Richtlinien und Sicherheitsanforderungen entspricht.“

Die Autoren des NCSC-Blogbeitrags sagten, die neuen Chatbots seien „zweifellos beeindruckend“, aber „sie sind keine Magie, sie sind keine künstliche allgemeine Intelligenz und enthalten einige schwerwiegende Mängel“.

Große Unternehmen wie Amazon und JP Morgan haben Mitarbeitern geraten, ChatGPT nicht zu verwenden, da Bedenken bestehen, dass interne Informationen durchgesickert sein könnten.

Lesen Sie den Originalartikel auf Business Insider

source site-19