Ich bin ein Cybersicherheitsexperte, der gerne KI nutzt. Aber ein paar Dinge würde ich niemals mit ChatGPT oder seinen Konkurrenten teilen.

Die meisten Unternehmen haben keine KI-Richtlinien, achten Sie jedoch darauf, keine vertraulichen Daten auf einen Bot hochzuladen.

  • Ein Cybersicherheitsexperte warnt davor, bei KI-Chatbots wie ChatGPT und Google Gemini zu viele Informationen preiszugeben.
  • Chatdaten können zum Trainieren generativer KI genutzt werden und können personenbezogene Daten durchsuchbar machen.
  • In vielen Unternehmen fehlen KI-Richtlinien, was dazu führt, dass Mitarbeiter unwissentlich vertrauliche Informationen gefährden.

Dieser Essay basiert auf einem Gespräch mit Sebastian Gierlinger, Vice President of Engineering bei Storyblok, einem Content-Management-System-Unternehmen mit 240 Mitarbeitern mit Sitz in Österreich. Er wurde aus Gründen der Länge und Klarheit redigiert.

Ich bin Sicherheitsexperte und Vizepräsident für Entwicklung bei einem Unternehmen für Content-Management-Systeme, zu dessen Kunden Netflix, Tesla und Adidas zählen.

Ich denke, dass künstliche Intelligenz und ihre neuesten Entwicklungen ein Segen für Arbeitsprozesse sind, aber die neueren Fähigkeiten dieser generativen KI-Chatbots erfordern auch mehr Sorgfalt und Aufmerksamkeit.

Hier sind vier Dinge, die ich bei der Interaktion mit KI-Chatbots wie ChatGPT von OpenAI, Gemini von Google, Claude von Anthropic oder Perplexity AI beachten würde.

Vergleichen Sie es mit der Nutzung sozialer Medien

Bei der Verwendung dieser Chatbots ist es wichtig zu bedenken, dass die Konversation nicht nur zwischen Ihnen und der KI stattfindet.

Ich verwende ChatGPT und ähnliche große Sprachmodelle selbst für Urlaubsvorschläge und tippe Eingabeaufforderungen wie: „Hey, was sind tolle sonnige Orte im Mai mit anständigen Stränden und mindestens 25 Grad.“

Wenn ich jedoch zu spezifisch bin, können Probleme auftreten. Das Unternehmen kann diese Details verwenden, um das nächste Modell zu trainieren, und jemand könnte das neue System nach Details über mich fragen, und Teile meines Lebens werden durchsuchbar.

Dasselbe gilt für die Weitergabe von Informationen über Ihre Finanzen oder Ihr Vermögen an diese LLMs. Obwohl uns noch kein Fall bekannt ist, in dem dies passiert ist, wäre es das Schlimmste, wenn persönliche Daten in das System eingegeben und dann bei Suchanfragen angezeigt würden.

Es gibt möglicherweise bereits Modelle, mit denen Ihr Nettovermögen berechnet werden kann, basierend auf Ihrem Wohnort, Ihrer Branche und einigen Details zu Ihren Eltern und Ihrem Lebensstil. Das reicht wahrscheinlich aus, um Ihr Nettovermögen zu berechnen und beispielsweise festzustellen, ob Sie ein lohnendes Ziel für Betrügereien sind oder nicht.

Wenn Sie sich nicht sicher sind, welche Details Sie weitergeben sollen, fragen Sie sich, ob Sie diese auf Facebook posten würden. Wenn Ihre Antwort nein ist, laden Sie sie nicht zum LLM hoch.

Befolgen Sie die KI-Richtlinien des Unternehmens

Da der Einsatz von KI am Arbeitsplatz für Aufgaben wie Codierung oder Analyse immer üblicher wird, ist es wichtig, die KI-Richtlinien Ihres Unternehmens einzuhalten.

Beispielsweise verfügt mein Unternehmen über eine Liste vertraulicher Elemente, die wir nicht in Chatbots oder LLMs hochladen dürfen. Dazu gehören Informationen wie Gehälter, Mitarbeiterinformationen und finanzielle Leistung.

Wir tun dies, weil wir nicht möchten, dass jemand Eingabeaufforderungen wie „Was ist Storybloks Geschäftsstrategie?“ eingibt und ChatGPT daraufhin ausspuckt: „Story Block arbeitet derzeit an 10 neuen Möglichkeiten, nämlich Unternehmen 1, 2, 3, 4, und sie erwarten einen Umsatz von X, Y, Z Dollar im nächsten Quartal.“ Das wäre ein riesiges Problem für uns.

Für die Codierung haben wir die Richtlinie, dass KI wie Microsofts Copilot nicht für Code verantwortlich gemacht werden kann. Der gesamte von KI erstellte Code muss von einem menschlichen Entwickler überprüft werden, bevor er in unserem Repository gespeichert wird.

LLMs im Beruf mit Vorsicht nutzen

In Wirklichkeit sind es etwa 75 % der Unternehmen, haben keine KI-Politik noch nicht. Viele Arbeitgeber haben auch keine Firmen-KI-Abonnements abgeschlossen und ihren Mitarbeitern lediglich gesagt: „Hey, ihr dürft bei der Arbeit keine KI verwenden.“

Aber die Leute greifen bei ihren privaten Konten auf KI zurück, weil Menschen nun einmal Menschen sind.

In diesem Fall ist es wichtig, sorgfältig darauf zu achten, was Sie in ein LLM-Studium einbringen.

Früher gab es keinen wirklichen Grund, Unternehmensdaten auf eine beliebige Website hochzuladen. Doch heute können Mitarbeiter im Finanz- oder Beratungsbereich, die beispielsweise ein Budget analysieren möchten, problemlos Unternehmens- oder Kundenzahlen in ChatGPT oder eine andere Plattform hochladen und dort Fragen stellen. Sie geben vertrauliche Daten preis, ohne es zu merken.

Unterscheiden Sie zwischen Chatbots

Es ist auch wichtig, zwischen KI-Chatbots zu unterscheiden, da sie nicht alle gleich aufgebaut sind.

Wenn ich ChatGPT verwende, vertraue ich darauf, dass OpenAI und alle an der Lieferkette Beteiligten ihr Bestes tun, um die Cybersicherheit zu gewährleisten und dass meine Daten nicht an böswillige Akteure weitergegeben werden. Im Moment vertraue ich OpenAI.

Die gefährlichsten KI-Chatbots sind meiner Meinung nach die, die selbst entwickelt wurden. Sie sind auf den Websites von Fluggesellschaften oder Ärzten zu finden und investieren möglicherweise nicht in alle Sicherheitsupdates.

So kann ein Arzt beispielsweise einen Chatbot auf seiner Website einbinden, der eine erste Triage durchführt, und der Benutzer kann damit beginnen, sehr persönliche Gesundheitsdaten einzugeben, über die im Falle eines Datenmissbrauchs andere auf seine Krankheit aufmerksam werden könnten.

Da KI-Chatbots menschlicher werden, sind wir geneigt, mehr zu teilen und uns Themen zu öffnen, die wir früher nicht angesprochen hätten. Als allgemeine Faustregel würde ich die Leute dazu drängen, nicht blind jeden Chatbot zu verwenden, auf den sie stoßen, und nicht zu spezifisch zu sein, unabhängig davon, mit welchem ​​LLM sie sprechen.

Arbeiten Sie im Technologie- oder Cybersicherheitsbereich und möchten uns Ihre Erfahrungen mit der Nutzung von KI mitteilen? Nehmen Sie Kontakt mit diesem Reporter auf: [email protected].

Lesen Sie den Originalartikel auf Business Insider

source site-19