In der Eile, KI einzuführen, geraten Ethik und Verantwortung in vielen Unternehmen in den Hintergrund

KI kann ziemlich beängstigend sein, wenn sie nicht reguliert wird.

  • Unternehmen integrieren schnell generative KI-Technologie, um die Produktivität zu steigern.
  • Experten sind jedoch besorgt darüber, dass die Bemühungen zur Bewältigung der Risiken von KI hinterherhinken.
  • Verantwortungsvolle KI-Bemühungen gehen „bei weitem nicht so schnell voran, wie sie sein sollten“, sagte ein BCG-Seniorpartner.

Unternehmen sind seit jeher darum bemüht, generative KI-Technologie in ihre Arbeit einzubinden Einführung von ChatGPT im Jahr 2022.

Führungskräfte sagen, dass sie davon begeistert sind, wie KI die Produktivität steigert, Daten analysiert und den Arbeitsaufwand verringert.

Entsprechend Der Arbeitstrendbericht 2024 von Microsoft und LinkedInLaut der Studie, bei der zwischen Februar und März 31.000 Vollzeitbeschäftigte befragt wurden, glauben fast vier von fünf Unternehmensleitern, dass ihr Unternehmen die Technologie einführen muss, um wettbewerbsfähig zu bleiben.

Doch die Einführung von KI am Arbeitsplatz birgt auch Risiken, einschließlich Rufschädigung, finanzieller und rechtlicher Schäden. Die Herausforderung bei der Bekämpfung besteht darin, dass sie nicht eindeutig sind und viele Unternehmen immer noch versuchen, zu verstehen, wie sie identifiziert und gemessen werden können.

Verantwortungsbewusst durchgeführte KI-Programme sollten Strategien für Governance, Datenschutz, Ethik sowie Vertrauen und Sicherheit umfassen. Experten, die sich mit Risiken befassen, sagen jedoch, dass die Programme nicht mit der Innovation Schritt gehalten haben.

Die Bemühungen um einen verantwortungsvollen Einsatz von KI am Arbeitsplatz gehen „bei weitem nicht so schnell voran, wie sie sein sollten“, sagte Tad Roselund, Geschäftsführer und Senior Partner der Boston Consulting Group, gegenüber Business Insider. Laut BCG erfordern diese Programme häufig erhebliche Investitionen und eine Umsetzungszeit von mindestens zwei Jahren.

Das ist eine große Investition und ein großer Zeitaufwand, und die Unternehmensleiter scheinen sich eher darauf zu konzentrieren, Ressourcen für die schnelle Entwicklung von KI auf eine Weise bereitzustellen, die die Produktivität steigert.

„Der Aufbau guter Risikomanagementfähigkeiten erfordert erhebliche Ressourcen und Fachwissen, die sich heute nicht alle Unternehmen leisten können oder die ihnen zur Verfügung stehen“, sagt die Forscherin und Politikanalystin Nanjira Sam sagte MIT Sloan Management Review. Sie fügte hinzu, dass „die Nachfrage nach KI-Governance- und Risikoexperten das Angebot übersteigt“.

Investoren müssten eine wichtigere Rolle bei der Finanzierung der Instrumente und Ressourcen für diese Programme spielen, heißt es Navrina Singh, die Gründerin von Credo AI, eine Governance-Plattform, die Unternehmen bei der Einhaltung von KI-Vorschriften unterstützt. Laut einer Studie beläuft sich die Finanzierung von generativen KI-Startups im Jahr 2023 auf 25,2 Milliarden US-Dollar Bericht des Stanford Institute for Human-Centered Artificial Intelligenceaber es ist unklar, wie viel an Unternehmen ging, die sich auf verantwortungsvolle KI konzentrieren.

„Das Risikokapitalumfeld spiegelt auch einen unverhältnismäßigen Fokus auf KI-Innovation gegenüber KI-Governance wider“, sagte Singh per E-Mail gegenüber Business Insider. „Um KI in großem Umfang und mit hoher Geschwindigkeit verantwortungsvoll einzuführen, muss gleichermaßen Wert auf ethische Rahmenbedingungen, Infrastruktur und Tools gelegt werden, um eine nachhaltige und verantwortungsvolle KI-Integration in allen Sektoren sicherzustellen.“

Es wurden gesetzgeberische Anstrengungen unternommen, um diese Lücke zu schließen. Im März wurde die Die EU hat das Gesetz über künstliche Intelligenz verabschiedet, die die Risiken von KI-Anwendungen in drei Kategorien einteilt und solche mit inakzeptablen Risiken verbietet. Unterdessen unterzeichnete die Biden-Administration im Oktober eine umfassende Durchführungsverordnung, in der sie von großen Technologieunternehmen, die Modelle für künstliche Intelligenz entwickeln, mehr Transparenz fordert.

Doch angesichts des Innovationstempos im Bereich der KI reichen staatliche Vorschriften derzeit möglicherweise nicht aus, um sicherzustellen, dass sich Unternehmen schützen.

„Wir riskieren ein erhebliches Verantwortungsdefizit, das KI-Initiativen stoppen könnte, bevor sie in Produktion gehen, oder schlimmer noch, zu Fehlern führen könnte, die bei der Umsetzung in die Produktion zu unbeabsichtigten gesellschaftlichen Risiken, Reputationsschäden und regulatorischen Komplikationen führen“, sagte Singh.

Lesen Sie den Originalartikel auf Business Insider

source site-19