Laut einer neuen Studie kann ChatGPT von OpenAI tatsächlich dazu führen, dass Arbeitnehmer schlechtere Leistungen erbringen

Neue Forschungsergebnisse zeigen, dass Arbeitnehmer, die KI wie ChatGPT verwenden, tatsächlich schlechtere Leistungen erbringen als diejenigen, die dies nicht tun.

  • Neue BCG-Studien zeigen, dass Mitarbeiter, die ChatGPT von OpenAI verwenden, tatsächlich schlechtere Leistungen erbringen als diejenigen, die dies nicht tun.
  • Das liegt daran, dass einige Mitarbeiter die Ergebnisse des KI-Chatbots für bare Münze nehmen und nicht auf Fehler prüfen.
  • Die Ergebnisse von BCG könnten ein warnendes Beispiel für Arbeitnehmer sein, die sich der KI zuwenden.

Wenn Sie ChatGPT als Verknüpfung bei der Arbeit verwenden, sollten Sie besonders vorsichtig sein.

Der Einsatz von KI bei der Arbeit kann Ihrer Arbeitsleistung tatsächlich schaden – wenn sie für Aufgaben eingesetzt wird, die außerhalb ihrer Möglichkeiten liegen, Neue Forschungsergebnisse der Boston Consulting Group gefunden.

Eine Gruppe von Forschern von BCG, Harvard, Wharton und MIT führte ein Experiment durch, um herauszufinden, wie sich der Zugang zu KI auf die Produktivität und Arbeitsqualität von Angestellten auswirkt.

Um dies zu testen, teilten die Forscher 758 Berater bei BCG nach dem Zufallsprinzip einer von drei Gruppen zu: eine ohne Zugang zu KI; eines mit Zugriff auf ChatGPT powered by GPT-4; und eines mit Zugriff auf ChatGPT sowie Lehrvideos und Dokumente zu Prompt-Engineering-Strategien.

Nach der Festlegung der Leistungsgrundlagen wurde den Beratern jeder Gruppe eine von zwei Aufgabenkategorien zugewiesen.

Eine Kategorie umfasste 18 Aufgaben, die „innerhalb der Grenzen“ dessen liegen, was die KI leisten kann, wie etwa das Brainstorming innovativer Getränkekonzepte oder die Ausarbeitung eines umfassenden Geschäftsplans für ein neues Schuhkonzept.

Die andere Kategorie umfasste eher offene Aufgaben, die „außerhalb der Grenzen“ der KI-Fähigkeiten existieren. Während „Berater bei diesen Aufgaben hervorragende Leistungen erbringen würden“, „würde KI ohne umfassende Anleitung Schwierigkeiten haben“, heißt es in der Studie.

Beispielsweise wurden Berater, denen diese Aufgaben zugewiesen wurden, gebeten, dem CEO eines hypothetischen Unternehmens Empfehlungen zu geben, indem sie interne Finanzdaten und Interviews mit Unternehmensinsidern nutzten – Informationen, auf die die KI keinen Zugriff hatte.

Die Forscher fanden starke Unterschiede in den Ergebnissen der drei Gruppen, abhängig von ihrem Zugang zu ChatGPT.

Bei Aufgaben „innerhalb der Grenzen“ waren Berater, die KI nutzten, „deutlich produktiver“ und „lieferten deutlich qualitativ hochwertigere Ergebnisse“ als diejenigen, die den Chatbot nicht nutzten.

Allerdings war die Wahrscheinlichkeit, dass Berater, die KI zur Erledigung von Aufgaben „außerhalb der Grenzen“ nutzten, „im Vergleich zu Beratern ohne KI“ um 19 Prozentpunkte geringer, richtige Lösungen zu finden. Das liegt daran, dass die Berater mit KI wahllos auf die Ergebnisse hörten – selbst wenn die Antworten falsch waren.

Diese Ergebnisse zeigen die „ungleichmäßigen“ Fähigkeiten der KI.

Während die Ergebnisse der Studie zeigen, dass KI „überaus gut“ darin ist, Menschen bei einigen Aufgaben zu helfen, sollten Menschen beim Einsatz der Technologie Vorsicht walten lassen, um Fehler zu vermeiden, sagte Saren Rajendran, einer der an der Studie beteiligten Forscher, Insider in einer E-Mail.

„Wir sollten beim Einsatz von GenAI vorsichtig sein“, fügte er hinzu.

Die Ergebnisse von BCG sind ein warnendes Beispiel für Arbeitnehmer, die darüber nachdenken, ChatGPT zur Unterstützung ihrer Arbeit zu nutzen. Seit ChatGPT im vergangenen November auf den Markt kam, nutzen Arbeitnehmer aus allen Branchen den KI-Chatbot – manchmal ohne es ihren Vorgesetzten zu sagen –, um Code zu entwickeln, Marketingmaterialien zu erstellen und Unterrichtspläne zu erstellen.

Allerdings sind die Ausgaben von ChatGPT nicht perfekt und können „Halluzinationen“ enthalten.

Technische Veröffentlichung CNET geriet Anfang des Jahres in Aufruhr, nachdem den Lesern aufgefallen war, dass eine Reihe seiner KI-generierten Artikel sachliche Fehler enthielten.

Stand: 28. September, Medienwächter NewsGuard hat 487 „unzuverlässige“ KI-generierte Nachrichtenseiten mit „wenig bis gar keiner menschlichen Kontrolle“ identifiziert.

In einer Anzeige für Googles Bard machte der KI-Chatbot einen sachlichen Fehler, als er nach dem James Webb-Weltraumteleskop gefragt wurde.

KI-generierte Fehler könnten sich nur verschlimmern: In einer aktuellen Arbeit fanden KI-Forscher heraus, dass generative KI-Modelle bald auf KI-generierten Inhalten trainiert werden könnten – ein Phänomen, das sie „Modellkollaps“ nennen. Das Ergebnis könnte in naher Zukunft zu mehr minderwertigen Ergebnissen sein.

„Da sich die Grenzen der KI-Fähigkeiten immer weiter ausdehnen, oft exponentiell, wird es für menschliche Fachkräfte zur Pflicht, ihr Verständnis der Grenzen neu zu kalibrieren und für Organisationen, sich auf eine neue Arbeitswelt vorzubereiten, die Mensch und KI verbindet“, schreiben die Forscher.

Lesen Sie den Originalartikel auf Business Insider

source site-19