Wissenschaftler erstellen „OpinionGPT“, um explizite menschliche Voreingenommenheit zu erforschen – und die Öffentlichkeit kann es von Cointelegraph testen



Ein Forscherteam der Humboldt-Universität zu Berlin hat ein großsprachliches Modell der künstlichen Intelligenz (KI) entwickelt, das sich dadurch auszeichnet, dass es absichtlich so abgestimmt wurde, dass es Ergebnisse mit ausgeprägter Voreingenommenheit generiert.

Das Modell des Teams mit dem Namen OpinionGPT ist eine optimierte Variante von Metas Llama 2, einem KI-System, das in seinen Fähigkeiten dem ChatGPT von OpenAI oder Claude 2 von Anthropic ähnelt.

OpinionGPT-Antworttabelle. Quelle: Tabelle 2, Haller et al., 2023