CFPB erläutert die rechtlichen Anforderungen für den Einsatz von KI durch Kreditgeber bei Kreditentscheidungen

Der Büro für finanziellen Verbraucherschutz (CFPB) kündigte am Dienstag eine Reihe gesetzlicher Anforderungen an, die Kreditgeber einhalten müssen, wenn sie künstliche Intelligenz (KI) oder „andere komplexe Modelle“ verwenden, wenn sie Entscheidungen über die Kreditwürdigkeit von Kreditnehmern treffen.

„In den Leitlinien wird beschrieben, wie Kreditgeber konkrete und genaue Gründe angeben müssen, wenn sie nachteilige Maßnahmen gegen Verbraucher ergreifen“, sagte die CFPB im Bericht Bekanntmachung. „Das bedeutet, dass Gläubiger nicht einfach CFPB-Musterformulare und Checklisten für nachteilige Maßnahmen verwenden können, wenn diese nicht den tatsächlichen Grund für die Kreditverweigerung oder eine Änderung der Kreditbedingungen widerspiegeln.“

Anforderungen wie diese werden „besonders wichtig“, da sich die Verwendung fortschrittlicher Algorithmen und persönlicher Verbraucherdaten bei der Vergabe von Verbraucherkrediten immer weiter entwickelt, so das Bureau. Durch die Erklärung, warum bestimmte Maßnahmen ergriffen werden, verbessern sich auch die künftigen Chancen der Verbraucher auf einen Kredit und es schützt gleichzeitig vor rechtswidriger Diskriminierung.

„Technologie, die als künstliche Intelligenz vermarktet wird, erweitert die Datenmenge, die für Kreditentscheidungen verwendet wird, und erweitert auch die Liste möglicher Gründe für die Verweigerung von Krediten“, sagte CFPB-Direktor Rohit Chopra in einer Erklärung. „Gläubiger müssen in der Lage sein, ihre Ablehnungsgründe konkret darzulegen. Es gibt keine besondere Ausnahmeregelung für künstliche Intelligenz.“

Auf dem Verbraucherkreditmarkt werden zunehmend fortschrittliche Algorithmen eingesetzt, die oft als „künstliche Intelligenz“ vermarktet werden. KI und andere prädiktive Entscheidungstechnologien werden zunehmend mit Underwriting-Modellen verknüpft, so das Bureau.

„Gläubiger füttern diese komplexen Algorithmen häufig mit großen Datensätzen, manchmal auch mit Daten, die möglicherweise aus der Verbraucherüberwachung stammen“, heißt es in der Ankündigung. „Infolgedessen kann einem Verbraucher ein Kredit aus Gründen verweigert werden, die er für seine Finanzen nicht besonders relevant erachtet.“

Bestimmte Gläubiger können sich auch „unangemessen auf eine Checkliste mit Gründen verlassen, die in CFPB-Musterformularen bereitgestellt werden“, aber der Equal Credit Opportunity Act (ECOA) erlaubt es Gläubigern nicht, „einfach Check-the-Box-Übungen durchzuführen, wenn sie Mitteilungen über nachteilige Maßnahmen übermitteln, wenn dies der Fall ist“. Daher werden die Verbraucher nicht genau darüber informiert, warum nachteilige Maßnahmen ergriffen wurden“, sagte das Präsidium.

A Rundschreiben veröffentlicht im Jahr 2022 führte aus, dass die ECOA von den Gläubigern verlangt, „die spezifischen Gründe für das Ergreifen nachteiliger Maßnahmen zu erläutern“, eine Anforderung, die auch dann in Kraft bleibt, wenn solche Unternehmen „komplexe Algorithmen und Black-Box-Kreditmodelle verwenden, die es schwierig machen, diese Gründe zu identifizieren“.

Die am Dienstag herausgegebenen Leitlinien erweitern die in diesem Rundschreiben von 2022 geteilte Perspektive, indem sie erklären, dass „Muster-Checklisten für nachteilige Maßnahmen nicht als erschöpfend angesehen werden sollten und auch nicht automatisch die gesetzlichen Anforderungen eines Gläubigers abdecken.“

Gründe für „nachteilige Maßnahmen“ wie Kreditverweigerungen müssen konkret sein und die Allgemeingültigkeiten vermeiden, die sich aus der zuvor von der CFPB bereitgestellten Beispielsprache ergeben könnten. Das Versäumnis, genügend Details zu einer bestimmten Entscheidung bereitzustellen und sich stattdessen auf einen „breiten Rahmen“ zu verlassen, gilt für fortgeschrittene Algorithmen genauso wie für alles andere.

„Gläubiger müssen die konkreten Gründe offenlegen, auch wenn Verbraucher überrascht, verärgert oder verärgert sein könnten, wenn sie erfahren, dass ihre Kreditanträge anhand von Daten bewertet wurden, die möglicherweise nicht intuitiv mit ihren Finanzen in Zusammenhang stehen“, sagte die CFPB.

source site-3