KI könnte die Rassengerechtigkeit beim Wohneigentum verbessern, aber es gibt noch viel zu tun

Der Einsatz von künstlicher Intelligenz (KI) wird angesichts höherer Entstehungskosten und größerem Wettbewerb voraussichtlich zunehmen, aber ohne die zugrunde liegenden Ursachen der Verzerrung in den Daten zu korrigieren, können KI-Modelle die Ungleichheit der Rassengerechtigkeit in größerem Maßstab verankern, heißt es in einem aktuellen Bericht der Städtisches Institut abgeschlossen.

„Es muss jedoch zunächst die Vorurteile und Ungleichheiten überwinden, die bereits in den analysierten Daten verankert sind. „Politische Entscheidungsträger und die Hypothekenbranche müssen mit historischen und aktuellen Hindernissen rechnen, die potenzielle farbige Eigenheimkäufer ganz vom Markt ausschließen“, heißt es in dem am Montag veröffentlichten Bericht.

Fast 50 Interviews mit Mitarbeitern der Bundesregierung, Finanztechnologieunternehmen, Hypothekengebern und Verbraucherschützern ergaben, dass die Fähigkeit der KI, die Rassengerechtigkeit zu verbessern, durch die Daten untergraben werden kann, die zum Trainieren des Algorithmus verwendet werden, und nicht nur durch den Algorithmus selbst.

Interviews ergaben, dass einige der vielversprechendsten KI-basierten Underwriting-Modelle auch die umstrittensten sind – beispielsweise die explizite Einbeziehung von „Race-up-front“ in Underwriting-Modellen.

Während KI in den Bereichen Marketing, Underwriting, Immobilienbewertung und Betrugserkennung eingesetzt wird, beginnt die Einbindung von KI in den Servicebereich laut Interviewergebnissen gerade erst.

Was die Anwender betrifft, haben staatlich geförderte Unternehmen (GSEs), große Hypothekengeber und Fintech-Unternehmen KI eingesetzt. Daten aus den Interviews zeigten jedoch, dass die Akzeptanzraten bei kleineren und missionsorientierten Kreditgebern, wie z. B. Minority Depository Institutions (MDIs) und Community Development Financial Institutions (CDFIs), niedriger zu sein scheinen.

Der Bericht empfiehlt politischen Entscheidungsträgern, Regulierungsbehörden und Entwicklern, sich auf ein gezieltes Design für Eigenkapital, sorgfältig untersuchte Pilotprogramme und regulatorische Leitlinien zu konzentrieren, um sicherzustellen, dass KI den Zugang zu Hypothekendienstleistungen gerecht erweitert.

Bei der Entwicklung eines bewussten Entwurfs für eine gerechte KI wurde in dem Bericht betont, dass viel über die verwendeten Trainingsdaten und die zu berücksichtigenden Vorurteile nachgedacht werden muss. wie man das KI- oder maschinelle Lerntool für Benutzer transparenter macht; und ob der menschliche Prozess, der durch KI ersetzt wird, fair ist oder verbessert werden muss.

Das Urban Institute schlug der Bundesregierung vor: Ginnie Mae und insbesondere die GSEs können auch Pilotprogramme nutzen, um die Wirksamkeit von KI-Tools zu ermitteln und Gerechtigkeitsbedenken in kleinerem Maßstab anzugehen, bevor die Branche diese Tools umfassender implementiert.

Ein potenzielles neues Pilotprojekt könnte von den GSEs oder der FHA genutzt werden, um den Einsatz von KI bei der Hypothekenverwaltung zu testen.

„Ein KI-basierter Algorithmus, der die Wahrscheinlichkeit eines Zahlungsausfalls eines Kreditnehmers prognostiziert und den besten Risikomanagementprozess ermittelt, könnte wertvoll sein. Die GSEs oder die FHA könnten das Pilotprojekt einsetzen und es anhand aktueller Prozesse testen, um die Kriminalität und das daraus resultierende Management festzustellen“, heißt es in dem Bericht.

Die Befragten wiesen auf das Fehlen klarer Regulierungsstandards für den Einsatz von KI in der gesamten Hypothekenbranche hin.

„Alles, was mehr Gewissheit und Sicherheit seitens der Regulierungsgemeinschaft schafft, würde sowohl der Industrie als auch den Verbraucherinteressengruppen helfen“, so ein Befragter.

In dem Bericht wurde darauf hingewiesen, dass die Bundesregulierungsbehörden die Verbraucher, insbesondere die am stärksten gefährdeten, schützen müssen, da die Regierung, Kreditgeber und Drittanbieter möglicherweise unterschiedliche Anreize für den Einsatz von KI haben.

Der Büro für finanziellen Verbraucherschutz (CFPB) muss auch eine Rolle dabei spielen, klar abzugrenzen, „auf welche Datenelemente Verbraucher ein Recht auf Zugriff haben, welche Standards für den Zugriff und die Übermittlung von Daten durch private Unternehmen gelten und wie mehrere Bundesgesetze zur Verbraucherfinanzierung auf die Übermittlung von Verbraucherdaten angewendet werden sollten“. ” laut der Meldung.

Änderungen werden nicht automatisch eintreten und die Bundesregierung muss eine Vorreiterrolle übernehmen, um sicherzustellen, dass KI beide gleichberechtigten Ergebnisse hervorbringt, heißt es in dem Bericht.

„Eine starke Rolle der Bundesregierung kann die Innovationskluft überwinden, mehr Klarheit über den Preis von Innovationen schaffen und die vielversprechendsten KI-basierten Dienste, die sowohl Effizienz als auch Gerechtigkeit optimieren, einfacher ausbauen.“

source site-3