Verantwortungsvolle KI im Immobilienbereich: Führt künstliche Intelligenz (z. B. KI-Chatbots) dazu, dass ich „gekündigt“, gesperrt oder mit einer Geldstrafe oder Gefängnis bestraft werde?

Mit jedem Jahr hilft uns die Technologie, in mancher Hinsicht intelligenter zu arbeiten, in anderer Hinsicht jedoch nicht so intelligent. Ein kritischer Bereich, da generative KI zunehmend zu unserem persönlichen Assistenten wird, besteht darin, die Einhaltung von Gesetzen zum fairen Wohnen nicht auszulagern.

Warum?

Falls Sie es nicht wussten: Generative KI trägt bereits zu Ungerechtigkeiten bei und verschärft diese, wie zum Beispiel Hier Und Hier. Es wurden noch keine erheblichen und hohen Strafen verhängt, also ist jetzt ein guter Zeitpunkt, den Kurs Ihres Teams festzulegen oder sogar zu korrigieren.

Und falls Sie es vergessen haben: Die Immobilienbranche ist stärker reguliert als die meisten anderen Branchen (mit zahlreichen Gesetzen zum Schutz verschiedener Bevölkerungsgruppen) und wird an unzähligen Fronten genau unter die Lupe genommen. Zur Erinnerung: Je nachdem, wo Sie sich in den USA befinden, können folgende geschützten Klassen enthalten sein:

  • Wettrennen
  • Farbe
  • Sex
  • Familienstand
  • nationale Herkunft
  • Behinderung (hieraus hat sich „eine Person, die ein Hilfsmittel verwendet“)
  • Religion
  • Alter
  • Abstammung
  • Sexuelle Orientierung
  • Geschlechtsidentität
  • Familienstand
  • Militär Status
  • Opfer häuslicher Gewalt
  • Einkommensquelle
  • Genetische Information
  • Schwangerschaft
  • HIV/AIDS
  • Strafregisterauszug
  • Und andere

Im heutigen Rechtsstreitklima ist es an der Zeit, sich zu fragen: „Wird künstliche Intelligenz (wie etwa KI-Chatbots) dazu führen, dass ich ‚gekündigt‘, gesperrt oder mit einer Geldstrafe oder Gefängnisstrafe belegt werde?“

Nicht, wenn wir diese 9 Überlegungen für verantwortungsvolle KI im Immobilienbereich im Hinterkopf behalten:

  1. Wie integriert diese App/dieses Tool Gesetze zum fairen Wohnen (die faire Kreditvergabe beinhalten) auf Bundes-, Landes- und lokaler Ebene? Tipp zum Fair Housing DECODER: Mir ist aufgefallen, dass einige der beliebtesten Chatbots und andere generative KI die „Big Seven“ des Bundes (Rasse, Hautfarbe, Geschlecht, Familienstand, nationale Herkunft, Behinderung, Religion) berücksichtigen, nicht jedoch die Gesetze zum fairen Wohnen auf Landes- oder lokaler Ebene.
  2. Wie oft wird diese App/dieses Tool aktualisiert, um Richtlinienänderungen zu berücksichtigen? Fair Housing DECODER-Tipp: Entwickler sollten mindestens monatlich rechtliche Änderungen berücksichtigen, da es in den USA allein in den letzten zwölf Monaten zahlreiche neue und aktualisierte Fair-Housing-Gesetze und Fallgesetze gab.
  3. Hat der Entwickler eine lokale, regionale oder nationale Fair-Housing-Agentur konsultiert und mit ihr Paartests durchgeführt (denken Sie z. B. an Testkäufer verschiedener geschützter Klassen)?
  4. Wie spricht diese App/dieses Tool Menschen an (z. B. ein „Marketing-Avatar“)? Fair Housing DECODER-Tipp: In den Business Schools lernen wir, einen „Kunden-Avatar“ zu haben, der im Grunde der ideale Kunde ist, den eine Marke ansprechen möchte. Aber Fair Housing (und dazu gehört auch Fair Lending) bedeutet, dass unser idealer Kunde geschützte Klassen nicht ausschließen kann. Das Schlüsselwort hier ist „ausschließen“. Ja, Sie können spezielle Ressourcen haben, zum Beispiel für jemanden, der sich scheiden lässt. Aber wir schließen niemals diejenigen aus (weisen sie ab), die das nicht tun.
  5. Basieren die „Ziele“ auf einer durch Fair Housing geschützten Klasse (ob auf Bundes-, lokaler oder Branchenebene)? Fair Housing DECODER-Tipp: Verwenden Sie Tools, die es Ihnen ermöglichen, sich nicht auf die Merkmale von Personen, sondern auf die Merkmale von Immobilien zu konzentrieren („ein Haus, das sich hervorragend für eine fünfköpfige Familie eignet“ versus „Haus mit fünf geräumigen Schlafzimmern, die Sie nach Belieben nutzen können“).
  6. Wie behandelt diese App/dieses Tool verschiedene Stadtteile/Postleitzahlen? Fair Housing DECODER Tipp: Moderne Redlining-Fälle (vgl. ein Beispiel) zeigen Unternehmen, die nicht die gleichen Dienstleistungen in benachbarten Gebieten anbieten. Das ist ein No-Go!
  7. Lenkt es Menschen mit bestimmten demografischen Merkmalen zu Postleitzahlen, die es bei anderen nicht tut? Fair Housing DECODER-Tipp: Auch wenn der Entwickler keine Paartests durchgeführt hat, kann Ihr Team Paartests durchführen! Bei neuen Technologien ist es wichtig, noch einen Schritt weiter zu gehen, um sicherzustellen, dass Ihr Team nicht mit rechtlichen Sanktionen konfrontiert wird.
  8. Wie lässt sich diese App/dieses Tool in Nischen segmentieren?
  9. Basieren die Nischen auf geschützten Klassen? Fair Housing DECODER-Tipp: Es gibt „Reichtum in Nischen“, aber auch „Faces Catch Cases“. Nischen Sie nach unten, solange sie nicht auf geschützten demografischen Merkmalen basieren.

Zu den sieben Säulen einer verantwortungsvollen KI-Governance gehören Compliance, Vertrauen, Transparenz, Fairness, Effizienz, menschliche Note und verstärktes Lernen. Diese werden in den obigen Fragen zusammengefasst, um Ihnen beim Aufbau und der Gestaltung einer KI-Partnerschaft zu helfen. In einer prozessfreudigen Branche kann es für Ihre geistige Gesundheit sinnvoll sein, nicht zu den Early Adopters einer bestimmten Plattform zu gehören, wenn Entwickler nicht bereit sind, in einem dieser Bereiche transparent zu sein (beginnend mit den acht obigen Fragen).

Diese Kolumne spiegelt nicht unbedingt die Meinung der Redaktion und der Eigentümer von HousingWire wider.

So erreichen Sie den für diesen Artikel verantwortlichen Redakteur: [email protected]

source site-3