Das neue KI-Tool von Zillow zielt darauf ab, die Gleichstellung im Wohnungswesen zu fördern

Zillow kündigte die Veröffentlichung eines Open-Source-Tools an, dem Klassifikator für faires Wohnenam Dienstag im Rahmen der Bemühungen des Unternehmens, „verantwortungsvolles und unvoreingenommenes Verhalten in Immobiliengesprächen zu fördern, die auf der LLM-Technologie (Large Language Model) basieren.“

In einer Pressemitteilung erklärte Zillow, dass Instrumente der künstlichen Intelligenz (KI) die unzähligen Anforderungen der Gesetze zu fairem Wohnen oft nicht berücksichtigen. Wenn diese Instrumente eingesetzt werden, „können sie Voreingenommenheit aufrechterhalten und die Fortschritte untergraben, die bei der Befürwortung von fairem Wohnen erzielt wurden.“

Der Fair Housing Classifier soll als Schutzmaßnahme gegen die Lenkung oder Beeinflussung der Wohnungswahl einer Person auf der Grundlage geschützter Merkmale dienen. Der Fair Housing Act von 1968 – der 1974 und 1988 erweitert wurde – verbietet Diskriminierung auf dem Wohnungsmarkt aufgrund von Rasse, Hautfarbe, Religion, Geschlecht, Behinderung, Familienstand oder nationaler Herkunft.

„Seit 2006 nutzt Zillow KI, um Home-Shoppern Transparenz zu bieten und Tools wie das Zestimate zu unterstützen“, sagte Josh Weisberg, Senior Vice President für künstliche Intelligenz bei Zillow, in einer Erklärung. „Wir haben es uns zur Aufgabe gemacht, die Transparenz im Immobilienbereich zu erhöhen. Das Open-Sourcing dieses Klassifikators zeigt, dass technologische Fortschritte nicht auf Kosten der Gleichberechtigung und Fairness für die Verbraucher gehen müssen.

„Wir bieten kostenlosen und einfachen Zugang, damit andere im Bürgerrechts-, Technologie- und Immobiliensektor ihn nutzen, zusammenarbeiten und zur Verbesserung beitragen können.“

In einer kürzlich durchgeführten Umfrage unter mehr als 12.000 Amerikanern stellte Zillow fest, dass 57 % von ihnen im Laufe ihres Lebens irgendeine Art von Wohndiskriminierung berichteten. Dieser Anteil stieg bei LGBTQ+-Befragten auf 79 %, bei Schwarzen auf 69 % und bei Hispanics und Latinos auf 64 %.

Der Fair Housing Classifier ist in der Lage, Fragen zu erkennen, „die zu diskriminierenden Antworten über gesetzlich geschützte Gruppen in Immobilienerlebnissen wie Such- oder Chatbots führen könnten“, erklärte Zillow. Die KI-Technologie kann Fälle der Nichteinhaltung gleicher Wohngesetze erkennen, wenn ihr eine Frage oder Antwort gestellt wird. Systementwickler haben in diesen Fällen die Möglichkeit einzugreifen.

„In der sich schnell entwickelnden KI-Landschaft von heute wird die Förderung sicherer und vertrauenswürdiger KI-Praktiken im Wohnungsbau und bei der Kreditvergabe immer wichtiger, um Verbraucher vor algorithmischen Schäden zu schützen“, sagt Michael Akinwumi, Hauptverantwortlicher für KI Nationale Allianz für faires Wohnensagte in einer Erklärung.

„Zillows Open-Source-Ansatz stellt einen bewundernswerten Präzedenzfall für verantwortungsvolle Innovation dar. Wir ermutigen andere Organisationen und Koalitionsgruppen, sich aktiv zu beteiligen, das Modell zu testen und zu verbessern und ihre Erkenntnisse mit der Öffentlichkeit zu teilen.“

Unternehmen und Einzelpersonen, die den Fair Housing Classifier nutzen möchten, können auf dessen Code und umfassendes Rahmenwerk zugreifen GitHub. Jeder, der Feedback geben und/oder das Tool verbessern möchte, kann sich mit dem E-Mail-Alias ​​auf der GitHub-Seite verbinden.

source site-3