Seit kurzem gibt es eine App für die Suche nach Mitbewohner*innen, die auch unbewusste Präferenzen berücksichtigt. Mithilfe künstlicher Intelligenz findet sie heraus, mit wem wir zusammenleben möchten. Wie funktioniert das? Und welche Bedenken gibt es? UnAuf hat sich umgehört, was es damit auf sich hat.

Wer erinnert sich noch an die Werbeplakate? „Fits like Spät & Kauf“, oder „Fits like Berg & Hain“, hieß es zum Beispiel an der Station Neukölln. Und darunter: „Get profile recommendations based on AI to find your ideal flatmate.“ Mit der beworbenen App ist ein neuer Trend nach Berlin übergeschwappt: künstliche Intelligenz für die Wohnungssuche. Hinter den Neuköllner Plakaten steht Badi, ein Unternehmen aus Barcelona, das nun auch am Berliner Wohnungsmarkt mitmischt.

Mit Unterstützung von künstlicher Intelligenz die nächste WG finden – wie läuft das ab? Zunächst sieht die Oberfläche der Badi-App ähnlich aus wie die von WG-Gesucht und anderen Plattformen: Stadt auswählen, Präferenzen filtern, dann scrollen, scrollen und scrollen. Dabei gibt es einen entscheidenden Unterschied, der Badi von den Platzhirschen unterscheidet: „Der Badi-Algorithmus lernt auch die unbewussten Präferenzen unserer User kennen“, erklärt Falk Siegel, der für den Berliner Start der App zuständig ist. Denn Badi funktioniert nach dem Matching-Prinzip. „Der Algorithmus geht sehr frei in die ersten Matches rein“, fährt Falk Siegel fort, „mit der Zeit lernt er aber dazu“.

Aus dem Nutzungsverhalten der User könne der Algorithmus auch auf diejenigen Präferenzen schließen, die man bei der Suche nicht explizit angegeben hat: „Gibt jemand an, dass er gerne mit 18- bis 34-Jährigen zusammen wohnen möchte, kontaktiert aber nur Profile von 18- bis 24-Jährigen, dann merkt das unser Algorithmus und schlägt dementsprechend jüngere Profile vor“. Das mache die Suche effizienter und weniger wahllos. Das Prinzip: Mehr Informationen für die Plattform, weniger Arbeit bei der Wohnungssuche – nicht nur für die Suchenden, sondern auch für die Inserent*innen: „Die Matches funktionieren in beide Richtungen, vom Suchenden zum Inserenten und umgekehrt“, erklärt der Badi-Mitarbeiter.

Ein Algorithmus zur Wohnungssuche, der die Präferenzen von Vermietern bzw. Untervermietern berücksichtigt – kann das nicht auch diskriminierend sein? Ja, findet Jascha Bareis. Er forscht am Humboldt Institut für Internet und Gesellschaft in Berlin sowie am Institut für Technikfolgeabschätzung und Systemanalyse in Karlsruhe zu Fragen der künstlichen Intelligenz. „Man muss sich immer genau anschauen, nach welchen Kriterien Algorithmen arbeiten“, sagt der KI-Forscher, „besonders dann, wenn Algorithmen Nutzungsverhalten auswerten und dementsprechend User unterschiedlich behandeln.“

„Die Gefahr ist, dass die guten Angebote bestimmten Personengruppen gar nicht mehr angezeigt werden“

Aus Chatnachrichten könne man zum Beispiel relativ leicht auf sensible Informationen wie den Bildungshintergrund von Personen schließen: „Ein Algorithmus kann das Vokabular und die Syntax einer Nachricht auswerten und dann zu dem Ergebnis kommen: Das hat wahrscheinlich jemand mit Hochschulabschluss geschrieben. Diese Information nennt man dann einen Proxy“. Und was machen Unternehmen mit solchen Informationen? „Aus Proxies können Schattenprofile über die Nutzer*innen gebildet werden – davon wissen sie aber oft nichts“, antwortet Jascha Bareis. Proxies gibt es nicht nur für den Bildungsabschluss: Anhand des Namens könne ein Algorithmus auch auf die mutmaßliche Herkunft einer Person schließen, so Bareis.

Nun findet künstliche Intelligenz also auf dem Wohnungsmarkt eine Anwendung. Und das kann gefährlich sein, findet der Forscher: „Unternehmen, die die Zahl der erfolgreichen Matches von Wohnungssuchenden und -gebenden maximieren wollen, haben natürlich ein Interesse, die Präferenzen der Vermieter*innen zu bedienen, und momentan heißt das leider häufig: deutsch, weiß und gebildet“. So können Algorithmen bestehende Benachteiligungen verstärken, sagt der Wissenschaftler mit Blick auf den angespannten Wohnungsmarkt: „Die Gefahr ist, dass die guten Angebote bestimmten Personengruppen gar nicht mehr angezeigt werden, weil sie nicht zu den Präferenzen von Vermieter*innen in begehrten Wohnlagen passen.“ Langfristig könne eine solche Auswahl durch Algorithmen dazu führen, dass Wohnviertel weniger durchmischt werden, weil benachteiligte Gruppen aus beliebten Gegenden verdrängt werden.

Ganz anders sieht das Falk Siegel von Badi: „Momentan ist das Angebot auf dem Berliner Wohnungsmarkt zu gering. Mit Badi wollen wir auch neue Zielgruppen ansprechen, die nicht typischerweise in Wohngemeinschaften leben, zum Beispiel Young Professionals.“ Indem man diese dazu bewege, ihren Wohnraum zu teilen, könne man für mehr Angebot sorgen und den Markt entlasten. Das Unternehmen will ein neues Publikum für WGs gewinnen, indem es Sicherheiten bietet. Vermieter bekommen ihr Geld erst dann, wenn die andere Partei den Einzug bestätigt. Umgekehrt muss die mietende Partei eine 400 Euro Kaution an Badi zahlen, um für eventuelle Schäden in der Wohnung zu haften. Für Vermieter ist der Badi-Service umsonst. Mietende zahlen dagegen eine Service-Gebühr: „Die Gebühr hängt von der Mietdauer und der Höhe der Miete ab. Bei drei Monaten und 400 Euro Miete kommt man auf 40 bis 50 Euro Gebühr“, so Falk Siegel. Im Gegenzug biete Badi sichere Zahlungen und eine persönlichere Erfahrung auf der Plattform.

Auch das Profilbild wird analysiert

„Bei Badi liegt der Fokus mehr auf den Mitbewohner*innen als auf der Wohnung“, erzählt Giuliana Barrios. Sie hat Badi benutzt, um während ihres Erasmus-Semesters in Barcelona eine Wohnung zu suchen: „Ich war für meine Wohnungssuche nicht vor Ort. Deshalb war es mir wichtig, dass die Profile möglichst persönlich sind und ich etwas über die Leute erfahre“. Damit die Profile persönlich wirken und das Matching funktioniert, muss man Informationen mit der Plattform teilen. Aber welche Informationen sammelt Badi genau?

Das Unternehmen bestätigt, dass es das Nutzungsverhalten der User auswerte. Zudem berücksichtige der Algorithmus Persönlichkeitsmerkmale, wie etwa Alter und Geschlecht, sowie: das Profilbild – ein Foto ist Pflicht für die Nutzung der App. Auf eine Nachfrage der UnAuf antwortet das Unternehmen: Badi analysiere auch bestimmte Informationen, die im Profilbild enthalten seien, etwa was im Hintergrund zu sehen sei. Welche genauen Schlüsse KI-basierte Dienste aus den Informationen der Nutzer*innen ziehen ist jedoch deren Geschäftsgeheimnis. Der Forscher Bareis sieht hier eine Regulierungslücke: „Die Datenschutz-Grundverordnung räumt den profitstrebenden Unternehmen zu viele Freiheiten in der Einschätzung von individuellen und gesellschaftlichen Risiken ein.“ Automatisierte Entscheidungsprozesse, die ein hohes Risiko der Diskriminierung bergen, müssen Unternehmen der Aufsichtsbehörde melden. Die Einschätzung des Risikos nehmen sie aber selbst vor.

Dass künstliche Intelligenz bei der Wohnungssuche unterstützt, ist in anderen Städten schon längst normal geworden. Zum Beispiel in der Heimatstadt von Badi, in Barcelona: „Dort ist Badi so verbreitet wie WG-Gesucht in Deutschland“, erzählt Giuliana. Auf die Frage, in welchen Bereichen wir künftig mehr mit künstlicher Intelligenz zu tun haben könnten, antwortet Jascha Bareis: „Die Frage ist eher, in welchem Bereich KI nicht kommen wird.“ Wie lange das dauere, hänge nur davon ab, wie schwer es sei, den jeweiligen Bereich in maschinenlesbare Sprache zu übersetzen: „Wir sollten aber aufpassen, dass wir uns als Gesellschaft vorab kritisch fragen, wo wir Algorithmen einsetzen wollen und wo nicht. Die KI-Entwicklung ist kein Naturgesetz.“