Bankkredit: Befristeter Aufenthaltsstatus führte zu automatischer Ablehnung

Zuerst gibt es eine mündliche Zusage, doch dann wird der Kredit nicht gewährt. Der Grund: Der Kunde ist subsidiär schutzberechtigt. Die GAW sieht in der automatischen Ablehnung aufgrund des befristeten Aufenthaltsstatus eine Diskriminierung und erreicht eine Anpassung des Kreditrahmens.

Vorfall: Befristeter Aufenthaltsstatus führte zu automatischer Ablehnung

Herr M plant eine umfassende Wohnungssanierung und benötigt für die Finanzierung einen Kredit von 20.000 Euro. Herr M lebt seit 2015 in Österreich, er ist subsidiär schutzberechtigt und bezieht als Angestellter in der Hotellerie ein regelmäßiges Einkommen. Sein langjähriger Bankberater gibt ihm für den Kredit eine mündliche Zusage. Die persönlichen Daten, u.a. der Arbeitsvertrag und Aufenthaltstitel von Herrn M, werden für die Bonitätsprüfung von der Bank routinemäßig an das Subunternehmen weitergegeben, mit dem die Kreditvergabe abgewickelt werden soll.

Nach bereits zwei Tagen erhält Herr M die Nachricht, dass sein Antrag für den Kredit abgewiesen worden ist. Das Schreiben der Bank argumentiert, dass die Laufzeit des Kredits die Dauer seines befristeten Aufenthalts überschreitet. Er könne gerne wieder einen Kredit beantragen, wenn er einen Daueraufenthalt nachweisen könne. Herr M ist von dieser Mitteilung sehr überrascht, da er im Vorfeld eine mündliche Zusage erhalten hatte und sein befristeter Aufenthalt bisher regelmäßig verlängert worden ist. Auf Rückfrage wird ihm mitgeteilt, dass auch eine Bürgschaft nichts an der Entscheidung ändern würde. Er wendet sich deshalb an die Gleichbehandlungsanwaltschaft.

Rechtliche Hintergründe

Bankdienstleistungen: Risikoabschätzung bei Kund:innen muss verhältnismäßig sein

Das Gleichbehandlungsgesetz verbietet Diskriminierungen aufgrund der ethnischen Zugehörigkeit beim Zugang zu Gütern und Dienstleistungen (§ 31 GlBG). Die Vergabe von Krediten fällt unter diese gesetzliche Schutzbestimmung und es kann bei Vorliegen einer Diskriminierung Schadenersatz geltend gemacht werden (§ 38 Abs 1 GlBG). Werden Kund:innen von einer Kreditvergabe ausgeschlossen, nur weil sie einen subsidiären Schutzstatus haben, kann es sich um eine Diskriminierung aufgrund der ethnischen Zugehörigkeit nach dem GlBG handeln.

Gleichzeitig hat die Bank das Recht, die Bonität ihrer Kund:innen zu überprüfen. Um das Risiko eines Zahlungsausfalls bei einer Kreditvergabe angemessen abschätzen zu können, darf die Zahlungsfähigkeit nach sachlichen Kriterien im Vorfeld beurteilt werden (§ 39 BWG). Jedenfalls gehört dazu, dass ein regelmäßiges Einkommen oder Rücklagen vorhanden sind, um den Kredit tilgen zu können.

Nach Ansicht der Gleichbehandlungsanwaltschaft müssen Entscheidungen über Kreditvergaben verhältnismäßig sein. Der Aufenthaltsstatus allein ist kein ausreichender Grund, eine Kreditvergabe pauschal abzulehnen. Im vorliegenden Fall würden Alternativen bestehen, wie z.B. eine Änderung der Laufzeit und des Kreditvolumens, um Herrn M den Kredit unter angepassten Konditionen dennoch zu gewähren.

Mögliche Diskriminierung durch Algorithmen

Die Gleichbehandlungsanwaltschaft vermutet nämlich, dass der Antrag von Herrn M durch ein automatisiertes Entscheidungssystem abgewiesen worden sein könnte. Solche Systeme unterstützen Unternehmen, um große Datenmengen zu verarbeiten. Dabei handelt es sich um technische Systeme, die, basierend auf bestimmten Algorithmen, Entscheidungen automatisiert oder teilautomatisiert treffen. Je nachdem, welche Algorithmen diesen Systemen zugrunde liegen, können diskriminierende Entscheidungen zustande kommen. Algorithmen analysieren und interpretieren z.B. Informationen aus dem Kreditantrag und treffen nach festgelegten Kriterien Aussagen über die Bonität von Kreditwerber:innen. Diskriminierungspotenzial besteht auch bei scheinbar neutralen Kriterien der Bonitätsprüfung, wie z.B. der Aufenthaltsdauer. Sollte im vorliegenden Fall ein Algorithmus ausschlaggebend gewesen sein, hat dieser Nicht-Österreichische Staatsbürger:innen vermutlich nicht direkt ausgeschlossen. Aber: Der Algorithmus könnte so eingestellt sein, dass nur Personen mit dauerhaftem Aufenthaltstitel für Kreditvergaben berücksichtigt werden. Dadurch werden subsidiär Schutzberechtigte oder Personen mit einem anderen befristeten Aufenthaltsstatus indirekt aufgrund ihrer Herkunft benachteiligt. In solchen Fällen spricht man von mittelbarer Diskriminierung. Im Fall von Herrn M kann daher eine Ungleichbehandlung aufgrund seiner ethnischen Zugehörigkeit vermutet werden.

Menschliche Aufsicht automatisierter Entscheidungssysteme ist Voraussetzung zur Prävention von Diskriminierung

Deswegen ist es umso wichtiger, dass Entscheidungen v.a. bei komplexen Sachverhalten durch qualifizierte Sachbearbeiter:innen erfolgen oder zumindest überprüft werden. Die ist auch eine rechtliche Vorgabe
der EU-Verordnung über künstliche Intelligenz (Art. 14 KI-VO) für sogenannte Hochrisiko-Systeme. Diese Überprüfungen sind wichtig, um etwaige Ungleichbehandlungen aufzudecken und die Algorithmen automatisierter Systeme so adaptieren, dass diese rechtskonforme Entscheidungen treffen und das Ziel der Nicht-Diskriminierung einhalten.

Die Bank verweist die Gleichbehandlungsanwaltschaft an das zuständige Kreditinstitut weiter. Diese bestreitet die Diskriminierung und äußert sich nicht zum Einsatz von Algorithmen zur Bonitätsprüfung. Aus der Antwort wird aber ersichtlich, dass es grundsätzlich möglich wäre, die Laufzeit des Kredits und die Kreditsumme anzupassen. Herr M trifft daher mit Unterstützung der GAW mit seiner Bank eine neue Vereinbarung für die Vergabe kleinerer Kreditsummen mit angepassten Laufzeiten.

Fazit: Intervention der GAW führt zu Kreditvergabe unter angepassten Bedingungen

Der Kreditantrag von Herrn M wurde kategorisch abgewiesen, weil sein Aufenthaltsstatus befristet war und die Laufzeit des Kredits die Gültigkeit seines befristeten Status überschritten hätte. Der befristete Aufenthaltsstatus allein ist nach Ansicht der Gleichbehandlungsanwaltschaft kein ausreichender Grund, eine Kreditvergabe pauschal abzulehnen. Als subsidiär Schutzberechtigter konnte Herr M seinen Aufenthalt bereits mehrmals problemlos verlängern. Im vorliegenden Fall konnte eine alternative Lösung gefunden werden.

Das Gleichbehandlungsgesetz sieht lediglich Schadenersatzzahlungen vor. Im Rahmen einer außergerichtlichen Einigung sind jedoch flexiblere Lösungen möglich, die auch den Bedürfnissen der betroffenen Personen besser entsprechen können. Die Intervention der Gleichbehandlungsanwaltschaft bewirkte in diesem Fall, dass eine zufriedenstellende Lösung für den Klienten gefunden werden konnte. Durch die Abänderung zu einer Serie aus mehreren kleineren Kredite mit kürzeren Laufzeiten ist die Bonitätsauflagen des Kreditinstituts erfüllt. Herr M hat durch die angepasste Vergabe des Kredits die Möglichkeit, sein Sanierungsvorhaben umzusetzen.

Diskriminierungspotenziale besser erkennen: AI Act soll Auskunftsrechte der GAW stärken

Im vorliegenden Fall hat das Kreditinstitut keine Auskunft über den Einsatz eines automatisierten Entscheidungssystems gegeben, das etwa Menschen aufgrund eines bestimmten Aufenthaltsstatus oder eines bestimmten Herkunftslands „ausfiltert“. Die bevorstehende Umsetzung des AI Acts stärkt die Informations- und Auskunftsrechte der Gleichbehandlungsanwaltschaft. Damit könnten solche Fragen in Zukunft eindeutiger geklärt werden. Eine nationale Behörde soll künftig den Einsatz von KI-Technologien in Unternehmen überwachen. Die Informations- und Auskunftsrechte für die GAW erweitern sich insbesondere, weil sie bei der Überwachungsbehörde zusätzliche Überprüfungen beantragen kann.

Wer trägt die Verantwortung, wenn automatisierte Systeme diskriminieren?

Aktuell besteht auch für Einzelpersonen ein großes Transparenzproblem beim Einsatz automatisierter Entscheidungssysteme. Herr M kann beispielsweise gar nicht einsehen, auf welche Weise seine Daten verarbeitet worden sind und wie die Abweisung seines Antrages zustande gekommen ist. Im Rahmen der Intervention der GAW wurde außerdem deutlich, dass die Haftungskette in der Praxis unklar ist. Es gibt jedoch klare gesetzliche Vorgaben: Der AI Act regelt, dass sowohl Anbieter:innen als auch Nutzer:innen von KI-Systemen Grund- und Menschenrechte wahren müssen. Dies gilt nach Ansicht der Gleichbehandlungsanwaltschaft auch für Unternehmen und Organisationen, die KI-basierte Services von Drittanbieter:innen hinzukaufen und die KI-Nutzung damit „auslagern“.

Automatisierte Entscheidungssysteme werden in der Unternehmenswelt weiter an Bedeutung gewinnen. Die dahinterliegenden Technologien, wie beispielsweise KI bieten ein großes Potenzial für die Vereinfachung von Arbeitsprozessen, insbesondere im Umgang mit großen Datenmengen. Jedoch muss eine sichere und diskriminierungsfreie Anwendung dieser Technologien durch einen entsprechenden rechtlichen Rahmen und Kontrollmechanismen sichergestellt sein. Je komplexer diese Systeme werden, desto schwerer werden Diskriminierungen für Einzelpersonen nachweisbar. Die Gleichbehandlungsanwaltschaft setzt sich deswegen dafür ein, dass die rechtlichen Rahmenbedingungen des Diskriminierungsschutzes, den wachsenden technischen Herausforderungen laufend angepasst werden.

Das Gleichbehandlungsgesetz bietet aber jetzt schon eine wichtige Erleichterung: Betroffene Personen müssen eine Diskriminierung lediglich glaubhaft machen, aber nicht beweisen. Es liegt an der Gegenseite überzeugend darzulegen, dass andere Gründe ausschlaggebend waren.