Asylverfahren per Algorithmus: Wie Künstliche Intelligenz Grundrechte gefährdet
17. Oktober 2025 in
Beiträge
0 Kommentare
Tags: AI, KI, künstliche Intelligenz
17. Oktober 2025 in
Beiträge
0 Kommentare
Tags: AI, KI, künstliche Intelligenz
Die Debatte um den Einsatz von Künstlicher Intelligenz (KI) in der öffentlichen Verwaltung ist nicht neu – zudem ist sie eng mit der Frage nach Diskriminierung verbunden. In Österreich etwa hat der sogenannte AMS-Algorithmus für große Kontroversen gesorgt. Das System sollte Arbeitslose nach ihren vermeintlichen Chancen auf dem Arbeitsmarkt kategorisieren, erwies sich aber als besonders nachteilig für Frauen, ältere Menschen und Personen ohne österreichische Staatsbürgerschaft. In den Niederlanden führte der Einsatz automatisierter Risikobewertungssysteme im Bereich der Kindergeldbeihilfen zu einem der größten politischen Skandale der letzten Jahre. Zehntausende Familien, viele mit Migrationshintergrund, wurden fälschlich als betrügerisch eingestuft und oft mit existenzbedrohenden Folgen.
Diese Beispiele machen deutlich, dass der Einsatz von datenbasierten Entscheidungssystemen nicht neutral ist. Er trifft besonders oft marginalisierte Gruppen und kann bestehende gesellschaftliche Ungleichheiten verstärken. Vor diesem Hintergrund haben wir in unserem Forschungsprojekt A.I.SYL untersucht, welche Rolle KI im österreichischen Asylverfahren spielt. Denn gerade hier – im Kontext eines Verfahrens, das über Schutz oder Abschiebung entscheidet – wiegen Fehler, Intransparenz und diskriminierende Effekte besonders schwer.
Eine Informationsbroschüre für die Praxis
Finanziert vom Zukunftsfond Steiermark haben wir von Mai 2024 – April 2025 untersucht, welche Rolle KI aktuell im österreichischen Asylverfahren spielt. Wir wollten herausfinden, welche Chancen und Risiken diese Tools bergen und Handlungsempfehlungen für Betroffene formulieren. In einer Handreichung richten wir unsere Empfehlungen ausdrücklich an die Rechts- und Sozialberatung und hoffen, dass sie eine nützliche Hilfestellung im Umgang mit neuen Technologien im Asylverfahren sein kann.
Aktuelle KI-Anwendungen im Asylbereich
Die Ergebnisse unserer Recherche, die unter anderem ein Auskunftsbegehren an das Bundesministerium für Inneres (BMI) umfasste, haben uns überrascht: Bereits jetzt werden zahlreiche KI-Tools entwickelt, getestet oder sind sogar schon im Einsatz. Zur Verarbeitung öffentlicher, nicht personenbezogener Daten der Staatendokumentation werden allgemein zugängliche Textassistenten wie Perplexity oder you.com verwendet. Außerdem wird eine eigene KI-unterstützte Anwendung entwickelt, die die Verarbeitung der Daten aus der Staatendokumentation unterstützen soll. Diese soll in Zukunft auch zur datenforensischen Auswertung der nach § 39a BFA-VG und § 38a FPG gewonnenen Handydaten verwendet werden können. Im aktuellen Regierungsprogramm ist wie schon im letzten die automatische Spracherkennung zur Herkunftslandbestimmung vorgesehen. Neu dazu gekommen ist auch das Vorhaben, die Protokollierung und die Übersetzung der Protokolle zu automatisieren.
Wie diese Programme derzeit eingesetzt werden oder in Zukunft eingesetzt werden sollen – das heißt, welche Datenpunkte als Indiz für welche Sachverhalte herangezogen werden, wie die einzelnen Ergebnisse überprüft werden, und welche allgemeinen Vorkehrungen getroffen wurden, um Fehler zu vermeiden, ist nicht bekannt.
Auch auf der EU-Ebene schreitet die Digitalisierung des Asylverfahrens voran: Die reformierte Eurodac-VO sieht ab nächstem Jahr auch die Verarbeitung von biometrischen Gesichtsbildern zur automatischen Identifizierung vor (Art 2 Abs 1 lit s, Art 13 und Art 15 Abs 1 Eurodac-VO neu) – und das schon ab dem Alter von 6 Jahren (Art 14 Eurodac-VO neu). Außerdem werden durch die zwei Interoperabilitäts-RL (eine für die Interoperabilität zwischen den EU-Informationssystemen und eine für die polizeiliche und justizielle Zusammenarbeit) zentrale Anwendungen für den Abgleich dieser biometrischen Daten geschaffen, auf die eine Vielzahl von Unions- und mitgliedstaatlichen Behörden Zugriff haben werden.
In Berichten der EU-Agenturen, wie zB FRONTEX, eu-LISA oder der EUAA finden auch KI-basierte Risikoanalysen, Lügendetektoren, und Selbstregistrierungstools als in Zukunft mögliche Anwendungen Erwähnung.
Risiken beim Einsatz von KI
Viele dieser Tools sind fehleranfällig. So besteht bei großen Sprachmodellen, wie sie aktuell vom BMI im Rahmen der Staatendokumentation für die Recherche und Textarbeit entwickelt werden, immer das Risiko von Halluzinationen. Es steht zu befürchten, dass sich auf diese Weise in Bescheiden bei der Bewertung der Situation im Herkunftsland Fehler einschleichen.
Das gleiche gilt für automatische Übersetzungstools, die besonders bei weniger verbreiteten Sprachen – wie sie oft von Asylsuchenden gesprochen werden – zu Fehlern neigen. Dies kann eine Diskriminierung von Betroffenen, die Sprachen mit höherer Fehlerrate sprechen, darstellen. Andere Anwendungen basieren auf falschen Annahmen. So wird bei der Dialekterkennung davon ausgegangen, dass es einen strikten Zusammenhang zwischen Sprechweise und Herkunftsland gibt. Hier wird allerdings übersehen, dass Sprachgrenzen und Ländergrenzen oft divergieren und dass sich die Sprechweise im Laufe eines Lebens – und teils sogar situationsbedingt – wandelt. Andere Tools wiederum sind aus datenschutzrechtlicher Sicht bedenklich.
Die routinemäßige Abnahme biometrischer Daten sowie die Auswertung von Handydaten von Asylsuchenden stellen einen schwerwiegenden Eingriff in die Privatsphäre dar und stehen deswegen von zivilgesellschaftlicher Seite in der Kritik (die Praxis der Handydatenauswertung wird aktuell auch vor dem VfGH angefochten).
Zudem sind KI-Anwendungen oft intransparent und ihre genaue Funktionsweise nicht nachvollziehbar. Dies liegt einerseits daran, dass die zugrundliegenden Programme proprietär sind und dem Betriebsgeheimnis unterliegen. Dies ist jedenfalls bei Anwendungen der Fall, die die Behörden zu den gleichen Bedingungen nutzen, wie die Allgemeinheit, also z.B. die oben erwähnten generativen Textverarbeitungsprogramme, wie Perplexity, etc. Auch bei eigens angekauften Anwendungen kann dies jedoch der Fall sein, wie z.B. bei der polizeilichen Gesichtserkennungssoftware, wie sich aus einer parlamentarischen Anfrage an das BMI aus 2020 ergeben hatte. Ob es überhaupt möglich ist, die Funktionsweise selbstlernender Anwendungen auf eine Weise zu erklären, dass die Erklärung ausreichend für Bescheidbegründungen ist, also die Gründe für die Entscheidung im Einzelfall kausal erklären kann, ist Gegenstand aktueller Debatten und jedenfalls kein triviales Problem.
Werden die Ergebnisse solcher Anwendungen aber ohne ausreichende Transparenz und Erklärungen Grundlage für behördliche Entscheidungen, sind diese nicht bekämpfbar. Für einen effektiven Rechtsschutz ist es allerdings notwendig, die Gründe für einen negativen Bescheid zu kennen und verstehen zu können. Schon 1985 hatte der VwGH festgestellt, dass auch die Daten, auf die eine Entscheidung gestützt wird, Teil der Bescheidbegründung sein müssen, und, dass die beschränkten Möglichkeiten eines EDV-Programmes im Einsatz der Behörde, keine Ausnahme der Begründungspflicht rechtfertigen. Nur wenn die Funktionsweise der verwendeten Programme nachvollziehbar ist, ist es im Fall eines Fehlers möglich, diesen aufzuzeigen.
Zugleich hat die Nutzung von KI im Asylverfahren das Potenzial, die Grundrechte weiter auszuhöhlen. Diese Aushöhlung geschieht bereits sowohl auf EU-Ebene mit der Umsetzung der GEAS-Reform, welche eine individuelle Prüfung von Asylanträgen und den Rechtsschutz in vielen Fällen durch Anwendung von sog. Grenzverfahren erschwert, sowie auf Mitgliedsstaatenebene, wie z.B. der Aussetzung des Familiennachzugs in Österreich. Zudem dominieren die Themen Asyl und Migration in vielen EU-Mitgliedsstaaten, darunter auch Österreich, die politische Tagesordnung. Längst wird nicht nur von rechtsextremen Parteien eine „härtere“ Gangart gegen Migrant:innen gefordert – wie etwa im Plan der ÖVP in Koalitionsgesprächen mit der FPÖ, den Grenzschutz unter dem Label ‚Festung Österreich‘ auszubauen. Gleichzeitig häufen sich Übergriffe und Angriffe auf geflüchtete Menschen. In Deutschland z.B. wurden allein im ersten Halbjahr 648 registrierte Straftaten gegen Asylsuchende oder Geflüchtete verzeichnet. In einem derartigen politischen Klima können auch neue Technologien zu einem Mittel der Abschottung werden. Vor diesem Hintergrund steht zu befürchten, dass die neuen, KI-basierten Anwendungen nicht faire Verfahren stärken, sondern Grundrechte wie den Schutz vor Diskriminierung, Datenschutz, und das Recht auf Privatsphäre von Antragsteller:innen schwächen. Dass auch die Datenbanken der EU im Migrationsbereich massiv ausgebaut und neue Überwachungsmöglichkeiten geschaffen wurden, ist ein weniger diskutierter Aspekt der GEAS Reform. Dabei ist das Recht auf Asyl eine zentrale Errungenschaft und wichtige Lehre aus den Kriegen des 20. Jahrhunderts. Daher gilt es, die ständigen Verschärfungen nicht hinzunehmen.
Rechtsstaat – Quo vadis?
Der Einsatz von risikoreicher KI in der öffentlichen Verwaltung wird zudem ohne nennenswerte öffentliche Diskussion vorangetrieben. Jedoch haben alle Anwendungen, die wir untersucht haben, signifikante Risiken: ihre Fehleranfälligkeit kann irreführende Ergebnisse liefern, die zu falschen rechtlichen Entscheidungen führen können. Auch verspricht die KI, Verfahren objektiver, schneller und kostengünstiger zu gestalten. Da sie aber keine belastbaren Ergebnisse liefert, kann sie die bestehenden menschlichen Überprüfungen nicht ersetzen.
Der Einsatz von KI im Asylverfahren könnte ein Vorbote für die breitere Anwendung in der öffentlichen Verwaltung sein. Diese Entwicklung sollte uns Sorge bereiten, da die Gefahr besteht, dass auf diese Weise Grundrechte im Namen von Effizienz und Kostenersparnis ausgehöhlt werden: Datenschutz und Privatsphäre, Verfahrensrechte wie Transparenz und das Recht auf Begründungen, ja der Rechtsschutz selbst, stehen auf dem Spiel. Ist das der Rechtsstaat der Zukunft, den wir wollen?
8. September 2021 von Mag.ª Angelika Adensamer, MSc in Beiträge
Das digitale Asylverfahren 2040
Die Digitalisierung im Asylverfahren wirft grundlegende rechtliche Fragen auf.