Künstliche Intelligenz entscheidet immer öfter über die Zukunft von Hartz IV Beziehern

Lesedauer 2 Minuten

Künstliche Intelligenzen sollen immer mehr in Jobcentern über die Zukunft von Erwerbslosen entscheiden

Jobcenter und Arbeitsagenturen setzen verstärkt sogenannte Künstliche Intelligenzen (KI) ein, um beispielsweise die Chancen von Hartz IV Bezieher auf dem Arbeitsmarkt zu berechnen oder psychologische Gutachten auszuwerten. Das ergeht aus dem neuen „Atlas der Automatisierung“ der Forschungsgruppe “Algorithm Watch”. In Schweden kam es durch den Einsatz solcher KI´s bereits zu schwerwiegenden Berechnungsfehlern.

In den Behörden sollen zunehmend KI´s über die Betreuung der Arbeitssuchenden entscheiden. Die Bundesagentur für Arbeit erhofft sich dabei, Arbeitsabläufe zu erleichtern und Wartezeiten zu verkürzen. Dabei werden Systeme (ADM-Systeme) eingesetzt, die automatisch Entscheidungen treffen, ohne den Menschen tatsächlich zu Gesicht zu bekommen.

Hohe Fehleranfälligkeiten

Die Verbreitung von Systemen für automatisierte Entscheidungen, sogenannte ADM-Systeme, bringt allerdings neue Probleme mit sich. “Algorithm Watch” sieht das mit Sorge, denn solche Systeme gelten als Fehleranfällig, wenn sie schlecht programmiert sind oder sich sogenannte Bias einschleichen. “Das kann beispielsweise dazu führen, dass auf Basis des Geschlechts diskriminiert wird“, warnt Lorenz Matzat von Algorithm Watch gegenüber “Business Insider”.

Wie schwer es sein kann, Bewerberprofile richtig einschätzen zu können, zeigte ein Versuch des Konzerns “Amazon”. Dieser wollte eine solche Software einsetzen und beendete das Projekt im Jahre 2017, weil es zu Diskriminierungen gegenüber von Frauen innerhalb der Software kam. Diese konnte trotz vieler Versuche nicht überwunden werden.

“Algorithm Watch” ist nicht grundsätzlich gegen den Einsatz solcher Technologien. Die darin verankerten Regeln müssen jedoch offengelegt werden. „Wir fordern eine Nachvollziehbarkeit, entweder durch eine Aufsichtsbehörde oder ein anderes Verfahren“, sagt Matzat. Bisher sind die Jobcenter nämlich nicht dazu verpflichtet, wie die KI zu welchen Entscheidungen gekommen ist, obwohl im Grundsatz jeder Bürger ein Anspruch auf Einsicht von Akten oder schriftliche Auskünfte hat.

Grundrechte in Gefahr

Bei einer KI ist das nicht so. Hier verbergen sich die Entscheidungen hinter einem Algorithmus. Aus diesem Grund fordern die Informationsfreiheitsbeauftragten aus Bund und Ländern in einem gemeinsamen Papier einen TÜV für Algorithmen. Zudem sollten zuständige Stellen prüfen, ob diese überhaupt die Grundrechte von Bürgern wahren.

Sebastian Bertram von “Gegen-Hartz” mahnt, wenn “ein Jobsuchender geringere Chancen auf dem Arbeitsmarkt bescheinigt bekommt, welche durch eine KI errechnet wurde, dann muss auch offengelegt werden, wie diese Berrechnung zustande kam”. Das hat nämlich weitreichende Folgen in der Betreuung von Hartz IV Leistungsberechtigte. So ist zu befürchten, dass angeblich weniger Qualifizierte aufs Abstellgleis geraten und eine Förderung als überflüssig erscheint. “Die Menschen werden dann einfach im Stich gelassen”, so die Befürchtung von Bertram.

KI errechnete falsche Bedarfe in Schweden

Wie folgenschwere Fehler entstehen können, zeigt auch ein aktueller Fall in Schweden. Dort errechnete eine KI die Sozialleistungen von Erwerbslosen. Der Verwaltungscomputer errechnete fehlerhaft den Bedarf, so dass zig Tausende Anspruchsberechtigte keine Sozialleistungen zugesprochen wurden. 10 -15% der Entscheidungen des Computers waren nämlich falsch.

In Deutschland wird ebenfalls an einem solchen Berechnungsprogramm gearbeitet. Der Arbeitstitel lautet „3A1“ und steht für automatisierte Antragsbearbeitung beim Arbeitslosengeld. Bis 2020 soll das Programm fertig gestellt sein. Schon jetzt ist zu vermuten, dass es auch hier zu massiven Fehlern kommt.