Anfrage | 30.09.2019

Anwendung Künstlicher Intelligenz (KI) bei der Stadt München und deren Beteiligungsgesellschaften und Tochterunternehmen

Anfrage

Die Stadt München hat eine Digitalisierungsstrategie formuliert, in der die Anwendung Künstlicher Intelligenz (KI) angedacht ist (>>>hier, S.9). Erklärtes Ziel ist dabei, dass neue Technologien verantwortungsbewusst und zum Wohl der Stadtgesellschaft eingesetzt werden. Gerade bei Anwendungen Künstlicher Intelligenz, die große Datenbestände analysieren und daraus selbstständig Schlüsse ziehen, Entscheidungen vorbereiten oder gar treffen, stellen sich besondere Herausforderungen.
Der Einsatz von KI ist vor allem bei Bewerbungs- und Einstellungsverfahren nicht unproblematisch. So faszinierend selbstlernende Systeme auch erscheinen mögen, sie bilden erst einmal nur die gesellschaftliche Realität ab, einschließlich bekannter Missstände. Algorithmen dürfen aber nicht für alle Zukunft die Tatsache festschreiben, dass Frauen, People of Colour und andere Minderheiten heute in Führungspositionen unterrepräsentiert sind, dürfen aber. Leider gibt es genügend Beispiele für solche systematische Diskriminierung, sowohl in der Privatwirtschaft als auch im öffentlichen Bereich.

4 Beispiele:

·       Ein automatisches Bewertungssystem von Bewerbungen bei Amazon hat Frauen grundsätzlich abgewertet, nur weil in der Vergangenheit überwiegend Männer eingestellt wurden (>>>hier).

·       Eine Fotografin Helga Schmidt bekommt weniger Anfragen für Aufträge als ein Fotograf Helga Schmidt, weil Suchalgorithmen u.a. die männliche Berufsbezeichnung bevorzugen (>>>hier).

·       Der Arbeitsmarktservice (AMS) in Österreich plant Arbeitsmarktchancen von Arbeitslosen verbunden mit Fördermaßnahmen von einem Computerprogramm ausrechnen zu lassen, obwohl bekannt ist, dass Ältere, gesundheitlich Beeinträchtigte und Frauen mit Kindern automatisch schlechter eingestuft werden (>>>hier).

·       Die Organisation „ProPublica“ hat nachgewiesen, dass Afro-Amerikaner in Predictive Policing Systems von Algorithmen höhere Risikobewertungen erhalten als weiße Kriminelle. Es wird also eher davon ausgegangen, dass sie erneut straffällig werden, was sich wiederum auf die Strafe auswirkt (>>>hier).

Daher fragen wir:

1.     Gibt es in der Münchner Stadtverwaltung, bei den städtischen Betrieben oder darüber hinaus für die Stadtgesellschaft Anwendungen, die im weitesten Sinne als Anwendungen Künstlicher Intelligenz verstanden werden können?

2.     Ist der LHM bekannt, wie Unternehmen, die sie beauftragt (z.B. Beratungsfirmen, Siemens, Allianz …), ihre Mitarbeiter*innen einstellen? Wird nachgefragt, ob und wie sie KI benutzen?

3.     Wie sieht es diesbezüglich bei den städtischen Beteiligungsgesellschaften oder Tochterunternehmen aus? Hat die LHM Informationen darüber, wie die Auswahl von Bewerber*Innen für Einstellungsgespräche funktioniert?

4.     Sind solche Anwendungen der Künstlichen Intelligenz in Planung bzw. für welche Einsatzbereiche?

5.     Wie wird dabei sichergestellt, dass der Einsatz von künstlicher Intelligenz den betroffenen Bürgern transparent gemacht wird?

6.     Welche Maßnahmen sind entschieden oder geplant, damit solche Anwendungen diskriminierungsfrei sind?

Wir bitten, wie in der Geschäftsordnung des Stadtrates vorgesehen, um eine fristgemäße Bearbeitung unseres Antrages.

 

Initiative:
Anja Berger
Sebastian Weisenburger

Mitglieder des Stadtrates

 

[1] München. Digital. Erleben, Digitalisierungsstrategie der Landeshauptstadt München, Sitzungsvorlage Nr. 14-20 / V 14953.
[2] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G
[3] https://www.sueddeutsche.de/karriere/frauen-und-karriere-frauen-sind-im-netz-schwieriger-zu-finden-1.3492732
[4] https://www.derstandard.at/story/2000089170237/algorithmus-bewertet-arbeitslose-wie-experten-den-vorstoss-sehen

 

[5] https://www.spiegel.de/netzwelt/netzpolitik/rassistische-algorithmen-ki-forscherin-mutale-nkonde-im-interview-a-1271778.html)