Künstliche Intelligenz beim Bewerbungsgespräch

Bewerbungsgespräch

Der Weg zum Job ist mit allerlei Hindernissen verbunden – eines davon ist das Bewerbungsgespräch.

Nicht selten werden Menschen hierbei auch von Vorurteilen beeinflusst, was die Entscheidung für den richtigen Kandidaten relativ schwierig macht. Immer wieder stellt sich daher die Frage, ob es nicht vielleicht von Vorteil wäre, einem Computer diese Auswahl zu überlassen?

Diese Welt besteht aus Vorurteilen und ein sehr gutes Beispiel hierfür ist die Arbeitswelt: Manche Arbeitgeber schätzen bestimmte Bewerber schlechter ein und stellen sie daher nicht ein, da sie oftmals einen Migrationshintergrund aufweisen oder – traurig aber wahr – aus einer Minderheit stammen.

Algorithmen für Urteile zuständig

Aus diesem Grund wäre es an der Zeit, die unfairen Urteile der Menschen gegen die fairen einer KI einzutauschen. Besonders im Bereich Fairness sind Menschen sehr schnell zu beeinflussen, daher könnte in solchen Fällen ein Computer die ideale Hilfe sein. Denn Urteile sollten gefällt werden, ohne sich nur auf die äußeren Gegebenheiten eines Menschen zu konzentrieren.

Dasselbe geht auch von Justitia aus, der Göttin der Gerechtigkeit. Diese wird mit einer Augenbinde dargestellt, damit sie niemanden nur wegen dessen Aussehen verurteilt. Warum also nicht diese Entscheidungen einer KI überlassen? So wäre es vielleicht sogar möglich, alle Ungerechtigkeiten zu beseitigen.

Mit einer KI zu mehr Fairness – klingt doch eigentlich gar nicht so schlecht, oder? Dennoch ist es nicht so einfach, wie anfangs gedacht. In manchen Fällen kann es sogar passieren, dass sich KI’s dieselben Diskriminierungsmuster aneignen.

Ein gutes Beispiel hierfür ereignete sich in der Strafjustiz: Um Bewährungsentscheidungen zu unterstützen und Rückfallwahrscheinlichkeiten zu berechnen, wurde ein Computersystem entwickelt. Dieses System machte jedoch sowohl bei weißen, als auch bei schwarzen Menschen unterschiedliche Fehler: Die Weißen kamen noch einmal glimpflich davon, bei den Schwarzen waren diese Fehler jedoch relativ ungünstig. Zufall? Wohl eher nicht.

In anderen Worten heißt dies also, dass selbst auf Algorithmen nicht immer Verlass ist und auch Computer in den schlimmsten Fällen mit der Diskriminierung fortfahren könnten.

Ein ähnliches Verhalten wurde auch bei den Google Anzeigen bemerkt: Hierbei wurden hoch bezahlte Führungsjobs grundsätzlich nur Männern angezeigt. Frauen wiederum konnten diese Anzeigen gar nicht sehen.

Klare Muster erkennen

Dennoch sollten nicht sofort voreilige Urteile getroffen werden. Es ist jedoch ein klares Schema zu erkennen, dass Menschen aus benachteiligten Gruppen deutlich seltener an Führungspositionen gefunden werden als andere. Ähnliche Muster wurden auch bei den Themen Geschlecht und Ethnie festgestellt.

Safiya Umoja Noble hat in ihrem Buch „Algorithms of Oppression“ ein sehr gutes Beispiel geliefert. Noch nicht vor allzu langer Zeit wurden beim Suchbegriff „black girls“ nur pornografische Inhalte angezeigt – dies scheint Werbekunden anscheinend eher interessiert zu haben. Negative und schädliche Effekte gegenüber den Betroffenen wurden als nebensächlich erachtet.

In diesem Fall können jedoch Algorithmen besondere Dienste zum Schutz dieser Gruppen aufweisen. Somit könnten zumindest auf diese Weise schädliche Vorurteile mit der Hilfe von KI’s reduziert werden.

Datenmuster nicht immer vorschreiben

Der Großteil an algorithmischen Entscheidungssystemen besitzt Datensätze voller Ungerechtigkeit, die sich während der Jahre angesammelt haben. Die Suche nach diesen Fehlern kann sich daher als überaus nützlich erweisen.

Werden dennoch diese alten Algorithmen dazu verwendet, um Entscheidungen zu treffen, kann sich dies als überaus problematisch herausstellen. Denn, wie bereits erwähnt, muss und sollte nicht jedes Datenmuster genauso fortgeschrieben werden. Werden daher KI’s dazu verwendet, um unterschiedliche Merkmale von besonders fleißigen Angestellten zu eruieren, kann sich dies auch in Zukunft auf das Bewerbungsverfahren auswirken. Zudem ist es auch nicht ganz klar, welche Kriterien einen wirklich effizient arbeitenden Mitarbeiter überhaupt ausmachen.

Kommt zum Beispiel ein Algorithmus zu dem Entschluss, dass die meisten guten Angestellten eine Brille tragen, könnte das System vorschlagen, nur noch Mitarbeiter mit Brille einzustellen. Dasselbe gilt für Menschen, die besonders geschickt darin sind, andere um den Finger zu wickeln und Erfolge nur für sich selbst einzuheimsen.
Algorithmische Bewerberauswahl in Zukunft möglich?

Da es in den USA bereits gang und gäbe ist, dass Systeme das Bewerbungsverfahren mitverfolgen, lässt dies dennoch zu wünschen übrig. Anstatt Misserfolge und berufliche Erfolge von abgelehnten Bewerbern in das System einfließen zu lassen, gehen diese wichtigen Daten verloren. Ob zudem eine unfaire Behandlung von bestimmten Bewerbergruppen besteht, kann ebenfalls nicht gesagt werden.

Sollte dennoch jemand einen Job bekommen, wäre es vielleicht eine gute Idee, deren Leistungen genauer und gerechter zu erfassen. Darüber hinaus stellt sich die Frage, ob es wirklich sinnvoll ist, alles, was im Arbeitsalltag geschieht, auch wirklich mitschneiden zu müssen? Datenschützer stellen sich bei dieser Vorstellung merklich die Haare zu Berge. Auf die Frage, wofür dies alles überhaupt gemessen werden muss, kann ebenfalls keine exakte Antwort gegeben werden.

Niemand versteht dies so recht, dennoch wäre es gar nicht verwunderlich, wenn manche Angestellten schnell einen Weg finden würden, diesen Algorithmus zu übergehen. Ob KI’s daher die ideale Lösung sind, ist fraglich. Fakt ist: Mit einer guten Balance zwischen Mensch und Computer könnte jedoch das ein oder andere Ziel schneller und vor allem präziser erreicht werden.

Verwandte Beiträge

Leave a comment