Neues Buch enthüllt, wie 99 % der Fortune-500-Unternehmen die Technologie nutzen, um Vorstellungsgespräche zu „sehen“ und Lebensläufe zu „lesen“, um Einstellungsentscheidungen ohne menschliche Aufsicht zu treffen

Das Buch mit dem Titel „The Algorithm“ zeigt, wie sich die Einstellungswelt zu einem „Wilden Westen“ entwickelt, in dem unregulierte KI-Algorithmen Entscheidungen ohne menschliche Aufsicht treffen

Ein neues Buch enthüllt, dass KI den Arbeitsmarkt erobert hat, indem sie Lebensläufe liest und Vorstellungsgespräche beobachtet, um menschlichen Führungskräften die besten Kandidaten zu vermitteln.

Das Buch mit dem Titel „The Algorithm“ hat den Vorhang dafür geöffnet, wie sich die Einstellungswelt zu einem „Wilden Westen“ entwickelt, in dem unregulierte KI-Algorithmen Entscheidungen ohne menschliche Aufsicht treffen.

Künstliche Intelligenz entscheidet darüber, wer eingestellt und wer entlassen wird Sie überwachen alles, von dem, was die Leute in den sozialen Medien posten, bis hin zu ihrem Tonfall in Interviews, sagte die Autorin des Buches, Hilke Schellmann, gegenüber DailyMail.com.

Algorithmen können jetzt nicht nur vorschreiben, wer Vorstellungsgespräche bekommt, sondern dank der kontinuierlichen Überwachung am Arbeitsplatz auch, wer befördert oder entlassen wird (und sie können sogar Ihren Chef warnen, wenn Sie sich scheiden lassen).

Schellmann sagte, der CEO von ZipRecruiter habe ihm vor einigen Jahren gesagt, dass die Technologie mindestens 75 Prozent der Lebensläufe prüfe.

„Das war 2021; Mittlerweile sind es wahrscheinlich 100 Prozent. „Wir wissen, dass 99 Prozent der Fortune-500-Unternehmen bereits KI-Tools bei der Einstellung nutzen“, sagte sie.

Schellman sagte, dass es unvermeidlich ist, dass, wenn Sie sich heute bewerben, Ihr Lebenslauf lange bevor er von einem Menschen bearbeitet wird, von KI überprüft wird – und gibt Tipps, wie Sie an einem KI-gesteuerten Arbeitsplatz gesehen werden.

KI-Tools, die Personalvermittler verwenden, seien unzuverlässig, und selbst Personalvermittler wüssten nicht, wie sie funktionieren, und fügte hinzu, dass der KI-gestützte Bewerbungsprozess voller Diskriminierung sei und „offensichtlich seltsame“ Schlüsselwörter verwendet würden, erklärte sie.

Künstliche Intelligenz entscheidet bereits darüber, wer eingestellt und wer entlassen wird, indem sie alles überwacht, von dem, was Menschen in sozialen Medien posten, bis hin zu ihrem Tonfall in Interviews, sagte die Autorin des Buchs, Hilke Schellmann, gegenüber DailyMail.com

Künstliche Intelligenz entscheidet bereits darüber, wer eingestellt und wer entlassen wird, indem sie alles überwacht, von dem, was Menschen in sozialen Medien posten, bis hin zu ihrem Tonfall in Interviews, sagte die Autorin des Buchs, Hilke Schellmann, gegenüber DailyMail.com

Bei den KI-Tools handelt es sich oft um „Black Boxes“, in denen Personalvermittler nicht sehen können, wie sie funktionieren.

Die Technologie kann ungewöhnliche Vorstellungen über die Erfolgsaussichten eines Kandidaten entwickeln oder den Erfolg basierend auf dem Kirchenbesuch oder unterschiedlichen Nationalitäten vorhersagen – ein Prozess, der von Diskriminierung geprägt ist.

Das bedeutet zum Beispiel, dass Frauen oder behinderte Menschen im Einstellungsprozess diskriminiert werden könnten – aber da die Leute nicht wissen, welche KI-Tools verwendet wurden, ist es für sie schwierig, darauf zu reagieren.

„Die Anbieter, die KI-Tools bauen, wollen nicht unter die Lupe genommen werden und scheuen sich, über etwaige Probleme zu sprechen“, sagte Schellmann.

„Sie wollen in glühenden Marketingbegriffen darüber reden, oder? Wie schön ist es, die besten Leute zu finden – aber sie wollen die Black Box nicht für Tests oder Transparenz öffnen.

„Die Unternehmen, die diese KI-Tools nutzen, wollen oft auch nicht darüber reden, weil sie das Gefühl haben, dass sie ihren Ruf schädigen, wenn sich Bewerber darüber aufregen, dass KI eingesetzt wird und keine Menschen ihre Bewerbungen prüfen.“

Und sie sagte, dass Maschinen den Großteil der Ablehnungen erledigen.

Ein ehemaliger Anwalt für Arbeitsrecht, Matthew Scherer, mit dem Schellmann sprach, sagte, die verwendeten Tools seien „nicht für die Hauptsendezeit bereit“.

Das liegt daran, dass die Technologie „sehr einfach“ ist und reale Ergebnisse wie den Erfolg einer Person bei der Arbeit nicht vollständig vorhersagen kann.

Schellmann beschrieb viele Technologien, die zur Durchsicht von Lebensläufen eingesetzt werden, als „Schlangenöl“.

„Wir wissen, dass es Geld spart. „Wir wissen, dass es Arbeitskräfte spart, aber wir haben keinen Beweis dafür gesehen, dass es die qualifiziertesten Kandidaten auswählt“, sagte sie.

Viele Organisationen nutzen KI auch, um Aufzeichnungen von Videointerviews auszuwerten – auf der Suche nach Problemen wie dem „falschen Tonfall“, sagte Schellman.

„Leider ist das größtenteils legal“, fuhr sie fort.

„Die Europäische Union ist mit der Datenschutz-Grundverordnung etwas strenger.“ [GDPR] und andere Gesetze, aber die Vereinigten Staaten sind in dieser Hinsicht immer noch der Wilde Westen, abgesehen von einigen lokalen Gesetzen, die wir sehen.

„Es gibt einen in Illinois, wo man die Leute darüber informieren muss, indem man KI und Videointerviews einsetzt.“ Aber insgesamt gibt es hier noch nicht viel Regulierung.“

In Interviews verwendete KI-Tools ermitteln „Biomarker“ (wie Tonfall oder Bewegungen), die angeblich Emotionen entsprechen.

„Wenn Sie und ich miteinander reden, kann dieses Tool anhand des Tonfalls Ihrer Stimme oder anhand des Gesichtsausdrucks herausfinden, ob Sie ängstlich oder deprimiert sind.“ „Ja, und der Tonfall der Stimme“, sagte Schellmann.

„Was bedeutet es, ein Gesichtsausdruck in einem Vorstellungsgespräch?“

„Das macht einen nicht gut oder schlecht in einem Job.“ „Wir nutzen diese technologischen Signale, weil wir es können – aber sie haben oft keine große Bedeutung“,

Arbeitgeber scannen mittlerweile auch regelmäßig soziale Netzwerke wie X und LinkedIn mithilfe von KI-Algorithmen – auf der Suche nach Details wie Verweisen auf Lieder mit gewalttätigen Texten.

„Das könnte bedeuten, dass Sie als gewalttätige Person und als jemand abgestempelt werden, der nicht eingestellt werden sollte“, sagte Schellmann.

Viele Unternehmen führen dies im Rahmen einer Einstellungsüberprüfung durch, andere führen solche Scans jedoch kontinuierlich bei Mitarbeitern durch.

„Einige dieser Tools finden auch Dinge wie die Neigung zur Selbstverletzung“, verriet der Autor.

Algorithmen können jetzt nicht nur bestimmen, wer Vorstellungsgespräche bekommt, sondern dank der kontinuierlichen Überwachung am Arbeitsplatz auch, wer befördert oder entlassen wird

Algorithmen können jetzt nicht nur bestimmen, wer Vorstellungsgespräche bekommt, sondern dank der kontinuierlichen Überwachung am Arbeitsplatz auch, wer befördert oder entlassen wird

„In den Vereinigten Staaten könnte das illegal sein, weil es nicht erlaubt ist, Leute vor der Einstellung nach ihrem Gesundheitszustand zu fragen.“

„Es stellt sich auch die Frage: Warum sollte ein Unternehmen wissen wollen, ob Sie zu Selbstverletzungen neigen?“ Ist das tatsächlich hilfreich? Helfen sie diesen Menschen, ihren Mitarbeitern? Oder bestrafen sie sie?’

Unternehmen nutzen KI-Algorithmen, um die Persönlichkeit von Menschen anhand ihrer Social-Media-Beiträge zu beurteilen und die Sprache zu analysieren, um zu beurteilen, wie die Menschen „wirklich“ sind, sagte Schellmann.

„Unternehmen wollen unter die Haube der Menschen blicken, oder?“ „Sie wollen wissen, wer Sie sind, bevor sie Sie einstellen“, erklärte Schellmann.

Schellmann sagte, dass die Fähigkeit, „unter die Haube“ von Menschen zu blicken, etwas ist, wonach sich Unternehmen seit Jahrzehnten sehnen – was dazu führt, dass sie sich auf ungetestete oder gefälschte Technologien wie die Handschriftanalyse verlassen.

Die gleiche Aufgabe übernehmen KI-Algorithmen, die Videos von Vorstellungsgesprächen durchforsten.

Unternehmen, die jemanden einstellen möchten, der „schnell lernt“ (damit sie sich an eine sich verändernde technologische Welt anpassen können), verlassen sich häufig auf solche Technologien, um vorherzusagen, wer gut zu ihnen passt, sagte Schellmann.

Aber es sei ein Fehler, sich auf die Persönlichkeit zu verlassen (und auf ungetestete KI-Algorithmen, um Menschen mit dieser spezifischen Eigenschaft auszustatten), argumentiert Schellman.

Schellman sagte: „Was wir aus der Wissenschaft wissen, ist, dass die Persönlichkeit etwa fünf Prozent über den Erfolg im Job aussagt.“ Das ist also sehr, sehr wenig.

„Wir überwinden oft unsere Persönlichkeit. Ich bin ziemlich schüchtern und daran muss ich arbeiten. Wenn ich zu Empfängen und Partys gehe, muss ich daran arbeiten, auf Fremde zuzugehen. Wir können unsere Persönlichkeit am Arbeitsplatz und an anderen Orten überwinden.

„Es ist eigentlich fraglich, ob wir es nutzen sollten.“ Aber es ist einfach zu bedienen. Es ist supergünstig. Es ist einfach eine einfache Möglichkeit, und deshalb tun sie es.“

Wie Sie erfolgreich sein können, wenn die KI Ihren Lebenslauf liest (und sich wahrscheinlich auch Ihr Vorstellungsgespräch ansieht)

Schellmann rät Bewerbern, 60 bis 80 % der Schlüsselwörter aus der Stellenbeschreibung zu treffen (nicht 100 %), da KI-Tools Sie möglicherweise davon abhalten, die Stellenbeschreibung einfach zu kopieren.

Schellmann sagte: „Sie möchten einen sehr einfachen Lebenslauf haben.“ Der alte Rat lautete oft, sich durch coole Kolumnen und Grafiken hervorzuheben. Keine Grafiken, da eine Maschine das nicht lesen kann: keine Bilder, keine Spalten.’

Stattdessen rät Schellmann den Bewerbern zu Stichpunkten und einer klaren, maschinenlesbaren Sprache, kurz und prägnant.

Sie sagte, dass mehrere Website-Dienste (einschließlich JobScan) Ihnen dabei helfen können, herauszufinden, ob Ihr Lebenslauf oder Ihre Bewerbung maschinenlesbar ist.

Sie laden die Stellenbeschreibung und einen Lebenslauf hoch, um die Überschneidung zu überprüfen.

Der aktuelle Arbeitsmarkt sei ein „Katz- und Mausspiel“, bei dem Bewerber oft große KI-Sprachmodelle wie ChatGPT nutzen, um Anschreiben zu verfassen, sagte Schellmann.

Schellman sagte: „Menschen verfassen den Text nicht wirklich, und die Menschen bewerten die Anschreiben und Lebensläufe nicht mehr.“ Es heißt Maschinen gegen Maschinen.‘

Schellmann empfiehlt den Einsatz von KI-Systemen wie ChatGPT, um zu bewerten, welche Fragen Ihnen am wahrscheinlichsten gestellt werden – und auch bei nicht-live-Interviews kann Ihnen ChatGPT dabei helfen, Antworten zu finden.

Wenn Sie in Interviews von Maschinen bewertet werden, geben Sie lange Antworten, die bestimmte Szenen beschreiben, rät Schellman – denn je kürzer die Antwort, desto schwieriger ist es für Maschinen, sie zu verstehen.

Schellman sagte, einige schlagen auch vor, in die Kamera zu schauen, um den Algorithmen zu zeigen, dass man „beschäftigt“ ist.

Schellman sagte, der andere wichtige Punkt bestehe darin, sich auf so viele Stellen wie möglich zu bewerben – auch auf solche, für die man das Gefühl habe, nicht qualifiziert zu sein.

„Es gibt einen deutlichen Unterschied zwischen Frauen und Männern: Frauen bewerben sich erst, wenn sie zu 100 Prozent qualifiziert sind, während Männer sich bewerben, wenn sie zu 50 Prozent qualifiziert sind.“ Aber wenn Maschinen bewerten, ob Sie qualifiziert sind oder nicht, bewerben Sie sich, wenn Sie denken, dass Sie zu 60 % qualifiziert sind.“

Schellmann sagte, die Antwort sei, sich weiter zu bewerben, auch wenn man es 150 oder 200 Mal tun müsse.

Sie sagte: „Lassen Sie sich nicht entmutigen.“ Es ist wie ein Zahlenspiel und kann für die Leute wirklich frustrierend sein. Aber es sind nur Maschinen, die es am anderen Ende lesen und Sie auf einen Ja- oder Nein-Stapel legen.

„Und es gibt kaum Kontrolle darüber? Daher ist eine Massenanwendung die einzige Möglichkeit, dies zu tun. ‘

source site

Leave a Reply