Konnten Sie an der Transform 2022 nicht teilnehmen? Sehen Sie sich jetzt alle Summit-Sessions in unserer On-Demand-Bibliothek an! Schau hier.


Das Justizministerium (DOJ) warnte kürzlich davor, dass die automatisierte Überprüfung von Bewerbungen das Potenzial hat, behinderte Arbeitnehmer rechtswidrig zu diskriminieren und damit gegen den Americans with a Disability Act (ADA) verstößt. Der Bericht skizzierte das Potenzial für Diskriminierung; die angemessenen Vorkehrungen, die Arbeitgeber bieten sollten, wenn sie computergestützte Screening-Tools nutzen; und die Sicherheitsvorkehrungen, die für die Zukunft erforderlich sind. Die jüngste Pressemitteilung des Ministeriums ist Teil von a größeres Muster von Regierungsbehörden, die sich bemühen, Anleitungen und Rechtsstreitigkeiten zu KI-basierten Einstellungstools bereitzustellen, die zuvor ungeprüft blieben, was zu hohen Ablehnungsraten bei stärker benachteiligten Arbeitnehmern, einschließlich Menschen mit Behinderungen, führte.

Wie sich KI auf „versteckte Arbeiter“ auswirkt

Da hybride oder vollständig entfernte Positionen zunehmend zur Norm werden, besteht für viele arbeitslose und unterbeschäftigte Amerikaner die Möglichkeit zu mehr Inklusion und stärkerer Teilhabe am Arbeitsmarkt – sei es die Frau im Rollstuhl, für die der tägliche Weg ins Büro eine logistische Herausforderung darstellt Herausforderung, oder der Vater, der seine Kinder um 3:30 Uhr von der Schule abholen muss. Dennoch werden sie weiterhin häufig automatisch abgelehnt, bevor ihre Lebensläufe überhaupt auf dem Schreibtisch einer Person landen.

In einer Zeit, in der Unternehmen mit hohen Fluktuationen zu tun haben und a Boom der Nachfrage Für Talente scheint es kaum so, als könnten es sich amerikanische Unternehmen leisten, qualifizierte Bewerber abzulehnen. Dennoch verwenden viele KI-Tools, um Bewerber zu überprüfen. Diese umfassen alles von einfachen Programmen zum Abgleich von Lebensläufen und Stellenbeschreibungen bis hin zu komplexeren Programmen wie „Bewertungssystemen“ für Lebensläufe oder Tools für Videointerviews. Während Computerprogramme oft als weniger voreingenommen angesehen werden können, sind sie es nur so unvoreingenommen wie die Daten, mit denen sie trainiert werden, und oft auch die Teams, die sie erstellt haben. Ein Tool für Videointerviews, das behauptet, den Enthusiasmus oder das Fachwissen eines Kandidaten zu messen, müsste wissen, wie man den Akzent, die Stimmlage oder die Sprechweise des Kandidaten versteht. Ein Lebenslauf-Screening-Tool, das nicht auf Lebensläufe mit Beschäftigungslücken trainiert wurde, könnte neue Eltern zu Unrecht herausfiltern, nicht weil sie nicht für einen Job qualifiziert sind, sondern weil es nicht darauf trainiert wurde, Menschen wie sie zu bewerten.

Unternehmen, die Computer-Screening-Programme verwenden, sind sich ihrer Mängel sehr bewusst. Ein aktueller Bericht von Accenture und Harvard Business Review (HBS) fanden heraus, dass 88 % der Arbeitgeber zustimmen, dass „qualifizierte hochqualifizierte Kandidaten“ aufgrund dieser Systeme herausgefiltert wurden. Tatsächlich stellt der Bericht fest, dass die USA teilweise aufgrund dieser automatisierten Überprüfungssysteme schätzungsweise 27 Millionen „versteckte Arbeiter“ haben. Dazu gehören Amerikaner mit Behinderungen, Betreuer, Veteranen, Einwanderer, Flüchtlinge, Rentner, die auf eine Rückkehr an den Arbeitsplatz hoffen, Langzeitarbeitslose oder Personen ohne Hochschulabschluss. Personen, die in diese Kategorien fallen, sind bereit, in der Lage und streben danach zu arbeiten, können es aber nicht durch das Bewerbungsverfahren schaffen, um die Gelegenheit dazu zu bekommen. Dies ergibt ein grundlegend anderes Bild der Arbeitslosigkeit in den USA, die die Gesamtzahl der arbeitslosen Amerikaner derzeit auf etwa 5,9 Millionen beziffert April 2022. konform

So stellen Sie die Einhaltung der ADA-Richtlinien sicher

Es gibt einfache, aber wirkungsvolle Möglichkeiten, wie Unternehmen die negativen Auswirkungen automatisierter Screenings aktiv eindämmen und Verstöße gegen die ADA-Richtlinien vermeiden können.

  1. Achten Sie darauf, wie Kandidaten bewertet werden, die nicht in der Mehrheit sind, und berücksichtigen Sie atypische berufliche Laufbahnen. Dazu könnten „verborgene Arbeitnehmer“ wie Frauen, Menschen mit Behinderungen oder Rückkehrer aus Karriereunterbrechungen gehören. Die Normalisierung kleiner Unterschiede im Arbeitsverlauf, wie z. B. eine Mutterschaftspause, und die Sicherstellung, dass die Technologie diese Unterschiede nicht gegen Kandidaten anrechnet, kann wirkungsvoll sein, um sogenannte unsichtbare Kandidaten durch die Tür zu bringen.
  2. Messen Sie jeden Teil des Einstellungsprozesses, einschließlich der ersten Computerauswahl, Gesprächsrunden, anderer Bewertungen und der Einarbeitung. Ein genaues Auge auf die Metriken jeder Bewertungsebene kann dabei helfen, auftretende Probleme zu erkennen. Es sollten Maßnahmen ergriffen werden, wenn es einen Teil des Einstellungsprozesses gibt, in dem unterschiedliche Kandidaten überproportional herausgefiltert werden oder ausscheiden.
  3. Insbesondere beim ADA ist das Testen der Barrierefreiheit von entscheidender Bedeutung. Unternehmen sollten ihre Website, ihren Bewerbungsprozess und alle anderen Tools oder Bewertungen, die bei der Einstellung verwendet werden (z. B. Bewerbungen für Videointerviews oder technische Bewertungen), von einem Drittanbieter testen lassen, um sicherzustellen, dass Personen nicht abgewiesen werden, noch bevor sie die Möglichkeit haben, sich zu bewerben .
  4. Schließlich muss sichergestellt werden, dass die Vielfalt der Einstellung, ob es sich um Kandidaten mit Behinderungen oder andere Arbeitnehmer handelt, ein Thema ist, das der gesamten Organisation gehört. Wie im HBS-Bericht erwähnt, engagieren sich viele Unternehmen mit diesen Gruppen von verdeckten Arbeitern, aber sie tun dies über ihre Corporate Social Responsibility (CSR)-Programme und nicht über ihre Personalabteilung. Während alle Diversity-Bemühungen gut sind, hält dies die Vorstellung aufrecht, dass die Einstellung dieser Kandidaten gut ist ein Akt der Nächstenliebe. In Wirklichkeit sind diese Arbeitnehmer wertvolle Mitwirkende, die die gleichen Möglichkeiten wie alle anderen erhalten wollen und verdienen.

Der neue DOJ-Bericht ist ein Schritt in die richtige Richtung. Während viel über neue Rechtsstreitigkeiten gesprochen wird, um den Einsatz von KI bei der Einstellung zu regulieren, können bestehende Richtlinien und Gesetze für gleiche Beschäftigung wie das ADA bereits jetzt genutzt werden, um bessere Regeln für KI-Screening-Tools zu schaffen. Diese Tools kosten Unternehmen starke Arbeitskräfte, aber was noch wichtiger ist, sie fügen Millionen von Amerikanern unangemessenen Schaden zu, die ohne eigenes Verschulden die Beschäftigungsmöglichkeiten verlieren.

Rena Nigam ist Gründerin und CEO von Meytier.

DatenEntscheider

Willkommen in der VentureBeat-Community!

DataDecisionMakers ist der Ort, an dem Experten, einschließlich der technischen Mitarbeiter, die mit Daten arbeiten, datenbezogene Erkenntnisse und Innovationen austauschen können.

Wenn Sie über innovative Ideen und aktuelle Informationen, Best Practices und die Zukunft von Daten und Datentechnologie lesen möchten, besuchen Sie uns bei DataDecisionMakers.

Vielleicht denken Sie sogar darüber nach, einen eigenen Artikel beizusteuern!

Lesen Sie mehr von DataDecisionMakers

Leave a Comment