Evitando violações da ADA ao usar a tecnologia de emprego de IA

A inteligência artificial oferece a perspectiva de libertar as decisões dos preconceitos humanos. Muitas vezes, no entanto, isso pode resultar em que esses preconceitos sejam involuntariamente refletidos e reforçados, apesar de sua suposta objetividade.

Em 12 de maio a Comissão de Igualdade de Oportunidades e o Ministério da Justiça Diretrizes publicadas abordando a discriminação de deficiência ao usar inteligência artificial para decisões de emprego. As diretrizes do EEOC fazem parte deste maior iniciativa para garantir que a IA e “outras novas ferramentas usadas na contratação e outras decisões de emprego cumpram as leis federais de direitos civis que a agência impõe”.

Tecnologias de emprego habilitadas para IA podem violar a ADA

Muitas empresas hoje usam tecnologias habilitadas para IA na contratação, promoção e outras decisões de emprego. Exemplos disso são ferramentas que classificam candidaturas ou currículos com base em determinadas palavras-chave; software de entrevista em vídeo para avaliação de expressões faciais e padrões de fala; e software que é classificado como “adequado para o trabalho” com base em personalidades, habilidades ou habilidades.

O Americans with Disabilities Act proíbe empresas com 15 ou mais funcionários de discriminar com base em uma deficiência. Entre outras coisas, a ADA exige que os empregadores façam adaptações razoáveis ​​para pessoas com deficiência, inclusive durante o processo de inscrição, a menos que isso imponha dificuldades não razoáveis. Um sistema habilitado para IA pode violar a ADA se falhar na triagem adequada de um indivíduo por causa de uma deficiência, quer o empregador pretenda ou não esse resultado.

Por exemplo, a tecnologia de emprego pode ser difícil de usar, mesmo para alguém com deficiência. Assim, quando necessário, os empregadores devem fornecer aos candidatos ou funcionários adaptações razoáveis ​​para permitir que a tecnologia os avalie de forma justa e precisa. Por exemplo, se um teste baseado em computador exigir que os candidatos escrevam uma redação, o empregador pode precisar fornecer software de reconhecimento de fala para candidatos com deficiência visual.

Em segundo lugar, a tecnologia que busca informações médicas ou relacionadas à deficiência também pode implicar em ADA. De particular preocupação são as solicitações relacionadas a decisões de contratação que “provavelmente revelarão informações sobre uma deficiência” – como informações sobre a saúde física ou mental do candidato.

Por fim, as tecnologias habilitadas para IA podem violar a ADA ao eliminar candidatos com deficiência que possam fazer o trabalho com ou sem adaptações razoáveis. Para ilustrar, a contratação de tecnologias que prevêem o desempenho provável comparando candidatos com funcionários atualmente bem-sucedidos pode excluir inadvertidamente candidatos totalmente qualificados com deficiência (o que também pode acontecer com candidatos de outras classes protegidas se os empregadores não forem cuidadosos).

Evitando violações da ADA

Independentemente de a tecnologia de emprego habilitada para IA ser desenvolvida internamente ou terceirizada, os empregadores precisam garantir que não estejam eliminando ilegalmente pessoas com deficiência. Como explica a EEOC, os empregadores devem apenas “desenvolver e selecionar instrumentos que medem as habilidades ou qualificações que são genuinamente necessárias para o trabalho – mesmo para indivíduos que tenham direito a uma adaptação razoável no local de trabalho”.

Um empregador que desenvolve seu próprio teste pode se proteger trazendo especialistas em diferentes tipos de deficiências ao longo do processo de desenvolvimento – um lembrete de que a diversidade de origens entre aqueles que desenvolvem e revisam a IA protege contra preconceitos.

Um empregador que usa a tecnologia comprada ainda pode ser responsabilizado se o processo de avaliação da ferramenta violar a ADA. As diretrizes sugerem falar com o provedor para fazer adaptações razoáveis ​​contra a discriminação por deficiência.

Como explicamos na perspectiva da lei Bloomberg, os sistemas de IA geralmente consistem em vários componentes criados por diferentes pessoas ou empresas. Para entender verdadeiramente o risco representado por um produto desenvolvedor pode ser necessário “descascar a cebola” camada por camada. Os contratos de aquisição devem atribuir claramente as responsabilidades pela avaliação e mitigação de riscos, e os compradores devem estar satisfeitos com o rigor dos processos de gerenciamento de risco do fornecedor.

A EEOC recomenda “práticas promissoras” para evitar violações da ADA. A tecnologia ocupacional deve: (a) indicar claramente que estão disponíveis adaptações razoáveis ​​para pessoas com deficiência; (b) fornecer instruções claras para solicitação de acomodação; e (c) garantir que o pedido de adaptação razoável não reduza a capacidade do requerente de fazer uma adaptação razoável.

A agência também sugere que, antes da avaliação, o empregador forneça informações completas sobre a tecnologia de contratação, incluindo (i) quais qualidades ou atributos a ferramenta foi projetada para medir, (ii) os métodos de medição e (iii) fatores que podem afetar a avaliação.

O contexto mais amplo

As orientações do EEOC e do DOJ sobre a ADA fazem parte de uma maré crescente de regulamentação global de algoritmos e IA. A Comissão Federal de Comércio é Planejando a criação de regras “para coibir práticas de segurança negligentes, limitar abusos de privacidade e garantir que a tomada de decisões algorítmicas não leve a discriminação ilegal.” O Escritório de Política de Ciência e Tecnologia da Casa Branca formula uma “Declaração de Direitos de IA”.

Estados e governos locais também começaram a monitorar de forma mais agressiva a tomada de decisões algorítmicas. Illinois exige que os empregadores que usam IA revisem entrevistas em vídeo para notificar os candidatos e obter consentimento. A cidade de Nova York aprovou recentemente sua própria lei exigindo que as ferramentas automatizadas de decisão de contratação sejam submetidas a uma “auditoria parcial” anual por um auditor independente.

Candidaturas de emprego habilitadas para IA também podem estar sujeitas a leis de privacidade, incluindo aquelas que regem a tomada de decisões automatizadas, a coleta de informações biométricas ou outras informações de identificação pessoal ou o uso de tecnologia de reconhecimento facial.

No exterior, a União Europeia está considerando uma lei abrangente de IA que foi sugerido em abril de 2021. O governo britânico apresentará seu plano de governança de IA este ano.

Além disso, a Administração do Ciberespaço da China adotou seu Disposições para o Gerenciamento de Recomendações Algorítmicas dos Serviços de Informações da Internet Janeiro e será concluído outro regulamento– em conteúdo gerado por algoritmos, incluindo tecnologias como realidade virtual, geração de texto, conversão de texto em voz e “deep fakes”. O Brasil também está desenvolvendo Regulamento de IA.

A orientação do EEOC e do DOJ nos lembra que mesmo leis antigas como a ADA têm muito a dizer sobre o uso adequado de tecnologia de ponta.

Este artigo não representa necessariamente a opinião do Bureau of National Affairs, Inc., editor da Bloomberg Law e Bloomberg Tax, ou de seus proprietários.

Escreva para nós: orientações para autores

Informações sobre o autor

Allon Kedem é sócio dos Tribunais de Apelação e da Prática da Suprema Corte da Arnold & Porter. Ele argumentou perante a Suprema Corte dos EUA doze vezes. Anteriormente, atuou como assistente no Gabinete do Procurador-Geral do Departamento de Justiça, onde atuou em casos relacionados ao direito constitucional, legislativo e administrativo.

Peter Schildkraut é co-líder da equipe de tecnologia, mídia e telecomunicações da Arnold & Porter, fornecendo consultoria estratégica sobre IA, uso de espectro, banda larga e outros assuntos regulatórios de TMT. Ele representa clientes na elaboração de regras, disputas administrativas e transações, e aconselha sobre conformidade legal e investigações internas.

Josh Alloy atua como consultor na prática trabalhista e trabalhista da Arnold & Porter, onde lida com todos os aspectos de questões trabalhistas e trabalhistas, incluindo aconselhamento diário, transações e litígios. Ele aconselha e defende clientes em relação a discriminação, assédio, retaliação e questões complicadas de licença e deficiência.

Alexis Sabet é Associate na prática de Corporate & Finance da Arnold & Porter e se concentra principalmente em transações de M&A.

By Carlos Jorge

"Proud coffee expert. Webaholic. Zombie guru. Introvert. Avid beer aficionado. Analyst. Total TV practitioner. Award-winning foodie. Student."

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *