Implicações práticas (e assustadoras) da tecnologia da linguagem em RH

Quando o crítico de cinema Roger Ebert perdeu a capacidade de falar durante o tratamento de câncer de tireoide, a CereProc, uma empresa com sede em Edimburgo, na Escócia, conseguiu criar um programa de conversão de texto em fala usando centenas de horas gravadas do discurso de Ebert em seu programa de TV para dar-lhe uma voz. Da mesma forma, a empresa trabalhou com o ex-jogador da NFL Steve Gleason para clonar sua voz depois que ele foi diagnosticado com ELA.

A inteligência artificial conversacional não é uma coisa do futuro. Está aqui agora. Agora é possível para a tecnologia replicar artificialmente a voz de uma pessoa, por exemplo, para compartilhar uma mensagem de voz do CEO, responder a perguntas comuns de funcionários, fornecer treinamento habilitado por voz ou instruções just-in-time e muito mais.

Mas, embora existam usos práticos, também existem alguns assustadores. Esse tipo de tecnologia de fala pode levar a violações de segurança – como quando a voz do CEO pede uma senha a um funcionário?

Para onde está indo a jornada com essa tecnologia de voz e quais oportunidades e riscos ela oferece para o RH?

Aplicações práticas

Linda Shaffer é Chief People and Operations Officer da Checkr, uma startup de software como serviço e fornecedora de verificações de antecedentes para empregadores. Na Checkr, ela diz, a tecnologia de fala é usada para transcrever automaticamente o treinamento dos funcionários para criar transcrições pesquisáveis ​​que os funcionários podem acessar a qualquer hora, em qualquer lugar. Isso é “particularmente útil em ambientes de trabalho remotos ou híbridos, onde os funcionários podem não ter acesso fácil aos treinadores”, diz ela.

Shaffer diz que a empresa descobriu algumas práticas recomendadas que ela recomendaria a outras pessoas:

  • Fornecer treinamento sobre como usar a tecnologia da linguagem e encontrar informações. Nem todos os funcionários estão familiarizados com a tecnologia de voz.
  • Ofereça versões em áudio das transcrições para funcionários que preferem ouvir em vez de ler.
  • Crie transcrições de perguntas frequentes para que os funcionários possam encontrar rapidamente respostas para perguntas frequentes. Isso pode ser útil, por exemplo, durante a temporada de inscrições abertas ou ao integrar funcionários.

Robb Wilson é CEO e fundador da OneReach, uma plataforma de IA conversacional. Ele diz que esses são apenas alguns casos de uso práticos – e poderosos – para a tecnologia de fala.

“É fácil pensar em aplicações úteis desse tipo de tecnologia, e há muitas oportunidades”, disse Wilson. Mas, acrescentou, “quanto mais sofisticado fica, mais problemáticos e preocupantes os cenários de deepfake se tornam”.

Oportunidades vergonhosas

SHRM on-line informou sobre o impacto de vídeos deepfake; O mesmo conceito pode ser aplicado à voz.

“Tendo sido associada a pelo menos dois golpes públicos, a tecnologia de voz artificial agora se tornou parte do arsenal de ataques cibernéticos”, disse Steve Povolny, diretor de pesquisa avançada de ameaças da Trellix, uma plataforma de segurança cibernética. Três anos atrás, disse ele, hackers se passaram por CEO de uma empresa sediada no Reino Unido e tentaram forçar uma transferência de quase um quarto de milhão de dólares. “A tecnologia está evoluindo rapidamente”, acrescentou. “Embora tenha sido usado para ganhos ilícitos, é igualmente provável que seja usado para roubo de credenciais e intrusão na Internet.”

o outro caso, Reportado por forbes, implicou um executivo de banco em Hong Kong que recebeu uma ligação (ele acreditava) do diretor de uma empresa com a qual ele havia falado anteriormente. O diretor estava animado com a aquisição e disse que precisava que o banco aprovasse US$ 35 milhões em transferências. Foi um golpe de voz deepfake.

Kavita Ganesan, autora, consultora de IA, educadora e fundadora da Opinosis Analytics em Salt Lake City, disse: funcionários. No entanto, desenvolver a capacidade de imitar as vozes dos funcionários pode representar mais riscos e questões éticas do que oportunidades.” Por exemplo:

  • A política da empresa pode instruir certos funcionários a usar a tecnologia de voz de forma inadequada para causar dificuldades para alguns funcionários.
  • A empresa pode responsabilizar o CEO por algo que o CEO não disse voluntariamente.

“À medida que a tecnologia de voz se torna mais humana, esses tipos de riscos trazem problemas desnecessários para a empresa quando eles podem usar as vozes de não funcionários para realizar muitas das tarefas de RH”, disse Ganesan.

Peter Cassat, sócio da Culhane Meadows, onde sua prática se concentra em direito trabalhista, tecnologia, privacidade e segurança de dados, ressalta que usar tecnologia de voz dessa forma é considerado “phishing” – o que geralmente significa que usar e-mail é fazer com que alguém fazer algo se passando por outra pessoa. Ele diz que não viu muitos processos judiciais relacionados ao local de trabalho envolvendo phishing de tecnologia de voz.

No entanto, o potencial existe. As organizações devem agora lidar com esse risco potencial treinando seus funcionários e implementando políticas e práticas apropriadas.

Políticas e Práticas

Povolny recomenda a adoção de um conjunto padrão de regras para lidar com o tipo de informação que os funcionários devem – e não devem – fornecer com base em solicitações de voz. “Ninguém deve pedir que você transfira dinheiro, forneça credenciais privadas ou [take] qualquer outra ação confidencial sem fornecer um método de autenticação ou verificação de identidade”, disse ele. “É uma nova maneira de pensar confiar, mas verificar quando se trata de áudio, mas é tão válido para uma transação puramente verbal quanto uma transação.”

Se a validação não for baseada em nada além de um voto, Povolny disse, “pode ​​levar a fundos roubados, acesso privilegiado a sistemas restritos de áreas, violações de rede, adulteração de pessoal e muitos outros cenários prejudiciais”.

Wilson vai um passo além. “De uma perspectiva de negócios, imitar a voz de um CEO cria muito mais responsabilidade do que oportunidade”, disse ele. “As muitas maneiras enganosas pelas quais esse tipo de tecnologia pode ser usada para enganar funcionários e clientes são tão potencialmente prejudiciais que as empresas devem declarar explicitamente que nunca a usarão”.

É uma prática comercial padrão informar aos clientes que você nunca ligará para pedir informações, observou Wilson. “Isso vai além. As empresas precisam criar sistemas de comunicação privada que dependam de formas mais substantivas de autenticação em um momento em que as vozes dos indivíduos possam ser replicadas e manipuladas à vontade”.

Wilson também recomendou que as empresas deixem claro para os funcionários quando estão interagindo com uma máquina e não com um humano. “Se um novo contratado pensa que interagiu com um humano apenas para descobrir mais tarde que é uma máquina, ele pode se sentir magoado e desconfiar de futuras interações dentro da organização”, disse ele.

Treinar funcionários

Há riscos tanto para sua empresa quanto para seus funcionários. Mesmo atividades aparentemente inocentes, como o uso de aplicativos de álamo como Overdub, explicou Povolny, podem colocar as pessoas em risco de ter suas vozes reais colhidas por jogadores nefastos que planejam usar esse áudio para produzir conteúdo deepfake.

Esses aplicativos não são “necessariamente maliciosos”, disse Povolny, “mas muitas vezes até mesmo os EULAs são [end-user license agreements] Conter palavras que dão à empresa o direito de fazer o que quiser com esses dados, desde que você tenha consentido.” Povolny recomendou aos funcionários – e na verdade todos nós – “considerar sua voz e identidade facial como dados protegidos que você não conhece. Não desisto facilmente.”

Wilson concordou. “Embora muitas das soluções de segurança que impulsionam a replicação de voz comecem no lado comercial, em breve se tornará o negócio de todos”, disse ele.

Lin Grensing-Pophal é um escritor freelance baseado em Chippewa Falls, Wisconsin.

By Carlos Henrique

"Introvertido amigável. Estudante. Guru amador de mídia social. Especialista em Internet. Ávido encrenqueiro."

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *