60 Minutes fez uma afirmação chocantemente falsa sobre um chatbot do Google AI

Desde que a OpenAI lançou o ChatGPT no mundo, vimos tomadas que as pessoas não acreditariam. Algumas pessoas afirmam que os chatbots têm uma agenda de despertar. O senador americano Chris Murphy twittou que o ChatGPT “ensinou” a si mesmo química avançada. Mesmo jornalistas de tecnologia veteranos escreveram histórias sobre como o Chatbot se apaixonou por ela. Parece que o mundo reagiria à IA da mesma forma que os homens das cavernas provavelmente reagiram quando viram fogo pela primeira vez: com total confusão e balbucio incoerente.

Um dos exemplos mais recentes vem de 60 minutos, que jogou sua voz no ringue com um novo episódio focado em inovações em IA que foi ao ar no domingo na CBS. O episódio apresentou entrevistas com nomes como o CEO do Google, Sundar Pichai – e incluiu entrevistas questionáveis. Declarações sobre um dos grandes modelos de linguagem (LLM) da empresa.

O assunto do clipe é o comportamento emergente, que descreve um efeito colateral inesperado de um sistema de IA que não foi necessariamente pretendido pelos desenvolvedores do modelo. Já vimos um comportamento emergente em outros projetos recentes de IA. Por exemplo, pesquisadores recentemente usaram o ChatGPT para criar personagens digitais generativos com objetivos e antecedentes em um estudo publicado online na semana passada. Eles observaram como o sistema realizava vários comportamentos emergentes, como B. compartilhar novas informações de um personagem para outro e até mesmo estabelecer relações entre si – algo que os autores inicialmente não planejaram para o sistema.

O comportamento emergente é definitivamente um tópico valioso para um programa de notícias. em que o 60 minutos No entanto, o clipe muda quando somos apresentados a alegações de que o chatbot do Google foi realmente capaz de aprender sozinho um idioma que não conhecia anteriormente após ser solicitado a fazê-lo nesse idioma. “Por exemplo, um programa de IA do Google se adaptou após ser solicitado no idioma de Bangladesh que não foi treinado para entender”, disse Scott Pelley, correspondente da CBS News, no clipe.

Acabou sendo uma besteira completa. O bot não apenas não conseguiu aprender uma língua estrangeira “para a qual nunca foi treinado”, mas também falhou em aprender uma nova habilidade. Todo o clipe estimulou pesquisadores e especialistas em IA a condenar o design enganoso do noticiário no Twitter.

“Eu realmente espero que um jornalista analise todo o segmento @60Minutes no Google Bard como um estudo de caso sobre como *não* cobrir a IA”, Melanie Mitchell, pesquisadora de IA e professora do Santa Fe Institute, escreveu em um tweet.

“Pare com o pensamento mágico na engenharia! Não é possível que um #AI responda em bengali, a menos que os dados de treinamento tenham sido contaminados com bengali ou estejam sendo treinados em um idioma que se sobrepõe ao bengali, como assamês, oriya ou hindi”, M. Alex O. Vasilescu , pesquisador do MIT, adicionado em outro post.

Vale a pena mencionar 60 minutos Segment não disse exatamente qual era a IA que eles estavam usando. No entanto, um porta-voz da CBS disse ao The Daily Beast que o clipe não é uma discussão sobre Bard, mas sim um programa de IA separado chamado PaLM, cuja tecnologia subjacente foi posteriormente integrada ao Bard.

A razão pela qual o segmento tem sido tão frustrante para esses especialistas é porque ele ignora e manipula a realidade do que a IA generativa pode realmente fazer. Ele não pode “ensinar” a si mesmo uma língua se não tiver acesso a ela. Isso seria como tentar aprender mandarim sozinho, mas você só ouviu isso depois que alguém lhe perguntou mandarim uma vez.

Afinal, a linguagem é incrivelmente complexa – com nuances sutis e regras que exigem uma quantidade incrível de contexto para entender e se comunicar. Não há como, mesmo para o LLM mais avançado, lidar e aprender tudo isso por meio de alguns prompts.

PaLM já foi treinado com bengali, a língua dominante de Bangladesh. Margaret Mitchell (sem relacionamento), pesquisadora do laboratório inicial HuggingFace da AT e ex-Google, explicou isso em um tópico do tweet argumentar porque 60 minutos estava errado.

Mitchell apontou que, em uma demonstração de 2022, o Google demonstrou que o PaLM pode se comunicar em bengali e responder a solicitações. O Papel por trás do PaLM revelou em uma folha de dados que o modelo foi realmente treinado no idioma com cerca de 194 milhões de tokens no alfabeto bengali.

Portanto, não aprendeu nada magicamente com um único prompt. Ele já conhecia o idioma.

Não está claro por que Pichai, CEO do Google, sentou-se para a entrevista e deixou essas afirmações sem contestação. (O Google não respondeu aos pedidos de comentários.) Ele permaneceu em silêncio desde que o episódio foi ao ar, embora especialistas tenham apontado as alegações enganosas e falsas neste segmento. No Twitter, Margaret Mitchell recomendado A razão para isso pode ser uma combinação de que a liderança do Google não sabe como seus produtos funcionam e também que permite a disseminação de notícias de má qualidade para combinar com o atual hype em torno da IA ​​generativa.

“Eu acho [Google executives] literalmente não entendo como isso funciona”, diz Mitchell tuitou. “O que escrevi acima provavelmente é novo para você. E eles são encorajados a não entendê-lo (feche os olhos para esta folha de dados!!).”

A segunda metade do vídeo também pode ser vista como problemática, já que Pichai e Pelley discutem um conto criado por Bard que “parecia tão surpreendentemente humano” que os dois homens pareciam um pouco abalados.

O fato é que esses produtos não são mágicos. Eles são incapazes de ser “humanos” porque não são humanos. São previsões de texto como as que você tem em seu telefone, treinadas para encontrar as palavras e frases mais prováveis ​​após uma série de palavras em frases. Dizer que sim pode dar a eles um nível de autoridade que pode ser incrivelmente perigoso.

Por fim, os usuários podem usar essas IAs generativas para espalhar desinformação, por exemplo. Já vimos esse jogo com deepfakes de semelhanças de pessoas e até de suas vozes.

Mesmo um chatbot sozinho pode causar danos se acabar entregando resultados tendenciosos – algo que já vimos com ChatGPT e Bard. Como esses chatbots tendem a alucinar e inventar resultados, eles podem até mesmo espalhar informações erradas para usuários desavisados.

A pesquisa também confirma isso. Um estudo recente Publicado em Relatórios Científicos descobriram que as respostas humanas a questões morais podem ser facilmente influenciadas pelos argumentos do ChatGPT – e os usuários até subestimaram grosseiramente o quanto foram influenciados pelos bots.

As afirmações enganosas sobre 60 minutos são apenas um sintoma de uma maior necessidade de alfabetização digital no momento em que mais precisamos. Muitos especialistas em IA dizem que agora, mais do que nunca, é a hora de se conscientizar exatamente do que a IA pode ou não fazer. Esses fatos básicos sobre bots também precisam ser comunicados de forma eficaz ao público em geral.

Isso significa que as pessoas com as maiores plataformas e as vozes mais altas (ou seja, a mídia, os políticos e os grandes executivos de tecnologia) têm a maior responsabilidade de garantir um futuro de IA mais seguro e informado. Se não o fizermos, podemos acabar como os mencionados homens das cavernas, brincando com a magia do fogo – e nos queimando no processo.

By Carlos Jorge

"Proud coffee expert. Webaholic. Zombie guru. Introvert. Avid beer aficionado. Analyst. Total TV practitioner. Award-winning foodie. Student."

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *