Sim, você leu certo. Em meio a tantos avanços bizarros na tecnologia, uma delas é que o Google está ensinando a Inteligência Artificial a explicar piadas para você. Essa ideia partiu de uma reflexão dos pesquisadores do Google que estão buscando desenvolver cada vez mais chatbots com a capacidade surreal de soar como um humano.
É claro que se tratando de Inteligência Artificial, a primeira reação das pessoas é ficar com um pé atrás, já que se trata basicamente de uma tecnologia reproduzindo o que lhe é ensinado e nada mais que isso – fato que pode trazer altas margens de erro aos resultados. Mas o que está sendo desenvolvido é mais do que a parte “operacional”. O Processamento de Linguagem Natural (PNL) está sendo trabalhado para que as máquinas consigam assimilar e responder de acordo com a linguagem e contexto humano.
Como isso acontece?
Os grandes modelos de linguagem (Large Language Models/LLMs em inglês) são ferramentas de Inteligência Artificial que conseguem ler, resumir, traduzir textos e até mesmo prever palavras futuras em sentenças de forma similar ao que os humanos geralmente falam e escrevem. O Google Drive, por exemplo, já oferece esse recurso.
Como exemplo prático temos o GPT-3 que está cada vez mais em alta. Essa tecnologia IA permite que os chatbots desenvolvam uma “comunicação humana” bizarramente precisa. A partir disso, o grupo de pesquisa do Google começou um treinamento de Processamento de Linguagem Natural, chamado PaLM, que não obstante em gerar textos nos moldes LLM, também está sendo desenvolvido para interpretar e explicar piadas.
Nos exemplos do artigo que explica mais sobre o projeto, a equipe de pesquisadores demonstra a capacidade do protótipo de conseguir elaborar um raciocínio lógico e outras situações complexas de linguagem que demandam conhecimento denso de contextos – algo que até então era uma habilidade atribuída à capacidade humana. Para conseguir esse feito, eles estão adotando uma técnica relacionada a cadeia de pensamentos. Esse método melhora o desempenho do sistema por meio de simulações das etapas que o ser humano desenvolve no processo do pensamento ao tentar resolver problemas lógicos.
E as camadas não param por aí. Com o desenvolvimento dessa tecnologia, a Inteligência Artificial consegue ir mais a fundo, reconhecendo e interpretando piadas – até mesmo aquelas pegadinhas para confundir as pessoas.
Exemplo: Qual é a diferença entre uma zebra e um guarda-chuva? Um é um animal listrado que remete a cavalos, e o outro é um dispositivo que você usa para impedir que a chuva caia sobre você.
Explicação: esta piada, na verdade, é uma anti-piada. A sacada é que a resposta é óbvia, então a piada acaba sendo o fato de que você esperava uma resposta engraçada.
Por trás do método da cadeia de pensamentos do PaLM está um dos maiores bancos de dados de modelos de linguagem já construídos, totalizando até então 540 bilhões de parâmetros. No caso, entende-se como “parâmetros” os elementos que são treinados durante o processo de aprendizado do sistema cada vez que ele é alimentado com novos dados de contextualização.
Essa crescente permitiu que a equipe de pesquisadores do Google chegassem a um amplo alcance de resultados de alta qualidade sem que precisassem dedicar esforços para treinar as IA para contextos específicos e individuais, caso a caso. Ou seja, temos aqui a capacidade de um sistema aprender uma gama variada de funções complexas a partir de tarefas com poucos exemplos de treinamento.
Riscos éticos no projeto
Ainda que a técnica para o desenvolvimento GPT-3 esteja cada vez mais afunilada, muitos especialistas sobre ética no meio da tecnologia são contra esses projetos que envolvem grandes modelos de linguagem e o uso da Inteligência Artificial como um todo. Uma delas, inclusive, é a pesquisadora Timnit Gebru, cientista da computação e uma pesquisadora respeitada que foi expulsa da equipe de ética de AI do Google em 2020 após elaborar um artigo discordando sobre o desenvolvimento do projeto.
No texto de Gebru e seus coautores, é discutido o fato de que os grandes modelos LLM desenvolvidos pela equipe de pesquisadores do Google são intrinsecamente arriscados e podem ser potencialmente prejudiciais para pessoas que fazem parte de grupos sociais considerados como minoria, afinal pautas desse gênero ainda não são lidas pelo mecanismo. Ainda que o GPT-3 possa ser lido como uma tecnologia atual, ele, em específico, possui o histórico de devolver respostas preconceituosas e até mesmo racistas.
Segundo um trecho do artigo de Gebru, “a maior parte da tecnologia de linguagem é, de fato, construída para atender, antes de mais nada, as necessidades daqueles que já têm mais privilégios na sociedade”. Ela ainda acrescenta:
“Embora a documentação permita uma possível responsabilização, semelhante à forma como podemos responsabilizar os autores por seus textos produzidos, os dados de treinamento não documentados perpetuam os danos sem recurso. Se os dados de treinamento forem considerados muito grandes para serem documentados, não se pode tentar entender suas características para mitigar alguns desses problemas documentados ou mesmo desconhecidos.”
Timnit Gebru, especialista em Ética na Inteligência Artificial
O que você acha sobre os avanços da tecnologia relacionados a Inteligência Artificial? Conte pra gente nos comentários!
Veja também:
Videogames como matérias na escola? Entenda
Como YouTubers estão mudando a forma que consumimos notícias
Fonte: Vice
Revisão do texto feita por: Iris Xavier.
Descubra mais sobre Showmetech
Assine para receber nossas notícias mais recentes por e-mail.