Índice
Bots (derivado da palavra “robots”, rôbos em inglês) se tratam de pequenos programas de inteligência artificial que realizam diversas tarefas na Internet, como analisar dados de usuários, gerar recomendações de anúncios e produtos e, até mesmo, escrever textos.
Conforme a tecnologia avança, fica cada vez mais complicado diferenciar se algo foi produzido por um programa ou por um humano. Porém, um site promete tornar essa tarefa mais simples.
Bots x Humanos
Desenvolvedores da OpenAI anunciaram que haviam construído um algoritmo de geração de texto chamado GPT-2, que eles diziam ser perigoso demais para ser lançado no mundo, já que ele poderia ser usado para poluir a web com um infinito material escrito por um bot.
Mas agora, uma equipe de cientistas do Laboratório de Inteligência Artificial MIT-IBM Watson e da Universidade de Harvard construiu um algoritmo chamado GLTR que determina a probabilidade de uma determinada passagem de texto ser escrita por uma ferramenta como a GPT-2, criando uma arma poderosa na batalha constante para diminuir o número de spams e fake news circulando na rede mundial.
Batalha de inteligência
Quando o OpenAI revelou o GPT-2, eles mostraram como ele poderia ser usado para escrever artigos de notícias fictícios, mas convincentes, compartilhando um que o algoritmo havia escrito sobre cientistas que descobriram unicórnios.
O GLTR usa exatamente os mesmos modelos para ler o resultado final e prever se foi escrito por um ser humano ou um GPT-2. Assim como o GPT-2 escreve frases prevendo quais palavras devem seguir uma a outra, o GLTR determina se uma sentença usa a palavra que o bot falso de redação de notícias teria selecionado.
“Supomos que o texto gerado por computador engana os humanos, mantendo as palavras mais prováveis ??em cada posição, um truque que engana os humanos. Em contraste, a escrita natural na verdade seleciona com mais frequência palavras imprevisíveis que fazem sentido para o domínio. Isso significa que podemos detectar se um texto realmente parece muito provável de ser de um escritor humano!”.
Cientistas por trás do GLTR em seu blog
Descobrindo um texto verdadeiro
Os cientistas da IBM, MIT e Harvard por trás do projeto criaram um site que permite que as pessoas testem o GLTR por si mesmas, que você pode acessar por esse link. A ferramenta destaca palavras em cores diferentes com base na probabilidade de terem sido escritas por um algoritmo como o GPT-2. Infelizmente, o algoritmo do site apenas funciona com texto em inglês até o momento.
Nos resultados gerados pelo programa, a cor verde significa que a frase corresponde ao GPT-2, e tons de amarelo, vermelho e especialmente roxo indicam que um ser humano provavelmente escreveu eles.
Decidimos testar o sistema com uma frase escrita por nós nesse artigo. Apesar de possuir um grande número de estruturas semânticas identificadas como geradas por um bot, a frase possui elementos que demonstram que houve ação humana na geração desse conteúdo.
No entanto, a pesquisadora de Inteligência Artificial com especialização em Aprendizado de Máquina, Janelle Shane, descobriu que o GLTR também não se aplica a algoritmos gerados por texto além do GPT-2 do OpenAI.
Testando-o em seu próprio gerador de texto, Shane descobriu que o GLTR determinou incorretamente que o texto resultante era tão imprevisível que um ser humano teve que escrevê-lo.
Isso sugere que ainda precisamos de uma ferramenta mais robusta para avançarmos na luta contra desinformação e falsificação de conteúdo na Internet.
Descubra mais sobre Showmetech
Assine para receber nossas notícias mais recentes por e-mail.