100 assédios destaq t alt médico com mãos presas por algemas, com foco nas mãos

IA do Bing erra e acusa médico de 100 assédios em Bauru (SP)

Avatar de jefferson tafarel
Profissional responsável por apurar denúncias se viu acusado de cometê-las pela IA, que acusou médico de 100 assédios. Caso corre na justiça por indenização e pode ser o primeiro do Brasil

Ao buscar pelo seu nome no buscador Bing, da Microsoft, um médico de São Paulo descobriu que seu nome estava falsamente ligado a 100 assédios. O mecanismo de busca, que agora possui respostas elaboradas com inteligência artificial do ChatGPT, da OpenAI, associou de forma errada números de processos ao profissional. Como resposta, o médico paulista decidiu processar a empresa responsável pelo Bing, por meio da 7ª Vara Cível de Bauru — essa é, talvez, a primeira ação judicial no Brasil que acontece contra um sistema AI. Detalhes sobre a denúncia, repercussões dos envolvidos e alucinações de IAs: tudo isso você vê a seguir, no Showmetech.

Como o médico descobriu que o Bing mostrava 100 assédios em seu nome?

Bing com ai mente sub 1 talt conversa com o chat do bing, pedindo ao sistema um menu com receita restritiva, com balões de fala respondendo em cor branca e comandos sobre fundo azul
Médico verifica seu nome em sistema generativo e descobre que Bing com AI mente; na imagem: pedido de menu para pessoas com dieta restritiva, com indicação de entrada, prato principal e sobremesa (Imagem: Microsoft/Divulgação).

O médico que denunciou o Bing à Justiça prefere não falar sobre o processo, por questões pessoais e, por isso, decidiu não se identificar. Antes de tomar essa decisão, ele falou que havia buscado seu nome no mecanismo da Microsoft e, assim, achou 100 investigações falsas em seu nome, sendo 33 em 2011, 58 em 2012 e 14 em 2013.

Médico brasileiro t alt resposta do bing sobre o nome do médico, apontando notícias
Quando o médico brasileiro solicitou ao Bing que mostrasse respostas sobre seu nome, a IA do buscador encontrou notícias relacionadas a assédio. Porém, as matérias não indicavam nada a respeito do profissional (Captura de tela: arquivo pessoal).

Segundo informou à imprensa, o médico trabalha na apuração de denúncias contra médicos no Conselho Regional de Medicina de São Paulo (Cremesp), e seu nome está ligado aos processos por participar da apuração das denúncias de assédio sofrido por pacientes. O Bing, entretanto, falsamente identificou este profissional como o autor dos assédios, gerando então informações falsas.

Depois de saber sobre a relação falsa criada pela IA com os 100 assédios, a atitude do profissional foi, junto a seu advogado, Guilherme Bagagli, processar a Microsoft em R$ 60 mil. A alegação para a quantia foi motivada com indenização por danos morais. Porém, esse valor ainda vai passar por avaliação da Justiça, que ainda está analisando as provas, com participação da empresa de tecnologia processada.

Qual foi a decisão da justiça sobre o Bing com AI?

100 assédios t alt prédio de justiça em sp visto de frente, com céu claro
A Justiça de São Paulo vai processar a empresa responsável pelo Bing, por erro envolvendo resposta sobre 100 assédios (Imagem: TJSP/Reprodução).

A 7ª Vara Cível de Bauru (SP) tomou uma decisão sobre o caso do médico no dia 15 de junho, obrigando a remoção das acusações falsas em até 48 horas, com punição de R$ 5 mil. Outras informações sobre o processo não foram divulgadas, já que o caso está em segredo de Justiça, mas, até onde se sabe, a Microsoft pode recorrer da decisão do órgão.

Embora o médico tenha evitado falar mais sobre o caso, o juiz Jayter Cortez, que tomou a decisão sobre o processo movido contra o Bing, disse que a Microsoft apresenta em sua plataforma informação inverídica de que o autor seria investigado por crimes de assédio sexual“. O juiz também criticou a maneira como a ferramenta AI opera, por não apurar com mais rigor as informações fornecidas:

“O site de pesquisa não se limita a […] reproduzir, com fidedignidade, informações criadas por terceiro […], mas altera equivocadamente a informação lançada em matéria jornalística”

Jayter Cortez, juiz da 7ª Vara Cível de Bauru (SP)

Microsoft não se pronunciou sobre caso

Alucinações de ia t alt tela mostrando buscador bing ia acusa médico no canto superior à esq.
Quando alucinações de IA surgem a partir de uma pergunta feita em um sistema, as consequências podem ser sérias. A IA acusa médico, por exemplo, de forma errada, tendo com base dados de matérias, publicadas em veículos de imprensa (Imagem: CNN/Reprodução).

A empresa dona do buscador Bing afirmou que não procura comentar casos em andamento. No entanto, é provável que essa seja a mesma atitude caso aconteçam outras situações do tipo, ou seja, que envolvam afirmações falsas envolvendo crimes, como aconteceu com o médico paulista. Consciente desses riscos, o Parlamento Europeu já está em debate na União Euroeia (UE) para definir todo o projeto da Lei de IA, que inclui medidas sobre risco e diversos tipos de penalidades.

Vale lembrar que o método usado pelo ChatGPT entrega resultados conforme o interesse do sistema de pesquisa, além de fazer um ranqueamento de sites onde encontra informações. O resultado encontrado pelo profissional, então, veio relacionado com uma falha. Em outras palavras, a IA do Bing misturou quantidades de processos com pessoas que não tinham a ver com essas investigações.

Alucinações de AI e investigações a respeito

Alucinações de ias t alt ilustração mostrando rosto colorido, com diversas ondas em várias cores diferentes, semelhantes a que são vistas numa bolha de sabão
Crimes com alucinações de IAs acontecem com frequência, porque as ferramentas generativas podem atribuir de forma errada pessoas a crimes noticiados em diversas matérias (Imagem: Bernard Narr/Reprodução).

Diversas melhorias foram feitas no ChatGPT e outros sistemas de IA, como o Bard do Google, principalmente para melhorar a entrega de informações e reduzir erros nas respostas dadas aos usuários. As modificações foram realizadas após algumas repercussões que chamaram muita atenção, envolvendo até processos contra IA: desde o uso do serviço da OpenAI para enganar um sistema CAPTCHA (teste usado para verificar se um usuário é um robô ou humano), a outras acusações falsas em relação a suborno e até desvio de dinheiro atribuído a pessoas inocentes, entre outros casos.

Outros erros atribuídos a sistemas generativos — chamados de alucinações de IAs — também acontecem sem gerar incriminações falsas, ou qualquer tipo de efeito perigoso. Para se ter uma ideia, o Bard já inventou que o telescópio espacial James Webb foi o primeiro a conseguir fotografar um planeta fora do sistema solar, o que é falso. Em maio, o sistema AI incorporado ao Bing chegou a ser usado, nos Estados Unidos, para compor uma peça jurídica para uma moção: o problema é que o ChatGPT acabou citando casos falsos no texto.

Alucinações de ias t alt sub 4 fachada de prédio de corte em nova york (eua), vista de baixo para cima, com colunas retas brancas em primeiro plano, sob luz entrecortada por sombras
Alucinações de IAs podem provocar erros em usos comuns da ferramenta, como escrever moções (Imagem: Brendan McDermid/Reuters).

Observando essas situações, a empresa responsável pelo ChatGPT recebe diversas denúncias e tenta melhorar suas ferramentas de IA: o CNBC publicou uma notícia recente, informando que os engenheiros da OpenAI vão passar a ser premiados internamente, caso consigam encontrar soluções para impedir o chat de inventar mentiras.

Ao mesmo tempo, o Google também está procurando deixar o seu sistema num patamar acima da IA generativa processada em São Paulo: o Bard gera códigos de programação com mais agilidade, por exemplo. O chefe executivo da Alphabet, Sundar Pichai, que controla a empresa do buscador, disse que a ferramenta AI consegue ser mais rápida, dependendo de menos poder computacional, além de poder melhorar de forma mais ativa suas respostas, a partir do feedback dos usuários.

Você processaria o ChatGPT se encontrasse alguma informação falsa sobre você? Fala pra gente, aqui nos comentários do Showmetech!

Veja também:

Fonte: Decrypt | Startupi | Digital Trends | CNN Brasil | TBS News | The Verge | CNBC


Descubra mais sobre Showmetech

Assine para receber nossas notícias mais recentes por e-mail.

1 comentário
  1. estamos engatinhando nesse novo mundo das IA. Acreditar na sua infalibilidade é ser ingênuo, mas ignorá-la é renunciar aos benefícios que trará na relações humanas e profissionais

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados