Banco digital destaque

Uso ético e responsável de Inteligência Artificial nos negócios é ignorado, aponta estudo

Avatar de bruno martinez
Segundo a FICO, líderes empresariais estão se esforçando pouco para garantir uso ético e responsável de Inteligência Artificial nos negócios

O uso da Inteligência Artificial nos negócios, em sistemas de reconhecimento facial, em departamentos de vigilância, redes sociais, entre outros, aumentou muito nos últimos anos. Em contrapartida, o crescente avanço da tecnologia desencadeou uma série de polêmicas e debates em torno de questões éticas envolvendo a implantação de Inteligência Artificial (IA) e a necessidade de estabelecer regras quanto ao uso responsável e imparcial da IA. 

Um estudo conduzido pelo estudante Colin Madland, por exemplo, constatou que um algoritmo usado pelo Twitter, baseado em IA, tinha tendência a destacar fotos de pessoas brancas e mulheres em imagens recortadas automaticamente dentro da rede social. 

Mas situações de preconceitos envolvendo a tecnologia não são exclusividade do Twitter. Diversos sites e outras plataformas como Instagram e Facebook também utilizam recortes automáticos de imagens baseados em IA. Além disso, outras situações de racismo e preconceitos são observadas no meio corporativo, como sistemas de reconhecimento facial incapazes de discernir os rosto de pessoas com a pele escura ou alguns aplicativos de saúde dos Estados Unidos que discriminam pacientes afro-americanos. 

Mas qual a explicação para isso? Bem, como os códigos de IA são programados por pessoas, elas acabam inserindo sua visão de mundo nos algoritmos e propagando seus preconceitos, tornando a tecnologia imparcial. Enquanto as empresas continuarem decidindo por conta própria o que é ou não é permitido, situações como essas continuarão a acontecer. Por isso, é preciso criar diretrizes e debater sobre o uso ético e responsável de Inteligência Artificial nos negócios.

Inteligência artificial nos negócios
Apenas 6% dos entrevistados afirmaram que IA está sendo usada de maneira ética e responsável

Uso da Inteligência Artificial nos negócios 

Mesmo diante desses exemplos de imparcialidade e problemas éticos graves, os líderes empresariais não se mostraram muito interessados em mudar. Ao menos, é o que revela o relatório State of Responsible AI, divulgado pela FICO. A pesquisa contou com a participação de 100 líderes de IA do setor financeiro e 20 executivos dos Estados Unidos, América Latina, Europa, Oriente Médio, África e Ásia-Pacífico.

Os resultados apontam que 78% dos entrevistados encontram dificuldades em obter suporte dos executivos para priorizar o uso ético e responsável de Inteligência Artificial nas empresas. Além disso, 70% não soube informar “como as decisões e previsões de IA são feitas”. 

Uso ético de ia fico
Tecnologias que mais oferecem risco potenciais de uso antiético ou irresponsável

Outro dado preocupante é que as empresas estão pressionando os funcionários para adotar sistemas baseados em IA, mas não estão preocupados com questões éticas envolvendo a tecnologia. A maioria dos entrevistados afirmaram também que não se sentem responsáveis por garantir o uso ético da IA, para além da regulamentação básica. Também não houve consenso entre sobre a responsabilidade sobre as aplicações de IA nos negócios.

De acordo com Ganna Pogrebna, chefe de ciência de dados comportamentais do The Alan Turing Institute, a falta de regras e regulamentação em torno da aplicação de Inteligência Artificial nos negócios é “extremamente perigosa”.

Permitir que “as empresas decidam por si mesmas o que consideram ético e antiético”, acaba dando abertura para que situações de racismo, machismo, homofobia e tantos outros preconceitos sejam aceitos e reproduzidos no meio corporativo. Lembrando que a expansão do uso de IA no Brasil cresceu muito e a adoção de práticas mais éticas e responsáveis também precisam ser consideradas pelos empresários brasileiros.

Fonte: FICO; Harvard; Wired; ZDNet

Veja também


Descubra mais sobre Showmetech

Assine para receber nossas notícias mais recentes por e-mail.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados