Carta contra ai: elon musk e especialistas pedem pausa no desenvolvimento

Carta contra AI: Elon Musk e especialistas pedem pausa no desenvolvimento

Avatar de jefferson tafarel
Carta contra AI assinada por mais de 1000 especialistas alerta sobre os riscos da corrida no desenvolvimento de modelos de Inteligência Artificial (AI) e pede 6 meses de suspensão de atividades

O CEO do Twitter, Elon Musk e o historiador famoso pelo livro Uma Breve História da Humanidade, Yuval Noah Harari, entre outros especialistas, pesquisadores e cientistas, resolveram assinar uma carta em que pedem uma pausa na atualização e desenvolvimento de IA.

A carta em questão foi produzida pelo Future of Life Institute (Instituto do Futuro da Vida, em tradução livre) e recomenda um hiato no desenvolvimento de sistemas de artificial intelligence (AI) de pelo menos seis meses, que seja transparente. Saiba mais sobre o conteúdo do documento, veja a tradução do texto na íntegra e fique por dentro das discussões em torno do tema a seguir.

O que a carta contra AI fala sobre inteligência artificial?

Os trabalhos autônomos e o aumento da desinformação são duas das principais preocupações com tecnologias de IA apontadas na carta. O conteúdo do texto demanda, ainda, que o momento de suspensão do desenvolvimento com ferramentas como GPT-4, Midjourney e soluções com IA semelhantes precisa ser “público e verificável”.

Em relação a investimentos, a carta também aborda como a OpenAI, Microsoft e Google estão em uma corrida tecnológica sem olhar atento a como os governos e as instituições públicas estão com dificuldade para acompanhar cada novo passo. Ou seja, segundo o documento, o setor de IA está entrando numa velocidade cada vez mais difícil de acompanhar e mesmo os próprios atores envolvidos com a tecnologia reconhecem isso.

“Se essa pausa não puder ser regulada de forma rápida, os governos devem intervir e instituir uma supensão”

Carta do Future of Life Institute
Tristan harris assinou a carta que alerta sobre os riscos no desenvolvimento de ias
A carta que pede um freio nas soluções com IA que estão sendo desenvolvidas tem adesão de especialistas como Tristan Harris, que já foi funcionário da Google no setor de produtos (Imagem: Michael Kovac/Getty Images).

O texto faz menção também a laboratórios de IA que produzem tecnologias, mas não conseguem fazer avaliações precisas e nem mesmo são de capazes de ter controle sobre essas mentes digitais. O que intriga os signatários — desde o co-fundador da Apple, Steve Wozniak, passando por pesquisadores pioneiros como Yoshua Bengio e Stuart Russel, até o ex-filósofo de produtos do Google, Tristan Harris — são perguntas envolvendo o alcance de disseminação de informações falsas, a substituição das mentes humanas e o próprio “controle da nossa civilização”. Nesse sentido, o documento também atenta para o melhor momento de investimento:

“Sistemas de IA poderosos devem ser desenvolvidos apenas quando nós tivermos confiança que seus efeitos serão positivos e seus riscos serão administrados.”

Carta do Future of Life Institute

Future of Life Institute e tecnologia responsável

Fundado em 2015, a partir de um investimento do Elon Musk, o Future of Life Institute busca afastar os novos avanços tecnológicos de possíveis riscos à vida, tanto para a humanidade como para outros seres vivos. A organização está atenta não só a IA, mas também monitora as produções em áreas como biotecnologia e energia nuclear. Esse esforço do instituto para dar suporte à responsabilidade tecnológica tem como visão um mundo onde doenças sejam erradicadas e haja fortalecimento de democracias ao redor do mundo.

Inteligência artificial carta contra ai investimento
De olho na inteligência artificial, o Future of Life, que produziu a carta contra AI, fez um investimento equivocado (Imagem: Expo/Press Photo).

As ações da Future of Life chegaram a ser reconhecidas pela Organização das Nações Unidas (ONU) em 2020: a ONU nomeou o instituto como representante da sociedade civil nas questões que envolvem IA. No começo deste ano, porém, o presidente desse órgão observador de tecnologia, Max Tegmark, teve que se desculpar sobre um investimento equivocado em uma plataforma de mídia de extrema-direita, a sueca Nya Dagbladet.

Qual o posicionamento de outras empresas sobre o desenvolvimento de AI?

Empresas consolidadas como Google e Microsoft evitaram comentar sobre a carta do Future of Life Institute. As duas companhias estão se movimentando cada vez mais para oferecer soluções com IA, em face às produções da OpenAI, empresa criadora do ChatGPT. Aliás, a “mãe” de uma das IAs mais famosas do momento recebeu da Microsoft 10 bilhões de dólares em investimento. Simultaneamente, a empresa criada por Bill Gates está usando a tecnologia da OpenAI no seu mecanismo de busca, o Bing.

Soluções com ia batalha
Google já está movendo as peças do jogo para propor soluções com IA tão poderosas quanto o ChatGPT, como o Bard (Imagem: JagranJosh/Reprodução).

Neste mês, coincidentemente, Bill Gates chegou a publicar uma carta em que aborda os possíveis efeitos que as soluções com IA podem trazer para o futuro. Já a Google está mantendo seus investimentos em inteligência artificial por meio do Bard, que ainda não está totalmente disponível para o público.

Preocupações de especialistas sobre AI e GPT-4

Mesmo que tenha sido melhorada, a ferramenta GPT-4 ainda entrega resultados com algumas alucinações e pode atender os usuários usando uma linguagem nociva. Mas há quem acredite que a pausa, na verdade, deveria ser para entender mais os benefícios — e não só os danos de tecnologias AI. Essa é a visão de Peter Stone, pesquisador da Universidade de Texas em Austin (EUA).

Carta de especialistas robô
Carta de especialistas divide opiniões a cerca do futuro da inteligência artificial (Imagem: Intelligence Square/Reprodução).

“Eu penso que é válido ter um pouco de experiência em como [as IAs] podem ser utilizadas propriamente ou não, antes de ir atrás de desenvolver a próxima [tecnologia]. Isso não deveria ser uma corrida para produzir um novo modelo de inteligência artificial e lançá-la antes dos outros.”

Peter Stone

Em contraste a essa posição, um dos signatários, Emad Mostaque, fundador da empresa Stability AI (dedicada a ferramentas com inteligência artificial), disse à Wired que as soluções com IA são uma possível ameaça a própria existência da sociedade. Ele também deu importância a como os investimentos devem ser revistos, levando mais em conta o que pode estar no futuro dessa corrida tecnológica.

“É o momento de deixar de lado prioridades comerciais e dar uma pausa para o bem de todos, mais para pesquisar em vez de entrar numa corrida com um futuro incerto.”

Emad Mostaque

Carta contra AI: tradução na íntegra

Carta contra ai josh
Presidente do Future of Life Institute, autor da carta contra AI, Max Tegmark (Imagem: Josh Reynolds/Getty Images).

Pausa em experimentos gigantes com AI: uma carta aberta

Nós avisamos a todos os laboratórios de inteligência artificial (IA) para pausar imediatamente, pelo menos, por seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4

Os sistemas AI com inteligência capaz de competir com humanos podem mostrar riscos profundos à sociedade e à humanidade, como evidenciado por várias pesquisas extensas da Universidade de Cornell, pelos livros The Alignment Problem (Brian Christian, 2020), Ser-se Humano na Era da Inteligência Artificial (Max Tegmark, 2017) e por outros estudos — sobre avanços na área, ética, impacto no mercado de trabalho, riscos existenciais — além de serem reconhecidos por laboratórios AI de renome. Como afirmado nos Princípios de IA de Asilomar, “IAs avançadas podem representar uma mudança profunda na história da vida na Terra, e devem ser planejadas e administradas com cuidado e com recursos comensurados”. Infelizmente, esse nível de planejamento e gestão não está acontecendo, mesmo que em meses recentes tenha-se visto laboratórios AI começarem uma corrida fora de controle para desenvolver e utilizar mentes digitais cada vez mais poderosas, que ninguém — nem mesmo seus criadores — podem entender, prever, ou controlar de forma confiável. 

Agora, os sistemas AI atuais estão se tornando capazes de competir com humanos em tarefas no geral, e nós precisamos nos perguntar: Devemos deixar máquinas inundar nossos canais de informação com proselitismo e inverdades? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Devemos desenvolver mentes não humanas para poder eventualmente nos superar em número e em nível de inteligência, nos tornar obsoletos e nos substituir? Devemos arriscar perder controle da nossa civilização? Tais decisões não devem ser delegadas para líderes em tecnologia sem respaldo. Sistemas de IA poderosos devem ser desenvolvidos apenas quando nós tivermos confiança que seus efeitos serão positivos e seus riscos serão administrados. Essa confiança deve ser bem justificada e aumentada em relação à magnitude das consequências potenciais dos sistemas. Uma posição da OpenAI recente sobre inteligência artificial generativa afirma que “em algum ponto, pode ser importante ter uma revisão independente, antes de começar a treinar sistemas no futuro, para esforços mais avançados, conforme o limite da taxa de crescimento da computação usada para criar novos modelos [de IA]”. Nós concordamos. O momento é agora. 

Portanto, nós avisamos a todos os laboratórios de inteligência artificial (IA) para pausar imediatamente, pelo menos, por seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável, e inclui todos os atores-chave. Se tal pausa não pode ser regulada rapidamente, os governantes devem intervir e instituir uma suspensão.

Laboratórios IA e especialistas independentes devem usar dessa pausa para desenvolverem e implementar, em conjunto, uma série de protocolos de segurança compartilhados para o design e desenvolvimento de IAs avançados, que sejam rigorosamente auditados e verificados por avaliadores terceiros. Esses protocolos devem garantir que sistemas regulados por essas normas sejam seguros para além de alguma dúvida razoável — um exemplo são os Princípios AI da OCDE, adotados amplamente e que exigem que sistemas de IA ‘funcionem de forma apropriada e não demonstrem riscos de segurança irresponsáveis’. Isso não significa um hiato no desenvolvimento de IAs em geral, mas simplesmente uma saída de uma corrida perigosa em direção a modelos ‘caixa-preta’ imprevisíveis, cada vez maiores e com capacidades emergentes.  

As pesquisas e desenvolvimentos de IAs devem ter o foco redirecionado em tornar os sistemas poderosos do estado-da-arte de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Em paralelo, os desenvolvedores de IA devem trabalhar com legisladores de maneira enfática, para acelerar a produção de sistemas de governança de IA rigorosos. Eles devem incluir, no mínimo: 

  • autoridades reguladoras novas e capazes, dedicadas à inteligência artificial;
  • verificação e acompanhamento de sistemas de IA altamente poderosos e de grande aporte em capacidade computacional; 
  • sistemas de proveniência e de identificação de marca, para ajudar a distinguir os modelos de mentes digitais reais dos sintéticos, bem como o acompanhamento dos vazamentos dessas tecnologias; 
  • um ecossistema pujante de certificação e de auditoria; 
  • compromisso com danos provenientes de sistemas de IA;
  • financiamento público forte o suficiente para pesquisas técnicas em segurança de IAs; e
  • instituições bem financiadas para lidar com impactos econômicos e políticos sérios que as IAs causarem (especialmente em relação à democracia). 

A humanidade pode aproveitar um futuro frutífero com a IA. Tendo criado com sucesso sistemas de IA poderosos, nós agora podemos celebrar um ‘verão de inteligência artificial’, no qual nós colhemos os frutos, produzimos a engenharia nesses sistemas para o claro benefício de todos e damos à sociedade uma chance de se adaptar. A sociedade ‘apertou o botão de pausa’ em outras tecnologias com efeitos potencialmente catastróficos para todo mundo — como a clonagem, a eugenia e a engenharia genética. Nós podemos fazer o mesmo aqui. Vamos curtir um longo verão de IA, sem ter pressa para o outono.

Veja também:

Como usar o Midjourney para criar imagens com Inteligência Artificial

Fonte: Wired | Tech Crunch | Future of Life | Vice World News

Revisado por Glauco Vital em 29/3/23.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados