Índice
O CEO do Twitter, Elon Musk e o historiador famoso pelo livro Uma Breve História da Humanidade, Yuval Noah Harari, entre outros especialistas, pesquisadores e cientistas, resolveram assinar uma carta em que pedem uma pausa na atualização e desenvolvimento de IA.
A carta em questão foi produzida pelo Future of Life Institute (Instituto do Futuro da Vida, em tradução livre) e recomenda um hiato no desenvolvimento de sistemas de artificial intelligence (AI) de pelo menos seis meses, que seja transparente. Saiba mais sobre o conteúdo do documento, veja a tradução do texto na íntegra e fique por dentro das discussões em torno do tema a seguir.
O que a carta contra AI fala sobre inteligência artificial?
Os trabalhos autônomos e o aumento da desinformação são duas das principais preocupações com tecnologias de IA apontadas na carta. O conteúdo do texto demanda, ainda, que o momento de suspensão do desenvolvimento com ferramentas como GPT-4, Midjourney e soluções com IA semelhantes precisa ser “público e verificável”.
Em relação a investimentos, a carta também aborda como a OpenAI, Microsoft e Google estão em uma corrida tecnológica sem olhar atento a como os governos e as instituições públicas estão com dificuldade para acompanhar cada novo passo. Ou seja, segundo o documento, o setor de IA está entrando numa velocidade cada vez mais difícil de acompanhar e mesmo os próprios atores envolvidos com a tecnologia reconhecem isso.
“Se essa pausa não puder ser regulada de forma rápida, os governos devem intervir e instituir uma supensão”
Carta do Future of Life Institute
O texto faz menção também a laboratórios de IA que produzem tecnologias, mas não conseguem fazer avaliações precisas e nem mesmo são de capazes de ter controle sobre essas mentes digitais. O que intriga os signatários — desde o co-fundador da Apple, Steve Wozniak, passando por pesquisadores pioneiros como Yoshua Bengio e Stuart Russel, até o ex-filósofo de produtos do Google, Tristan Harris — são perguntas envolvendo o alcance de disseminação de informações falsas, a substituição das mentes humanas e o próprio “controle da nossa civilização”. Nesse sentido, o documento também atenta para o melhor momento de investimento:
“Sistemas de IA poderosos devem ser desenvolvidos apenas quando nós tivermos confiança que seus efeitos serão positivos e seus riscos serão administrados.”
Carta do Future of Life Institute
Future of Life Institute e tecnologia responsável
Fundado em 2015, a partir de um investimento do Elon Musk, o Future of Life Institute busca afastar os novos avanços tecnológicos de possíveis riscos à vida, tanto para a humanidade como para outros seres vivos. A organização está atenta não só a IA, mas também monitora as produções em áreas como biotecnologia e energia nuclear. Esse esforço do instituto para dar suporte à responsabilidade tecnológica tem como visão um mundo onde doenças sejam erradicadas e haja fortalecimento de democracias ao redor do mundo.
As ações da Future of Life chegaram a ser reconhecidas pela Organização das Nações Unidas (ONU) em 2020: a ONU nomeou o instituto como representante da sociedade civil nas questões que envolvem IA. No começo deste ano, porém, o presidente desse órgão observador de tecnologia, Max Tegmark, teve que se desculpar sobre um investimento equivocado em uma plataforma de mídia de extrema-direita, a sueca Nya Dagbladet.
Qual o posicionamento de outras empresas sobre o desenvolvimento de AI?
Empresas consolidadas como Google e Microsoft evitaram comentar sobre a carta do Future of Life Institute. As duas companhias estão se movimentando cada vez mais para oferecer soluções com IA, em face às produções da OpenAI, empresa criadora do ChatGPT. Aliás, a “mãe” de uma das IAs mais famosas do momento recebeu da Microsoft 10 bilhões de dólares em investimento. Simultaneamente, a empresa criada por Bill Gates está usando a tecnologia da OpenAI no seu mecanismo de busca, o Bing.
Neste mês, coincidentemente, Bill Gates chegou a publicar uma carta em que aborda os possíveis efeitos que as soluções com IA podem trazer para o futuro. Já a Google está mantendo seus investimentos em inteligência artificial por meio do Bard, que ainda não está totalmente disponível para o público.
Preocupações de especialistas sobre AI e GPT-4
Mesmo que tenha sido melhorada, a ferramenta GPT-4 ainda entrega resultados com algumas alucinações e pode atender os usuários usando uma linguagem nociva. Mas há quem acredite que a pausa, na verdade, deveria ser para entender mais os benefícios — e não só os danos de tecnologias AI. Essa é a visão de Peter Stone, pesquisador da Universidade de Texas em Austin (EUA).
“Eu penso que é válido ter um pouco de experiência em como [as IAs] podem ser utilizadas propriamente ou não, antes de ir atrás de desenvolver a próxima [tecnologia]. Isso não deveria ser uma corrida para produzir um novo modelo de inteligência artificial e lançá-la antes dos outros.”
Peter Stone
Em contraste a essa posição, um dos signatários, Emad Mostaque, fundador da empresa Stability AI (dedicada a ferramentas com inteligência artificial), disse à Wired que as soluções com IA são uma possível ameaça a própria existência da sociedade. Ele também deu importância a como os investimentos devem ser revistos, levando mais em conta o que pode estar no futuro dessa corrida tecnológica.
“É o momento de deixar de lado prioridades comerciais e dar uma pausa para o bem de todos, mais para pesquisar em vez de entrar numa corrida com um futuro incerto.”
Emad Mostaque
Carta contra AI: tradução na íntegra
Pausa em experimentos gigantes com AI: uma carta aberta
Nós avisamos a todos os laboratórios de inteligência artificial (IA) para pausar imediatamente, pelo menos, por seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4
Os sistemas AI com inteligência capaz de competir com humanos podem mostrar riscos profundos à sociedade e à humanidade, como evidenciado por várias pesquisas extensas da Universidade de Cornell, pelos livros The Alignment Problem (Brian Christian, 2020), Ser-se Humano na Era da Inteligência Artificial (Max Tegmark, 2017) e por outros estudos — sobre avanços na área, ética, impacto no mercado de trabalho, riscos existenciais — além de serem reconhecidos por laboratórios AI de renome. Como afirmado nos Princípios de IA de Asilomar, “IAs avançadas podem representar uma mudança profunda na história da vida na Terra, e devem ser planejadas e administradas com cuidado e com recursos comensurados”. Infelizmente, esse nível de planejamento e gestão não está acontecendo, mesmo que em meses recentes tenha-se visto laboratórios AI começarem uma corrida fora de controle para desenvolver e utilizar mentes digitais cada vez mais poderosas, que ninguém — nem mesmo seus criadores — podem entender, prever, ou controlar de forma confiável.
Agora, os sistemas AI atuais estão se tornando capazes de competir com humanos em tarefas no geral, e nós precisamos nos perguntar: Devemos deixar máquinas inundar nossos canais de informação com proselitismo e inverdades? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Devemos desenvolver mentes não humanas para poder eventualmente nos superar em número e em nível de inteligência, nos tornar obsoletos e nos substituir? Devemos arriscar perder controle da nossa civilização? Tais decisões não devem ser delegadas para líderes em tecnologia sem respaldo. Sistemas de IA poderosos devem ser desenvolvidos apenas quando nós tivermos confiança que seus efeitos serão positivos e seus riscos serão administrados. Essa confiança deve ser bem justificada e aumentada em relação à magnitude das consequências potenciais dos sistemas. Uma posição da OpenAI recente sobre inteligência artificial generativa afirma que “em algum ponto, pode ser importante ter uma revisão independente, antes de começar a treinar sistemas no futuro, para esforços mais avançados, conforme o limite da taxa de crescimento da computação usada para criar novos modelos [de IA]”. Nós concordamos. O momento é agora.
Portanto, nós avisamos a todos os laboratórios de inteligência artificial (IA) para pausar imediatamente, pelo menos, por seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável, e inclui todos os atores-chave. Se tal pausa não pode ser regulada rapidamente, os governantes devem intervir e instituir uma suspensão.
Laboratórios IA e especialistas independentes devem usar dessa pausa para desenvolverem e implementar, em conjunto, uma série de protocolos de segurança compartilhados para o design e desenvolvimento de IAs avançados, que sejam rigorosamente auditados e verificados por avaliadores terceiros. Esses protocolos devem garantir que sistemas regulados por essas normas sejam seguros para além de alguma dúvida razoável — um exemplo são os Princípios AI da OCDE, adotados amplamente e que exigem que sistemas de IA ‘funcionem de forma apropriada e não demonstrem riscos de segurança irresponsáveis’. Isso não significa um hiato no desenvolvimento de IAs em geral, mas simplesmente uma saída de uma corrida perigosa em direção a modelos ‘caixa-preta’ imprevisíveis, cada vez maiores e com capacidades emergentes.
As pesquisas e desenvolvimentos de IAs devem ter o foco redirecionado em tornar os sistemas poderosos do estado-da-arte de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.
Em paralelo, os desenvolvedores de IA devem trabalhar com legisladores de maneira enfática, para acelerar a produção de sistemas de governança de IA rigorosos. Eles devem incluir, no mínimo:
- autoridades reguladoras novas e capazes, dedicadas à inteligência artificial;
- verificação e acompanhamento de sistemas de IA altamente poderosos e de grande aporte em capacidade computacional;
- sistemas de proveniência e de identificação de marca, para ajudar a distinguir os modelos de mentes digitais reais dos sintéticos, bem como o acompanhamento dos vazamentos dessas tecnologias;
- um ecossistema pujante de certificação e de auditoria;
- compromisso com danos provenientes de sistemas de IA;
- financiamento público forte o suficiente para pesquisas técnicas em segurança de IAs; e
- instituições bem financiadas para lidar com impactos econômicos e políticos sérios que as IAs causarem (especialmente em relação à democracia).
A humanidade pode aproveitar um futuro frutífero com a IA. Tendo criado com sucesso sistemas de IA poderosos, nós agora podemos celebrar um ‘verão de inteligência artificial’, no qual nós colhemos os frutos, produzimos a engenharia nesses sistemas para o claro benefício de todos e damos à sociedade uma chance de se adaptar. A sociedade ‘apertou o botão de pausa’ em outras tecnologias com efeitos potencialmente catastróficos para todo mundo — como a clonagem, a eugenia e a engenharia genética. Nós podemos fazer o mesmo aqui. Vamos curtir um longo verão de IA, sem ter pressa para o outono.
Veja também:
Como usar o Midjourney para criar imagens com Inteligência Artificial
Fonte: Wired | Tech Crunch | Future of Life | Vice World News
Revisado por Glauco Vital em 29/3/23.