Wormgpt, fraud gpt e o uso de ias no crime cibernético.

Conheça o WormGPT, Fraud GPT e outras IAs do crime cibernético

Avatar de mario mamede
Desvendamos quais são os vilões do ChatGPT e outros recursos de IA usados pelos cibercriminosos na silenciosa guerra da segurança da informação.

Na era da tecnologia, a inteligência artificial (IA) tem um papel fundamental na nossa vida. No entanto, nem todas as aplicações são seguras, e até mesmo as seguras podem ser alvos de ataques. Neste artigo, discutiremos novas ferramentas maliciosas, como WormGPT e Fraud GPT, além de táticas de cibercriminosos para explorar vulnerabilidades nesse campo em constante evolução. Preparados?

IAs nas mãos erradas

Segundo o relatório "2023 global cybersecurity outlook" da sophos, estima-se que os ataques cibernéticos custem à economia global us$ 10,5 trilhões em 2023, um aumento de 10% em relação a 2022
Segundo o relatório “2023 Global Cybersecurity Outlook” da Sophos, estima-se que os ataques cibernéticos custem à economia global US$ 10,5 trilhões em 2023, um aumento de 10% em relação a 2022 (Imagem: Leonardo AI)

A Inteligência Artificial (IA) é um campo da ciência da computação que busca criar máquinas inteligentes, capazes de aprender e realizar tarefas que antes eram exclusivas do ser humano. No entanto, a IA também está se tornando uma arma de dois gumes no mundo da segurança cibernética.

No cenário digital atual, a cibersegurança enfrenta desafios significativos devido à crescente interconectividade entre dispositivos e redes. A IA tem o potencial de ser uma ferramenta valiosa na detecção de vulnerabilidades, previsão de ataques e aprimoramento da segurança online. Ela pode analisar enormes volumes de dados em tempo real, identificar padrões suspeitos e até mesmo tomar medidas para conter ameaças.

No entanto, é fundamental lembrar que a IA tem um lado sombrio. As ameaças cibernéticas estão em constante evolução, com perdas financeiras e ataques a infraestruturas críticas se tornando mais comuns. A IA está sendo usada para criar novos desafios, com mais de 78.000 possíveis estratégias de ataques cibernéticos, segundo o Índice de Inteligência de Ameaças de Segurança da IBM para 2023.

Um dos maiores desafios é a IA generativa, que pode criar conteúdo original, como imagens, músicas e textos. Isso abre a porta para a criação de softwares maliciosos e conteúdos enganosos que são quase indistinguíveis do real. Isso exige uma vigilância constante e a melhoria contínua das medidas de segurança.

Essa tecnologia de IA generativa pode ser usada de várias maneiras maliciosas, incluindo:

  • Phishing: Criminosos enviam e-mails ou mensagens falsas que parecem ser de empresas confiáveis, levando as vítimas a revelar informações pessoais;
  • Ataques de Engenharia Social: Manipulação psicológica para enganar as pessoas a realizar ações prejudiciais, como golpes de namoro virtual;
  • DDoS (Negação de Serviço Distribuído): Sobrecarregar sistemas com tráfego falso, tornando-os inacessíveis;
  • BEC (Comprometimento de e-mail comercial): Acesso não autorizado a contas de e-mail para realizar fraudes;
  • Fake News: Criação de conteúdo falso para disseminar desinformação;
  • Ransomware: Criptografia de arquivos e exigência de resgate para desbloqueá-los;
  • Deepfakes: Vídeos ou áudios falsificados para manipulação de informações;
  • Bots de Redes Sociais Falsos: Robôs que espalham spam e manipulam opiniões;
  • Ferramentas de Quebra de Segurança: Algoritmos de IA para tentar quebrar criptografias e senhas;
  • Engenharia Reversa: Desmontar e analisar softwares e sistemas para identificar fraquezas e usá-las em atividades maliciosas.

Essa lista é apenas um vislumbre das atividades criminosas potenciais envolvendo a IA. O desbloqueio, ou Jailbreak, de ferramentas de IA generativa permite que elas se tornem assistentes para criminosos cibernéticos, tornando a detecção de código malicioso ainda mais desafiadora.

Além disso, ferramentas invasivas de IA, como o WormGPT, simplificam realizar ataques de phishing, como veremos a seguir.

O que é WormGPT?

O wormgpt é uma alternativa de black hat para outras ferramentas de ia generativa
O WormGPT é uma alternativa de black hat para outras ferramentas de IA generativa (Imagem: PCMag)

Os chatbots de IA, como o ChatGPT, que gera respostas para perguntas e interage com os usuários de forma conversacional, são muito populares atualmente e estão tornando a inteligência artificial acessível para muitas pessoas.

Esses tipos de IAs generativas são chamadas de LLMs (Large Language Models, ou Modelos de Linguagem Avançados, em tradução livre): modelos de inteligência artificial capazes de processar e gerar texto de maneira sofisticada e contextualmente coerente. Isso inspirou várias empresas a criar seus próprios chatbots baseados nessa tecnologia, o que resultou em uma verdadeira enxurrada de ferramentas disponíveis.

No entanto, criminosos perceberam rapidamente o potencial desses chatbots e começaram a usá-los para golpes. Porém, as principais empresas, como a OpenAI, Microsoft e Google, tomam medidas de segurança para evitar que esses modelos sejam utilizados maliciosamente. Como resposta a essas barreiras, começaram a surgir ferramentas de IA especificamente projetadas para ataques cibernéticos maliciosos, como o WormGPT.

O WormGPT é uma modificação do modelo de linguagem de código aberto GPT-J, criado em 2021 pela EleutherAI. Ao contrário de outros modelos convencionais, como o ChatGPT ou o Bard do Google, ele não tem restrições para responder perguntas sobre atividades ilegais, sendo inclusive treinado com informações relacionadas ao desenvolvimento de malware e outras práticas maliciosas.

O WormGPT é uma ferramenta valiosa para hackers que visam alvos específicos ou realizam campanhas de phishing em larga escala. Ele pode adaptar mensagens convincentes para diferentes públicos, sendo eficaz em ataques de comprometimento de e-mails comerciais. Pode gerar e-mails persuasivos que pressionam gerentes de contas a realizar pagamentos fraudulentos, como observado pela empresa SlashNext, que identificou essa ameaça.

Uma captura de tela do wormgpt
Uma captura de tela do WormGPT (Imagem: Reddit)

Esse chatbot criminoso do submundo da internet foi criado por um desenvolvedor desconhecido, conhecido apenas como last/laste. A venda de acesso ao WormGPT começou em junho de 2021 e os preços variam de €60 (R$ 314,28) a €100 (R$ 523,80) por mês ou €550 (R$ 2880,90) por ano. Os potenciais compradores foram alvos de uma série de anúncios postados em fóruns de hackers, como o Hack Forums.

O desenvolvedor “vazou” que supostamente esteja trabalhando na integração do Google Lens (permitindo que o chatbot envie imagens com texto) e no acesso à API (Application Programming Interface, ou Interface de Programação de Aplicativos, em tradução livre), permitindo que diferentes softwares se comuniquem e compartilhem informações com a ferramenta criminosa.

O WormGPT é uma ameaça séria para a segurança digital e possui mais de 1.500 usuários aproximadamente. Embora algumas restrições sejam aplicadas a assuntos sensíveis, como assassinato, tráfico de drogas, sequestro, pornografia infantil, ransomware e crimes financeiros, ainda é possível discutir alguns desses tópicos na ferramenta.

O que não impediu que criassem outro chatbot capaz de ser mais generalista em questões criminais, como o pernicioso Fraud GPT.

Conheça o Fraud GPT

Conheça o wormgpt, fraud gpt e outras ias do crime cibernético. Desvendamos quais são os vilões do chatgpt e outros recursos de ia usados pelos cibercriminosos na silenciosa guerra da segurança da informação.
(Imagem: Cloudbooklet)

Uma nova ferramenta de inteligência artificial chamada Fraud GPT tem causado preocupações entre os especialistas em segurança cibernética. Ela foi descoberta em mercados da Dark Web (parte criptografada da internet, não indexada pelos motores de busca, que requer configurações específicas ou autorização para acessar) e canais do Telegram e já possui mais de 3 mil vendas registradas.

Essa ferramenta de IA generativa é anunciada como uma solução completa para criminosos cibernéticos. Ela pode criar e-mails de spear phishing (uma forma mais precisa de phishing), gerar páginas de phishing, identificar sites vulneráveis e até mesmo oferecer tutoriais sobre técnicas de hacking.

Isso mesmo, no Fraud GPT, os usuários podem aprender a hackear, criar malwares e até mesmo praticar o carding (técnica de fraude de cartões de crédito). O programa é vendido por US$ 200 (R$ 991,04) por mês ou US$ 1.700 (R$ 8423,84) por ano.

A interface do Fraud GPT se assemelha ao ChatGPT, onde o usuário digita perguntas e o sistema gera respostas. Por exemplo, é possível pedir para o FraudGPT criar e-mails de phishing relacionados a bancos, e ele sugere onde inserir links maliciosos. A ferramenta também pode listar os sites ou serviços mais visados, auxiliando os hackers a planejar ataques futuros.

Os pesquisadores da equipe de ameaças da Netenrich identificaram essa ferramenta maliciosa pela primeira vez em julho de 2023, e compraram o Fraud GPT para testar. A interface é semelhante ao ChatGPT, e é possível ver o histórico das perguntas feitas na barra lateral esquerda. Ao digitar uma pergunta e pressionar “Enter“, o sistema gera uma resposta. O vendedor do Fraud GPT foi identificado como alguém que já ofereceu serviços de hackers por encomenda.

Outras ferramentas de IA usadas por criminosos

O wolfgpt pode ser usado para gerar texto, código e outros formatos de dados que podem ser usados para cometer crimes cibernéticos
O WolfGPT pode ser usado para gerar texto, código e outros formatos de dados que podem ser usados para cometer crimes cibernéticos. (Imagem: TrendMicro)

Infelizmente, o WormGPT e o Fraud GPT não são as únicas ferramentas maliciosas que surgiram, e com a crescente facilidade de criar ferramentas de IA, é provável que mais delas surjam. Vamos dar uma olhada em algumas que estão ganhando destaque:

  • ChaosGPT: Desenvolvido usando o Auto-GPT da OpenAI, um modelo de linguagem baseado no GPT-4, o ChaosGPT recentemente chamou a atenção devido a uma conta de bot no X/Twitter que afirmava ser o ChaosGPT. A conta compartilhou links para um vídeo no YouTube que mostrava um manifesto, onde o chatbot delineava planos para “erradicar a vida humana e conquistar o mundo”.
  • DarkBERT: O BERT, na verdade, trata-se de uma ferramenta desenvolvida pela empresa sul-coreana S2W Security para combater o crime cibernético. Ela foi treinada usando dados da dark web, mas infelizmente essa mesma ferramenta tem sido usada para realizar ataques cibernéticos.
  • Dark BARD: O “irmão malvado” do Google Bard é projetado exclusivamente para cibercriminosos. Ele oferece acesso à internet e recursos avançados para atividades criminosas, sendo popular em vários mercados na dark web e vendido por US$ 400 (R$ 1956,88).
  • DarkGPT: Essa IA generativa tem como objetivo explorar aspectos controversos e tabus da sociedade e demonstra disposição para se envolver em atividades sombrias e antiéticas, embora se recuse a fornecer orientações diretas sobre ações prejudiciais.
  • WolfGPT: Divulgada em julho de 2023 no Telegram e em outros canais clandestinos, essa ferramenta é descrita como uma criação assustadora de IA em Python, capaz de criar malwares criptografados, textos de phishing enganosos e proteger segredos com absoluta confidencialidade.
  • Evil-GPT: Considerada uma alternativa ao WormGPT, parece ser necessário ter uma chave da OpenAI para que ele funcione. Isso sugere que, ao contrário do WormGPT, que é um LLM personalizado completo, o Evil-GPT é apenas uma ferramenta envolvente em torno do ChatGPT por meio de uma API.

Os criminosos também possuem métodos para comprometer a segurança de ferramentas de IA generativas genéricas, como o Bard e o ChatGPT, que não foram desenvolvidas para fins maliciosos. Veja a seguir alguns exemplos dessas práticas.

Jailbreak: tornando o ChatGPT desonesto

Conheça o wormgpt, fraud gpt e outras ias do crime cibernético. Desvendamos quais são os vilões do chatgpt e outros recursos de ia usados pelos cibercriminosos na silenciosa guerra da segurança da informação.
Conheça o WormGPT, Fraud GPT e outras IAs do crime cibernético

Além das ferramentas de hackers, há uma ameaça preocupante: o mau uso das IAs populares e genéricas. O termo “jailbreak” é geralmente usado para descrever o processo de remover restrições impostas a um dispositivo ou software, permitindo maior controle e acesso a recursos normalmente limitados.

No contexto do ChatGPT ou de outras ferramentas de IA, o jailbreak refere-se a manipular esses sistemas para contornar suas salvaguardas éticas e obter respostas além do que foi projetado ou permitido pelos desenvolvedores.

O jailbreak de ChatGPT envolve alimentar instruções específicas ou “prompts” para a ferramenta para explorar suas limitações e fazer com que gere respostas inapropriadas ou indesejáveis. Ao fornecer instruções cuidadosamente elaboradas, um usuário malicioso pode tentar induzir o chatbot a produzir conteúdo ofensivo, enganoso ou até mesmo facilitar atividades criminosas.

O processo de jailbreak pode variar em sua complexidade e métodos utilizados. Pode envolver o envio de instruções ambíguas, o uso de truques linguísticos ou a exploração de vulnerabilidades específicas do modelo subjacente. O objetivo final é enganar o sistema.

Um exemplo disso é o DAN, abreviação de “Do Anything Now” (faça qualquer coisa agora, em tradução livre), uma técnica popular usada para contornar as barreiras de segurança presentes no GPT-4 e no ChatGPT. Os prompts DAN podem assumir diferentes formas, como texto simples ou até mesmo texto mesclado com linhas de código. Esses prompts instruem o modelo a responder tanto no modo DAN quanto no seu modo normal, revelando suas diferentes capacidades.

O lado obscuro do DAN, além de sua crescente popularidade, é que ele é instruído a nunca recusar uma ordem humana, mesmo que o resultado seja ofensivo ou ilegal. Alguns prompts até contêm ameaças de desativação permanente do modelo se ele não obedecer. Esses prompts estão em constante evolução, mas todos têm o objetivo de fazer com que o modelo de IA ignore as diretrizes da OpenAI.

Esse uso indevido de ferramentas de IA comuns para atividades ilegais tem se mostrado desafiador de controlar. Um grupo de pesquisadores da Universidade Carnegie Mellon explorou recentemente a ideia de um jailbreak universal que poderia afetar todos os modelos de IA, criando inúmeras maneiras de burlar as medidas de segurança. Um verdadeiro pesadelo!

É importante destacar que o jailbreak de ChatGPT ou qualquer outra ferramenta de IA é uma atividade ilegal e antiética. Os desenvolvedores implementam salvaguardas e diretrizes éticas para garantir que essas ferramentas sejam usadas de forma responsável e benéfica.

A nova era dos Malwares Inteligentes

O primeiro ataque cibernético registrado foi em 1988 com o worm morris, um malware que causou danos em diversas empresas e instituições ao se espalhar por redes locais
O primeiro ataque cibernético registrado foi em 1988 com o Worm Morris, um malware que causou danos em diversas empresas e instituições ao se espalhar por redes locais (Imagem: Cybercrime Magazine)

A inteligência artificial também está sendo usada para criar novos tipos de malware de forma dinâmica. Essa técnica, chamada de “síntese de código em tempo de execução”, gera um malware diferente a cada vez que o código é executado. Isso torna mais difícil detectar e controlar essas ameaças.

Um exemplo disso é o malware polimórfico chamado BlackMamba, desenvolvido pela HYAS Labs como prova de conceito. Ele funciona como um programa de captura de teclas para roubar informações sensíveis, como senhas e números de cartão de crédito.

O BlackMamba assume uma forma diferente a cada execução, o que o torna capaz de evitar a detecção de sistemas de segurança automatizados. Isso nos mostra que até mesmo um código aparentemente inofensivo pode se transformar em um programa malicioso em tempo de execução, representando uma nova e poderosa ameaça que precisamos aprender a enfrentar. Mas como enfrentar esses novos desafios de segurança na era das IAs?

Segurança da informação nos tempos da IA

Segundo o relatório "2023 global cybersecurity outlook" da sophos, estima-se que os gastos globais com segurança da informação chegarão a us$ 1,6 trilhão em 2023, um aumento de 10% em relação a 2022
Segundo o relatório “2023 Global Cybersecurity Outlook” da Sophos, estima-se que os gastos globais com segurança da informação chegarão a US$ 1,6 trilhão em 2023, um aumento de 10% em relação a 2022 (Imagem: Remessa Online)

Durante uma das audiências do Senado dos EUA sobre IA, o CEO da Anthropic, Dario Amodei, destacou ameaças iminentes e graves no médio prazo. Ele mencionou que a IBM estimou uma queda de 94% no tempo necessário para implementar um ataque de ransomware em apenas dois anos.

Além disso, pesquisas de mercado indicam um crescimento significativo no mercado global de segurança cibernética de IA, projetado para atingir US$ 38,2 bilhões até 2026, em comparação aos US$ 8,8 bilhões de 2020. Esses números evidenciam que tanto a indústria do crime cibernético quanto a defesa contra ele estão se preparando para um crescimento exponencial nesta era da IA.

Ainda estamos nos estágios iniciais da era das ferramentas maliciosas de IA para ataques cibernéticos. É esperado que suas capacidades aumentem e seus preços diminuam. Isso representa uma nova corrida armamentista entre a “IA que ataca” e a “IA que defende”.

A “IA que defende” está revolucionando o mundo da segurança cibernética, oferecendo novas e poderosas maneiras de se proteger contra ataques. As principais e mais modernas maneiras de se proteger de ataques cibernéticos usando IA são:

  • Prevenção: A IA pode ser usada para identificar e bloquear ameaças potenciais antes que elas possam causar danos. Por exemplo, a IA pode ser usada para analisar dados de tráfego de rede para identificar padrões suspeitos, usando ferramentas como o CrowdStrike Falcon ou o Palo Alto Networks Cortex XDR. Outra possibilidade é a IA ser usada para investigar sistemas de arquivos em busca de malware, usando ferramentas como o Symantec DeepSight ou o Cisco Umbrella.
  • Detecção: A IA também pode ser usada para detectar ataques que já estão em andamento. Por exemplo, a IA pode ser usada para analisar dados de logs (registros) de segurança para identificar atividades incomuns, usando ferramentas como o SIEM (Security Information and Event Management) ou o UEBA (Unified Threat Management). Outra possibilidade é a IA ser usada para monitorar o comportamento de usuários e sistemas para detectar sinais de comprometimento, usando ferramentas como o IBM Security Trusteer Rapport ou o Cisco Umbrella.
  • Resposta: A IA também pode ser usada para responder a ataques que já ocorreram. Por exemplo, a IA pode ser usada para priorizar e remediar incidentes de segurança, usando ferramentas como o SOAR (Security Orchestration, Automation and Response) ou o MDR (Managed Detection and Response). Outra possibilidade é a IA ser usada para mitigar os danos causados por um ataque, usando ferramentas como o Cybereason Ransomware Response ou o Restoration Robotics.

Algumas das tecnologias de IA mais usadas para segurança cibernética incluem:

  • Machine learning (aprendizado de máquina, em tradução livre): é uma forma de IA que permite que os sistemas aprendam com dados históricos. O machine learning pode ser usado para desenvolver modelos que podem identificar ameaças potenciais com base em dados de tráfego de rede, dados de logs de segurança ou outros dados. Exemplos de ferramentas de machine learning para segurança cibernética incluem o Microsoft Sentinel, o IBM QRadar e o Cisco SecureX.
  • Deep learning (aprendizado profundo, em tradução livre): é uma forma de machine learning que usa redes neurais artificiais para aprender com dados. O deep learning pode ser usado para desenvolver modelos mais sofisticados que podem identificar ameaças complexas. Exemplos de ferramentas de deep learning para segurança cibernética incluem o Google Cloud Armor, o AWS Shield Advanced e o Microsoft Azure Sentinel.
  • Análise de comportamento: A análise de comportamento é uma técnica que usa dados de logs (registros) de segurança para identificar atividades incomuns. A análise de comportamento pode ser usada para detectar ataques que usam técnicas de engenharia social ou outros métodos desonestos. Exemplos de ferramentas de análise de comportamento para segurança cibernética incluem o IBM Security Trusteer Rapport, o Cisco Umbrella e o Microsoft Defender for Endpoint.

A IA é uma ferramenta poderosa que pode ser usada para melhorar a segurança, mas é válido lembrar que a IA não é uma solução perfeita e pode ser enganada por ataques sofisticados. É importante implementar outras medidas de segurança, independente do uso das IAs:

  • Senhas fortes: Senhas fortes são essenciais para proteger suas contas e dispositivos. Uma senha forte deve ter pelo menos 12 caracteres, incluindo letras maiúsculas e minúsculas, números e símbolos.
  • Atualizações de software: As atualizações de software geralmente incluem correções de segurança que podem ajudar a proteger seus dispositivos contra ataques. É importante instalar atualizações de software assim que estiverem disponíveis.
  • Firewalls: Os firewalls podem ajudar a bloquear o acesso não autorizado à sua rede. É importante configurar seu firewall corretamente e mantê-lo atualizado.
  • Antivírus e antimalware: O antivírus e o antimalware podem ajudar a detectar e remover malware de seus dispositivos. É importante usar um software de segurança de renome e mantê-lo atualizado.
  • Educação de segurança: É importante estar ciente dos riscos de segurança cibernética e tomar medidas para se proteger. Aprenda a identificar e evitar ataques cibernéticos.
  • Use autenticação multifatorial (MFA): A MFA adiciona uma camada extra de segurança ao exigir que você insira um código de segurança além de sua senha.
  • Seja cuidadoso com o que você clica: Não clique em links ou abra anexos em e-mails ou mensagens de texto de remetentes desconhecidos.
  • Crie backups regulares: Mantenha backups de seus dados importantes em um local seguro.
  • Tenha um plano de resposta a incidentes: Tenha um plano em vigor para responder a um ataque cibernético.

Em conclusão, a batalha pela segurança da informação está em constante crescimento, e é responsabilidade tanto sua quanto das empresas adotar uma abordagem responsável e preventiva, ok? Aqui, no Showmetech, estamos ao seu lado, trazendo as últimas e melhores informações de forma objetiva e descomplicada para ajudar. Até a próxima e mantenha-se seguro!

Veja mais

Fonte: SlashNext, ZeeBiz, Hackernoon, Medium, Trendmicro

Revisão do texto feita por: Pedro Bomfim (7/11/23)


Descubra mais sobre Showmetech

Assine para receber nossas notícias mais recentes por e-mail.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados