O que é dark AI?
Dark AI, também conhecida como IA maligna, é o uso da inteligência artificial para propósitos mal-intencionados, como ciberataques, fraudes, golpes, campanhas de desinformação e violações de dados. Em alguns casos, programas de dark AI são criados com propósito expresso de perpetuar esses atos mal-intencionados, enquanto em outros, programas de IA neutros ou benéficos têm o propósito alterado para ser prejudiciais.
A dark AI é tipicamente associada a cibercriminosos, como hackers, golpistas e outros fraudadores que utilizam IA para criar ou executar seus esquemas. Isso pode permitir que eles efetuem ataques mais sofisticados ou apliquem golpes com mais rapidez e facilidade do que nunca.
Algumas definições também categorizam a IA utilizada na guerra como dark AI. Por exemplo, Israel utilizou programas de IA como auxílio para selecionar alvos em Gaza. E, na guerra da Rússia contra a Ucrânia, ambos os lados empregaram IA para propósitos como análise de dados de campo de batalha.
As preocupações sobre o papel da IA na guerra aumentaram ainda mais em fevereiro de 2025, quando o Google revogou um banimento de longa data sobre o uso de IA para desenvolvimento de ferramentas de vigilância e armas.
Exemplos de dark AI
Exemplos de dark AI incluem deepfakes prejudiciais usados para manipulação e dano à reputação, programas de IA generativa desenvolvidos para escrever mensagens de golpes e softwares de IA criados para facilitar ciberataques.
A IA pode ser usada para vários tipos de atividades nefastas, desde a criação de deepfakes à aplicação de golpes.
IA de deepfake
Deepfakes são mídias criadas por IA que imitam a aparência de uma pessoa, seja seu rosto, comportamento ou voz. Vídeos deepfake costumam ser usados para criar clipes humorísticos que satirizam políticos, atletas e celebridades, mas também podem ser usados para causar danos à reputação de uma pessoa ou espalhar notícias falsas.
A pornografia deepfake é um problema crescente e um dos principais assuntos nas conversas sobre o potencial prejudicial dessa tecnologia. Por exemplo, escolas na Coreia do Sul e na Espanha já sofreram com uma epidemia de deepfakes, com crianças criando e compartilhando vídeos deepfake explícitos de colegas de turma.
Muitas figuras públicas famosas, como a cantora Taylor Swift, a streamer Pokimane do Twitch e a representante dos EUA Alexandria Ocasio-Cortez também foram vítimas de deepfakes.
Desinformação de IA
A desinformação de IA envolve o uso de IA para criar e compartilhar notícias falsas, enganosas ou sem substância e outros recursos. Essa desinformação em geral é espalhada por meio de deepfakes. Durante a guerra da Rússia contra a Ucrânia, por exemplo, atores e partidários do estado utilizaram deepfakes repetidamente para disseminar desinformação e propaganda.
Embora algumas pessoas possam discernir esses vídeos como obviamente falsos, os deepfakes ficarão cada vez mais realistas à medida que a tecnologia avança. Isso pode resultar em campanhas de desinformação mais bem-sucedidas de estados e indivíduos no futuro.
Sites de notícias falsas geradas por IA também estão aparecendo online, frequentemente com URLs parecidos com aqueles de conhecidas organizações de notícias, como CBS, BBC, ESPN e NBC. Em alguns casos, esses sites usam IA para gerar resumos e copiar histórias dos sites que estão imitando. Isso pode resultar em fraseologia e estruturas de artigo estranhas, na introdução de imprecisões factuais e em evidências enganosas.
Outros sites de dark AI são especificamente projetados para disseminar notícias falsas. Por exemplo, o USNewsper.com se posiciona como uma fonte legítima de notícias nacionais nos EUA, mas foi acusado de ser um site gerado por IA registrado na Lituânia. O site ganhou notoriedade por espalhar falsas alegações de que a saída de Joe Biden das eleições presidenciais dos EUA de 2024 era na verdade uma farsa.
AI de phishing
Golpistas podem usar dark AI para desenvolver e agilizar campanhas de phishing, que envolvem o envio de mensagens a partir de fontes aparentemente legítimas para espalhar malware ou enganar vítimas para que elas revelem informações confidenciais ou enviem dinheiro.
Cibercriminosos podem tirar vantagem de modelos de linguagem de larga escala (LLMs) para tornar e-mails de golpe mais realistas. Embora o ChatGPT e outros LLMs populares tenham restrições, como filtros de moderação de conteúdo, restrições de dados em tempo real, detalhes técnicos limitados e políticas de operação ética e legal, isso pode ser contornado ao elaborar as solicitações com cuidado. No entanto, golpistas também podem se aproveitar de dark GPTs, programas que funcionam de forma similar ao ChatGPT, mas sem essas limitações.
Golpistas também podem usar a dark AI para pesquisar e marcar vítimas como alvos, capitalizando a capacidade da IA de processar rapidamente grandes volumes de informações disponíveis publicamente. Eles podem rapidamente colher esses dados a partir de fontes como mídias sociais e sites de busca de pessoas para determinar quem pode ser um alvo vulnerável e qual seria a melhor abordagem para cometer uma fraude contra essa pessoa.
Após escolher um alvo, eles podem também carregar uma biografia dele no dark GPT e usar a IA para gerar mensagens de phishing convincentes e personalizadas. Isso potencialmente permite que os golpistas produzam ataques por mensagem de texto ou e-mail a uma velocidade muito maior.
Fraude de IA
Fraude de IA se refere ao uso de dark AI para manipular indivíduos, sistemas ou empresas a fornecerem recompensas financeiras ou outras vantagens injustas. Por exemplo, golpistas já usaram imagens deepfake do ator Brad Pitt para enganar uma mulher na França e fazê-la acreditar que estava em um relacionamento romântico com ele, aplicando um golpe que a fez desembolsar mais de 800 mil dólares.
Essa não foi a única vez que deepfakes de uma celebridade foram utilizados enganosamente em uma fraude de IA. Várias empresas de golpes já usaram imitações de celebridades geradas por IA para anunciar seus produtos, como um falso Tom Hanks promovendo um plano dental, uma falsa Jennifer Aniston à frente de um suplemento de saúde e uma falsa Taylor Swift endossando uma distribuição fraudulenta de utensílios de cozinha da Le Creuset.
A IA também já foi usada para fraudes em investimentos, forçando a FINRA (autoridade reguladora do setor financeiro dos EUA) a emitir alertas para investidores. Por exemplo, promoções por deepfakes de celebridades e sites de empresas falsas permitiram esquemas do tipo pump-and-dump, nos quais os golpistas inflam o preço dos ativos para vendê-los no topo e causar prejuízo aos investidores.
Golpistas de IA também ficaram conhecidos por usar a dark AI na manipulação de mídias sociais. Ao usar IA para criar e manter centenas de contas falsas em plataformas como X, eles podem fazer com que golpes pareçam mais críveis.
Atividade de hackers com IA
Um dos usos com mais consequências da dark AI é na atividade de hackers. Hackers podem usar programas de IA para acelerar a revelação de senhas, evitar sistemas de segurança, automatizar invasões e minar dados. É importante lembrar que a IA não é infalível e sempre há maneiras de se defender contra invasões de IA. Senhas fortes e únicas, por exemplo, podem ajudar a mitigar o risco de técnicas de descoberta de senhas.
Exemplos de dark GPTs
Dark GPTs são modelos de linguagem de larga escala (LLMs) usados com propósito mal-intencionado. Eles utilizam um tipo de IA conhecido como ANI (inteligência artificial estreita) para criar chatbots. Esses GPTs costumam ser versões hackeadas ou com jailbreaking de LLMs legítimos, como o ChatGPT, mas, em alguns casos, são criados para um propósito mal-intencionado.
FraudGPT
FraudGPT, talvez o mais conhecido dark GPT, está disponível na dark web e anunciado como uma solução completa para os cibercriminosos. Ele pode ser usado para realizar diversas tarefas, como escrever malwares, mensagens fraudulentas e páginas enganosas da web. Além disso, o FraudGPT é capaz de detectar vazamentos e vulnerabilidades em redes, sistemas e aplicativos, assim como de monitorar os sites, mercados e grupos que são alvo dele.
WormGPT
O WormGPT é um dark GPT com foco na criação de malwares e códigos maliciosos. Ele só está disponível na dark web e foi especialmente prevalente na condução de ataques de comprometimento de e-mail comercial (BEC). O WormGPT foi treinado com dados feitos para simular técnicas de invasão do mundo real, o que o torna uma das ferramentas de criação de malware mais perigosas à disposição.
PoisonGPT
O PoisonGPT foi desenvolvido para ser um exemplo educacional de dark AI. Criado por uma empresa francesa de cibersegurança, o PoisonGPT foi criado para demonstrar o quão rapidamente os LLMs de código aberto podem ser carregados de desinformação por atores mal-intencionados.
Como se proteger contra ameaças de IA
Você pode ajudar a se proteger contra ameaças de dark AI usando senhas fortes e autenticação multifator, limitando sua presença online, examinando e-mails e mensagens de texto e acessando apenas fontes de notícias verificáveis. Veja em mais detalhes as principais medidas que você pode adotar para se defender de ataques de IA:
-
Comunique-se com cautela: Tire um tempo para examinar adequadamente e-mails e mensagens de texto antes de interagir, mesmo que pareçam ser de um amigo, parente, colega de trabalho ou de uma empresa.
-
Verifique as fontes: Certifique-se de confirmar a validade do que você lê online para evitar cair em desinformação propagada por IA. Por exemplo, se você leu uma notícia aparentemente de grandes proporções, verifique se outras fontes conhecidas estão falando do mesmo assunto antes de acreditar.
-
Procure discrepâncias: Se você suspeita estar assistindo a um vídeo deepfake, preste atenção aos detalhes, como o rosto e o pescoço, bem como a falhas de áudio, para ajudar a determinar se o vídeo é falso. Se algo parece errado, normalmente há uma razão.
-
Use senhas fortes: Use sempre senhas complexas e únicas nas suas contas online. Desta maneira, mesmo que uma senha seja comprometida por um ataque de descobrimento de senhas de uma dark AI, ao menos suas outras contas não estarão correndo risco imediato.
-
Habilite a autenticação de dois fatores: Ativar a autenticação de dois fatores (2FA) adiciona uma camada extra de segurança às suas contas, ajudando a impedir que os hackers tenham acesso mesmo que tenham a sua senha.
-
Use uma ferramenta forte de segurança online: Um programa antivírus robusto pode ajudar a proteger seu sistema e remover vírus e outros malwares que podem ser instalados quando você sofre um ataque de phishing ou clica em um link de um site falso.
-
Limite sua presença online: Deepfakes requerem materiais-fonte a partir dos quais desenvolver a semelhança de aparência. Você pode reduzir o risco de ter a aparência roubada ao limitar a quantidade de fotos e vídeos que compartilha online — ou ao menos aplicar configurações de privacidade ao seu perfil do Facebook e outras contas de mídias sociais.
-
Mantenha um mínimo de dados online: Tente limitar as informações que compartilha publicamente, como aniversário, local de trabalho, família próxima etc. Isso irá limitar a quantidade de detalhes que golpistas e hackers podem usar para formular e-mails de phishing convincentes ou outros golpes que tenham você como alvo.
Obtenha ajuda para se proteger da dark AI
A dark AI está em constante evolução, possivelmente tornando as ciberameaças mais fraudulentas e perigosas do que nunca. De deepfakes e ataques de phishing com IA a ferramentas de invasão sofisticadas, os cibercriminosos estão usando IA para explorar vulnerabilidades e manipular informações para atender a seus objetivos mal-intencionados.
Obtenha proteção baixando o Avast Free Antivirus, a solução de segurança completa que ajuda a detectar e bloquear golpes, malwares e tentativas de phishing.