O tópico da inteligência artificial é cercado por ruídos de marketing e abunda em termos vagos: redes neurais, aprendizado de máquina, aprendizado profundo. Mas nem todos podem explicar claramente qual aprendizado ainda é aprendizado de máquina e qual já é profundo. Enquanto os aficionados por tecnologia discutem o piloto automático de Tesla e assistem a Siri falar com Alice, há muito trabalho no lado negro para introduzir a IA em esquemas fraudulentos.
Mikhail Kondrashin, CTO da Trend Micro na Rússia e no CIS, fala sobre quais recursos de IA já estão sendo usados ??para crimes cibernéticos e o que nos espera no futuro.
O que é o quê no mundo da IA
Antes de falar sobre o uso criminoso de IA , vamos entender os termos.
Inteligência Artificial (IA) é uma tecnologia pela qual um sistema de computador pode simular ações humanas em uma situação semelhante. A data do surgimento da IA ??é considerada 1956, quando no seminário de Dartmouth essa direção foi anunciada por Marvin Minsky, Claude Shannon, John McCarthy e Nathaniel Rochester. Normalmente, a esfera da IA ??inclui sistemas que realizam funções humanas – reconhecimento de fala e imagem, busca de soluções e relacionamentos, treinamento.
A principal diferença entre IA e outros sistemas de computador é a falta de predeterminação: IA pode dar reações diferentes aos mesmos dados de entrada. É quase impossível entender como a IA chegou à sua conclusão.
Existem muitas maneiras de implementar IA, por exemplo, com base em muitas regras ou sistemas especialistas. Desde a década de 1980, a tecnologia mais difundida foi o aprendizado de máquina (Machine Learning, ML). O aprendizado de máquina refere-se a qualquer técnica que permite que os sistemas “aprendam” sem programar explicitamente esse comportamento.
O objetivo do aprendizado de máquina é que um sistema de computador recebe como entrada um grande conjunto de dados e informações sobre quais deles contêm as características desejadas. Esses dados podem ser, por exemplo, informações sobre transações financeiras, bem como quais delas são fraudulentas.
O sistema processa dados usando um algoritmo especial, acumulando-os. Então, todas as decisões são feitas de acordo com o “conhecimento” acumulado – os sistemas ML, como o cérebro humano, criam muitas interconexões no processo de aprendizagem.
Para melhorar a eficiência do aprendizado de máquina, matrizes de dados acumulados e seu processamento passaram a ser realizados em vários níveis, formando redes inteiras de “neurônios” condicionais – camadas que imitam o cérebro humano. Essa tecnologia é chamada de “aprendizado profundo” – Deep Learning, DL . Implementações específicas de sistemas de aprendizado profundo são comumente chamadas de redes neurais.
Ameaças cibernéticas relevantes de IA
Pesquisando os fóruns ocultos, descobrimos que os ciber criminosos já estão se aproveitando ativamente da IA. Vamos considerar algumas dessas áreas.
Deepfakes
Deepfakes se tornou uma das formas mais notáveis ??de uso malicioso de IA. Este termo se refere ao uso de redes neurais para criar conteúdo falso de áudio e vídeo que é quase indistinguível do original.
Esta tecnologia está se tornando uma arma poderosa nas guerras de informação modernas, como resultado da qual uma pessoa não pode mais confiar no que vê ou ouve. E, graças à Internet, às redes sociais e aos mensageiros instantâneos, as falsificações podem se espalhar rapidamente para audiências multimilionárias em questão de horas.
As consequências mais perigosas dos deepfakes:
– destruição da reputação de políticos e figuras públicas;
– perseguir, assediar e humilhar pessoas online;
– chantagem, extorsão e fraude, falsificação de documentos;
– falsificação ou manipulação de evidências eletrônicas em investigações criminais;
– perturbação dos mercados financeiros;
– espalhar desinformação e manipular a opinião pública;
– incitação a atos de violência e protesto social;
– diminuição da confiança na mídia.
Deepfakes ganhou destaque no final de 2017, quando um usuário anônimo do Reddit postou filmes pornôs gerados por IA que apresentavam os rostos de Taylor Swift, Scarlett Johansson, Aubrey Plaza, Gal Gado e Maisie Williams em corpos femininos.
Hackeando captcha
Captcha (CAPTCHA, teste de Turing público completamente automatizado para diferenciar computadores e humanos, teste de Turing público) é um teste de computador que é fácil para uma pessoa passar, mas difícil ou impossível para um computador.
Várias variantes de captcha são usadas em sites para evitar a criação de novas contas, adicionando novos comentários ou respostas em fóruns sem intervenção humana. O desenvolvimento de sistemas para resolver captcha permitirá que os cibercriminosos abusem dos serviços de maneira automatizada.

Os fóruns criminais já oferecem software XEvil, implementado com base em redes neurais e quebrando com sucesso muitas variantes de captcha. A ferramenta usa 80 a 100 threads de processador. O custo do aluguel de tal instrumento é de apenas 4 mil rublos por semana ou 10 mil rublos por mês.
Ignore filtros de spam e software antivírus
A introdução da IA ??se tornou uma nova etapa no confronto entre cibercriminosos e desenvolvedores de soluções de segurança. Com base na implementação bem-sucedida de redes neurais para detectar malware, os vilões cibernéticos começaram a usar o aprendizado profundo para desenvolver maneiras de se esconder da detecção.
Em 2015, eles demonstraram contornar os filtros de spam usando uma rede neural que usava gramática generativa para criar mensagens de e-mail que eram praticamente indistinguíveis daquelas escritas por pessoas reais.
Em 2017, durante a conferência Hat USA17, pesquisadores demonstraram como usar técnicas de aprendizado de máquina para realizar ataques de Compromisso de Email de Negócios (BEC). A técnica que desenvolveram usa dados de vazamentos e informações públicas de redes sociais para projetar um ataque que tem grande probabilidade de ser bem-sucedido.
Na mesma conferência, foi apresentada a ferramenta AVPASS, que permite disfarçar o malware Android como um aplicativo respeitável. AVPASS atingiu o nível de detecção zero no VirusTotal, um serviço de análise de malware online com mais de 5.000 amostras de malware Android.
Outra demonstração do uso malicioso de IA é uma ferramenta que usa aprendizado de máquina para enganar um detector de antivírus baseado em IA. A rede neural embutida no malware seleciona funções do Windows para uso em ataques que não são detectadas pelo detector, mas ao mesmo tempo fornecem a funcionalidade de que os criminosos precisam. Ao mesmo tempo, o motor de ML do antivírus é usado para avaliar a eficácia do resultado e lançar o próximo ciclo de treinamento do malware.
Adivinhando senhas
O princípio das ferramentas de adivinhação de senha, como HashCat e John the Ripper, é que elas geram outra senha de acordo com as regras fornecidas, calculam seu hash e a comparam com o hash da senha real. Em um grande número de casos, um dicionário de senhas frequentemente usadas é usado para gerar senhas, com base nas quais várias variantes são formadas. Por exemplo, para a senha “senha”, essas variações podem ser “senha12345″ ou ” p @ ssw0rd “.
A eficiência desse processo pode ser aumentada com o uso de redes adversárias geradoras (GANs) treinadas em um grande conjunto de dados de vazamentos de senha. Tal rede irá gerar variações correspondentes à distribuição estatística, o que pode acelerar significativamente o processo.
Uma das ferramentas que implementam essa técnica foi mencionada em fóruns de hackers em fevereiro de 2020. A postagem tinha um link para um repositório GitHub que publicou software de cracking de senha treinado em uma matriz de 1,4 bilhão de credenciais.
Lançado em 2019, o PassGAN usa GANs para estudar a distribuição estatística de senhas roubadas e gera variações de qualidade, proporcionando ganhos de velocidade de 51 a 73% em relação ao HashCat.
Penetração em sistemas
O uso de IA pode melhorar os métodos tradicionais de hacking, criando maneiras imprevisíveis de realizar ataques. Uma das ferramentas que implementa esta estratégia é a ferramenta DeepHack apresentada no DEFCON 2017, implementada na base de uma rede neural. O DeepHack permite realizar testes de penetração de rede (pentest) sem a necessidade de coletar informações preliminares sobre o sistema.
A ferramenta usa uma rede neural que gera comandos de forma independente para injeção de SQL e permite automatizar totalmente o processo de hackear bancos de dados em sites.
Uma abordagem semelhante é feita pelo DeepExploit, um sistema de teste de penetração baseado em ML totalmente automatizado. Para criar e testar exploits, DeepExploit interage com a plataforma Metasploit bem conhecida; para treinamento, um algoritmo de reforço chamado Asynchronous Actor-Critic Agents (AC3) é usado, que permite estudar as condições de exploração de uma vulnerabilidade antes de testá-la em um servidor de destino.
Previsões e recomendações
A alta eficiência do uso de IA para cometer crimes levou a um aumento na popularidade de ferramentas apropriadas no ambiente do cibercriminoso. Os pesquisadores esperam um rápido crescimento em ambas as ferramentas para conduzir ataques cibernéticos usando redes neurais e a introdução direta de aprendizado de máquina em malware.
As tentativas de limitar a proliferação de redes neurais ou regular seu uso no nível estadual parecem ser ineficazes e podem levar ao efeito oposto, quando empresas legítimas não serão capazes de usar tecnologias avançadas devido a restrições legislativas, enquanto os criminosos as introduzirão ativamente em sua prática.
O desenvolvimento de tecnologias de detecção de falsificações e o aprimoramento de métodos de detecção do uso de inteligência artificial para o bloqueio automático de recursos fraudulentos, fotos falsas, materiais de áudio e vídeo parecem mais promissores. É extremamente importante informar e discutir publicamente o problema da forma mais ampla possível, o que criará uma percepção mais crítica e reduzirá o nível de influência das falsificações nos processos sociais.