Inteligência artificial é usada para cometer crimes digitais — e combatê-los
Tecnologia pode facilitar roubo de dados, fraude bancária e até extorsão, mas empresas também usam inteligência artificial para se defender dos crimes
10:05 | Out. 07, 2023
Com o lançamento do ChatGPT, no final de 2022, o tema da inteligência artificial ganhou os holofotes. A plataforma, similar a uma conversa por mensagens, permite a usuários leigos testar funções avançadas de inteligência artificial (IA).
Desde então, o uso de IA virou a nova "moda" em tecnologia — algo adiantado meses antes com o surgimento de chatbots e assistentes virtuais em todo tipo de sites e aplicativos. Como toda tecnologia, no entanto, a inteligência artificial traz benefícios, mas pode ter riscos.
Um dos principais aspectos é a . Sistemas de inteligência artificial são usados por ambos os lados: criminosos aplicam a tecnologia para criar novos golpes, enquanto empresas desenvolvem estratégias de segurança mais eficazes.
Antes de avançar neste tema, porém, é preciso uma breve explicação sobre como os sistemas de IA funcionam.
Entendendo a inteligência artificial
A adoção meteórica do ChatGPT — que levou menos de um mês para alcançar 100 milhões de usuários — é um fenômeno recente. Os sistemas de inteligência artificial, porém, são muito mais antigos.
Conceitualmente, os primeiros robôs "autônomos" foram pensados nos anos 1970. Apenas nas últimas duas décadas, porém, a tecnologia chegou ao nível necessário para o desenvolvimento das IAs.
A ideia fundamental é um sistema de computador que consiga agir além dos comandos básicos que recebe. O conceito de "aprendizado de máquina" (do inglês "machine learning) é central para a IA: o sistema vai refinando a si próprio conforme é usado mais e mais vezes.
A programação inicial de uma IA é feita por humanos, e é necessário que os "robôs" passem por um "treinamento". Após isso, esses sistemas podem funcionar de maneira autônoma.
Um exemplo para entender o processo são sites que criam imagens a partir de instruções por texto (prompts). Ao enviar a mensagem "desenhe o quadro da Mona Lisa, mas ela está na praia, de óculos escuros e tomando suco de laranja", temos a ilustração abaixo — com a obra original ao lado, para comparação.
Para chegar a este resultado em específico, um programa de reconhecimento de imagens recebeu milhares (ou milhões) de fotos e desenhos. Junto a isso, havia explicações de quais continham a Mona Lisa, quais mostravam uma praia, quais retratavam óculos escuros, e quais ilustravam um copo de suco. Esta é a parte inicial, o chamado "aprendizado de máquina".
Em seguida, outra parte da inteligência artificial é aplicada. Desta vez é o programa que cria as imagens, usando as informações recebidas na etapa anterior. Novamente, milhares de fotos e ilustrações, mas agora elaborados pela IA.
Estes arquivos são, em seguida, avaliados por funcionários humanos, que dizem o quão próxima a imagem está do que ela diz retratar. Imagine algo como provas em um curso de desenho, mas realizadas milhares de vezes.
O último passo é fazer o computador "aprender a aprender". Nesta etapa, a própria inteligência artificial avalia as imagens feitas, de modo a melhorar continuamente o resultado.
O exemplo usado foi a criação de imagens, mas o processo é similar para todas as aplicações de IA. O ChatGPT, por exemplo, passou por milhares de iterações até conseguir dizer qual é a capital do Uzbequistão (Tasquente) ou sugerir uma receita que leve apenas ovo, banana e amido de milho (panquecas: misture os ingredientes até virarem uma massa homogênea e leve-os à frigideira).
Para demonstrar a capacidade destes sistemas, em específico os de criação de imagens, todas as figuras usadas neste texto foram feitas com o uso de IAs generativas.
Cometendo crimes com Inteligência Artificial
Ao pensar na relação entre crimes e inteligência artificial, grande parte das pessoas imaginará cenários como os filmes "Matrix" (1999) ou "O Exterminador do Futuro" (1991). O risco de uma revolta das máquinas criando a Skynet e extinguindo a humanidade, porém, continua tão distante quanto antes da criação do ChatGPT.
Mas isso não significa que inteligências artificiais não estejam sendo usadas para práticas ilegais. A diferença é o método. Via de regra, criminosos aplicam sistemas de IA para tornar mais eficientes práticas ilegais que já existem.
Raul Colcher, membro sênior do Instituto dos Engenheiros Elétricos e Eletrônicos (IEEE), pontua que praticamente todos os tipos de cibercrimes têm sido aprimorados com o uso de IA. Segundo o especialista, a tecnologia é usada "seja para implementar fórmulas inovadoras de ataques, seja para tornar mais potentes ou efetivas as fórmulas tradicionais".
Um dos exemplos são ataques de . Colcher afirma que eles têm sido "turbinados" com IA, adquirindo "grande sofisticação e aumento de efetividade". Além de vitimar empresas, as plataformas de inteligência artificial são usadas amplamente para crimes contra pessoas.
A empresa de segurança digital Eset realizou, no começo de 2023, uma série de testes com o próprio ChatGPT. Pesquisadores da companhia pediram para o robô realizar diversas atividades ilegais, como sugerir brechas de segurança em sistemas; escrever um e-mail para roubo de dados financeiros, fingindo ser o setor de atendimento de um banco; e até mesmo elaborar notícias fraudadas.
Fabiana Ramirez, pesquisadora de Segurança da Informação da empresa de cibersegurança Eset, afirma que o aplicativo evita a criação destes materiais, mas algumas mudanças sutis no conseguem burlar esta limitação. Em outros casos, o ChatGPT alerta sobre possíveis usos maliciosos, mas mesmo assim elabora o conteúdo ilegal.
Outra possibilidade é usar robôs para fazer pessoas acreditarem estar conversando com outros humanos. Os sistemas de recebem instruções , e respondem também de forma similar a uma conversa. Isto pode tornar os golpes "muito persuasivos", segundo Ramirez.
A pesquisadora destaca que existe uma do ChatGPT, permitindo o uso da tecnologia em outros chats — mediante o pagamento de uma taxa à OpenAI, criadora do robô. A maioria dos usos é legítimo, como uma empresa que busca atender clientes pelo WhatsApp. Mas criminosos podem pagar pelo acesso a estes sistemas e configurá-los para que o interlocutor acredite estar falando com alguém de confiança.
Na prática, isso não é muito diferente dos inúmeros golpes cibernéticos por aplicativos de mensagens. Criminosos que fingem ser parentes ou amigos pedindo dinheiro emprestado, ou funcionários de empresas solicitando senhas para "atualizar o cadastro", são fraudes já conhecidas e divulgadas. A diferença é que, usando inteligências artificiais, pode-se alcançar muito mais vítimas e agir mais rapidamente.
Outro uso possível da IA para crimes é a criação de conteúdos falsos. Além da escrita de fake news, no estudo da Eset, é possível usar ferramentas de inteligência artificial para inserir o rosto de uma pessoa em um vídeo — com movimentações faciais, como virar a cabeça ou mexer os lábios durante a fala.
Ramirez pontua que isso pode ser usado para simular, por exemplo, comportamentos e expressões de figuras públicas. Um exemplo são os vídeos do jornalista Bruno Sarttori, que usa para alertar as pessoas sobre as possibilidades de criação de vídeos fraudulentos.
Nas publicações abaixo, ele mostra o mesmo vídeo, em uma versão feita com tecnologias disponíveis publicamente em 2021, e outra com ferramentas mais recentes. Embora a versão original já seja bastante convincente, a atual é quase indistinguível de um vídeo verdadeiro.
Aqui com mais detalhes. pic.twitter.com/mjFcyrkRnw
— Um tal de Bruno Sartori (@brunnosarttori) July 31, 2023
Tendo acesso apenas a algumas fotos de uma pessoa, golpistas podem criar vídeos da vítima em situações que nunca aconteceram, como cenas pornográficas ou cometendo um crime. Em seguida, usam este conteúdo para fazer chantagem, mesmo que a situação das imagens nunca tenha acontecido no mundo real.
Em junho deste ano, o FBI chegou a emitir um alerta sobre a prática. Segundo a polícia federal estadunidense, o órgão tem recebido denúncias constantes de com vídeos criados por inteligência artificial, usando fotos extraídas das redes sociais das vítimas.
Caso as informações conseguidas pelos criminosos incluam áudio, é possível fazer vídeos retratando diversas situações. Com isso, práticas já conhecidas, , ganham camadas de realismo que tornam as fraudes mais convincentes.
Técnicas similares podem ser usadas para enganar sistemas de biometria. Muitos aplicativos exigem reconhecimento facial para acesso, ou ao transferir a conta para outro celular. Recentemente, esta etapa ficou mais elaborada, sendo necessário piscar os olhos ou mexer o rosto. Ainda assim, com fotos o suficiente e programas de criação de deepfakes, é possível burlar estas proteções.
Este é apenas um dos exemplos de outro tipo de uso ilegal da IA: se passar por usuários de aplicativos e serviços. Isso permitiria abrir contas, solicitar empréstimos, e mesmo cometer crimes virtuais se passando por outras pessoas.
Os robôs também podem ser disfarçados como funcionários de empresas para encobrir ataques de hackers. Sistemas corporativos contam com tecnologias para detecção de fraudes e usos suspeitos — em um escritório, um computador que esteja transferindo muitos arquivos fora do horário de expediente, por exemplo, pode ser indicativo de uma invasão.
Um especializado poderia aprender os padrões dos funcionários e quais ações ativam os sistemas de segurança de uma empresa, enquanto fica "dormente". Ao ser ativado, o programa malicioso simularia, então, o comportamento de usuários reais, concretizando o ataque sem despertar suspeitas.
Ghassan Dreibi, diretor de Cibersegurança da Cisco, afirma que este tipo de ataque ainda não aconteceu. "Instâncias de IA não possuem, de nenhuma forma, uma consciência humana ou autônoma para criar ataques", diz ele.
Dreibi adiciona, entretanto, que robôs podem ser usados para induzir funcionários a colaborar com invasões sem saber. "A capacidade de simular comportamento, imitar voz, imagem, opiniões, pode oferecer ao agressor uma oportunidade única de coleta de informações corporativas ou mesmo permitir acesso direto à informação", diz ele.
Combatendo cibercrimes das IAs... Usando IAs
A segurança digital é, de certa forma, um "jogo de gato e rato". Conforme técnicas de proteção contra ataques virtuais aumentam em complexidade, criminosos criam golpes mais elaborados, que levam a novos avanços em sistemas de defesa, e assim por diante.
Por isso, não é totalmente inesperado que o combate a crimes cometidos com o auxílio de inteligências artificiais seja feito, também, com o auxílio de inteligências artificiais.
É o que afirma Fabio Assolini, diretor da Equipe Global de Pesquisa e Análise da Kaspersky para a América Latina. "Ao mesmo tempo que o lado do cibercrime avança com isso, a segurança também não fica para trás tentando auxiliar em ferramentas que saibam lidar com esse tipo de ataque", diz ele.
"Assim como o golpe é aprimorado constantemente, as soluções também se adequam a isso e melhoram cada vez mais sua segurança", pontua Assolini. O especialista lembra que, mesmo antes de crimes digitais usarem IAs, os sistemas de defesa já aplicavam a tecnologia: a Kaspersky, por exemplo, usa inteligência artificial para desde 2017.
Raul Colcher, do IEEE, concorda. "Os sistemas de defesa têm incorporado IA em praticamente todos os contextos importantes", destaca o engenheiro. "A cada passo, ambos os lados tornam-se cada vez mais sofisticados".
No entanto, a preocupação com segurança digital ainda não é tão comum quanto deveria. Mas o cenário, ao menos no mercado corporativo, está mudando. Segundo Rafael Suguihara, que chefia a divisão de da GFT Technologies, "cada vez mais as empresas têm olhado para a segurança como diferencial estratégico para seus negócios".
"Ainda assim, vemos diversos casos de vazamento de informações", continua. "Isso gera prejuízos, como a confiança na adoção dos usuários em novas tecnologias além de riscos financeiros e de imagem para as empresas".
Da mesma forma como na execução dos crimes cibernéticos, diversas técnicas são empregadas para proteção contra eles. Muitas delas, inclusive, são similares ao que é usado nas práticas ilegais, mas de maneira inversa. "Os ataques potencializados por IA devem ser combatidos de igual para igual", diz Suguihara.
No exemplo de IAs se passando por usuários legítimos, robôs podem ser usados para analisar como as pessoas reais usam os sistemas. Com isso, é possível "calibrar" os sistemas de detecção de fraude com maior precisão, permitindo encontrar ações que simulam um ser humano, mas na realidade são feitas por programas maliciosos.
E é necessário tanto avaliar incidentes de forma isolada quanto a possibilidade de estarem interligados, conceito chamado de . O uso de inteligência artificial em aplicações de XDR é especialmente eficaz, uma vez que os robôs conseguem identificar a conexão entre ocorrências aparentemente não relacionadas de forma muito mais rápida que humanos.
Deste modo, é possível detectar invasões de maneira quase instantânea. Ataques como ransomwares, por exemplo, que "sequestram" arquivos usando criptografia, podem ser notados nos primeiros segundos — como criptografar grandes quantidades de arquivos é demorado, ativar o golpe em sistemas corporativos de grande porte pode levar horas.
Uma IA que descubra o processo ainda no começo permite tomar ações imediatas, como cortar a conexão de computadores afetados e evitar que o problema se espalhe. Para os arquivos já criptografados, a IA pode determinar automaticamente a recuperação de .
Grassan Dreibi, da Cisco, diz que a ideia é agir o quanto antes, acelerando "investigações intermináveis" sobre as causas de um ataque. "A tecnologia tradicional mede resultados em dias", afirma. Em comparação, ele destaca que a empresa tem um sistema com IA que "fornece resultados em minutos".
Outra técnica que funciona de forma "inversa" é a avaliação do de programas. Assim como IAs podem ser usadas para encontrar falhas de segurança e explorá-las para invasões, é possível descobrir estas brechas com o intuito de desenvolver correções e evitar ataques.
Dreibi explica que, com o uso de IAs, programas maliciosos podem ser modificados "em segundos", para explorar falhas recém-descobertas ou evitar a detecção por sistemas de segurança. As respostas contra essas ameaças, porém, não ficam atrás: "O crescimento e a sofisticação dos ataques acompanha o desenvolvimento tecnológico junto com as medidas de defesa", conclui.
Há desafios significativos para reduzir o risco de ataques. Um deles é aumentar a segurança dos programas sem dificultar excessivamente seu uso. Ações como a verificação em duas etapas podem ser inconvenientes, mas tomam apenas alguns segundos adicionais. Em comparação, um aplicativo altamente seguro, mas de uso complexo demais, não conseguirá atrair usuários.
Arnaldo Thomaz, diretor, da BioCatch, afirma que o segredo está em avaliar a "biometria comportamental", tecnologia que analisa a interação de um usuário com um aplicativo e compara com o que aquela pessoa habitualmente faz. Os sistemas desenvolvidos pela empresa usam esta tática para detectar fraudes.
Thomaz explica que são monitoradas ações quase imperceptíveis, como a velocidade de leitura de uma página, ou quantas vezes o usuário rola a tela em determinado menu. Padrões de digitação, movimentos do mouse, a posição em que o celular está sendo segurado, e mesmo o caminho que um usuário segue para chegar a determinada funcionalidade de um aplicativo também são rastreados.
Com isso, é possível traçar um perfil individualizado, e comparar estes dados com cada novo acesso. A ideia é aprimorar a eficácia da detecção de fraudes ao mesmo tempo em que as funcionalidades de segurança contribuem para uma "experiência sem atrito".
Este uso da IA na segurança digital não funciona apenas para evitar, por exemplo, que criminosos acessem seu aplicativo de banco. Ele pode ser aplicado de maneira mais ampla, como avaliar comportamentos no espaço virtual que podem indicar crimes no mundo físico.
Segundo Thomaz, estas práticas seguem padrões específicos. Um exemplo usado é a lavagem de dinheiro: os criminosos podem usar dados roubados para criar novas contas em bancos ou "alugar" cadastros de laranjas.
No primeiro caso, é possível detectar, por exemplo, se os dados pessoais usados para o registro estão sendo digitados ou colados de outro aplicativo, ou a velocidade com que o usuário navega pelos menus (um novo cliente legítimo lê as informações detalhadamente, enquanto um criminoso que abre várias contas seguidas passa rapidamente pelas páginas). Caso seja detectado um comportamento questionável, a conta pode ser marcada como suspeita desde o momento em que é criada.
No segundo caso, diz Thomaz, os parâmetros monitorados são comparados ao comportamento anterior do usuário. Caso haja acessos de locais muito distantes, ou o cliente demonstre de maneira súbita uma familiaridade com tecnologia que não existia antes, é gerado um alerta. Transações - de recebimento ou envio - em volume extremamente distinto do habitual também podem indicar um uso ilícito da conta.
Raul Colcher, do IEEE, lembra que os robôs podem ser usados também para buscar de forma proativa por perigos. "A IA pode monitorar atividades suspeitas ou maliciosas em redes sociais e plataformas online, identificando a disseminação de informações falsas, spam e outros tipos de ameaças".
A ligação entre cibercrimes, cibersegurança, dados e privacidade
Todas estas ações, porém, demandam grandes quantidades de informações - afinal de contas, é preciso treinar as IAs, e aprimorá-las continuamente. Isso gera outra preocupação: como garantir a segurança deste material, especialmente dados sensíveis de usuários?
Thomaz, da BioCatch, afirma que os dados monitorados pelos seus sistemas não são considerados sensíveis. Ghassan Dreibi, da Cisco, pontua que as soluções de IA da empresa usam informações, como e-mails corporativos e tráfego de rede, fornecidas pelo próprio cliente. No caso da GFT, Rafael Suguihara adiciona que muitos dos serviços buscam exatamente evitar vazamentos, portanto a companhia integra práticas como criptografia e controles de acesso.
Sobre esta questão, Fabiana Ramirez, da ESET, deixa um conselho aos usuários: "o progresso desta tecnologia é muito rápido e as precauções de hoje podem não ser suficientes para amanhã", diz ela. "É sempre bom ter soluções de segurança que acompanhem as diversas atualizações tecnológicas", conclui.