O chatbot mais popular do mundo, o ChatGPT, está sendo usado por invasores para criar novos tipos de malware.
A empresa de segurança cibernética WithSecure confirmou que encontrou exemplos de malware criados pelo notório autor de IA em estado selvagem. O que torna o ChatGPT particularmente perigoso é que ele pode gerar inúmeras variações de malware, dificultando sua detecção.
Os invasores podem simplesmente fornecer ao ChatGPT exemplos de códigos maliciosos existentes e instruí-lo a criar novas variedades com base neles, permitindo que eles perpetuem o malware sem gastar quase tanto tempo, esforço e conhecimento quanto antes.
A notícia vem em meio a muita conversa sobre a regulamentação da IA para evitar que ela seja usada para fins maliciosos. Quando o ChatGPT se tornou extremamente popular em novembro passado, não havia regras que regessem seu uso e, em um mês, ele estava sendo sequestrado para escrever e-mails e arquivos maliciosos.
Existem certas salvaguardas dentro do modelo que se destinam a impedir que prompts maliciosos sejam executados, mas podem ser contornados por invasores.
Juhani Hintikka, CEO da WithSecure, disse à Infosecurity que os defensores da segurança cibernética normalmente usam inteligência artificial para encontrar e filtrar malware criado manualmente por agentes de ameaças.
No entanto, isso parece estar mudando agora, com poderosas ferramentas de IA como o ChatGPT disponíveis gratuitamente. As ferramentas de acesso remoto foram usadas para fins ilegais e agora o mesmo se aplica à inteligência artificial.
Tim West, chefe de inteligência de ameaças da WithSecure, acrescentou que "o ChatGPT apoiará a engenharia de software, tanto de uma maneira boa quanto ruim, e isso ajuda e reduz a barreira de entrada para desenvolvedores de software malicioso".
De acordo com Hintikka, os e-mails de phishing que o ChatGPT pode criar são geralmente percebidos pelas pessoas e, à medida que os LLMs se tornam mais avançados, pode se tornar mais difícil evitar cair em tais golpes no futuro próximo.
Além disso, à medida que o sucesso dos ataques de invasores aumenta a um ritmo alarmante, os invasores estão reinvestindo e se tornando mais organizados, expandindo as operações por meio da terceirização e aprofundando sua compreensão da inteligência artificial para lançar ataques mais bem-sucedidos.
Hintikka concluiu que, olhando para o cenário futuro da segurança cibernética, "será um jogo de IA boa contra IA ruim".
Leia também: