Root NationNotíciasnotícias de TIInesperadamente! (Não). ChatGPT é usado para criar malware

Inesperadamente! (Não). ChatGPT é usado para criar malware

-

O chatbot mais popular do mundo, o ChatGPT, está sendo usado por invasores para criar novos tipos de malware.

A empresa de segurança cibernética WithSecure confirmou que encontrou exemplos de malware criados pelo notório autor de IA em estado selvagem. O que torna o ChatGPT particularmente perigoso é que ele pode gerar inúmeras variações de malware, dificultando sua detecção.

Os invasores podem simplesmente fornecer ao ChatGPT exemplos de códigos maliciosos existentes e instruí-lo a criar novas variedades com base neles, permitindo que eles perpetuem o malware sem gastar quase tanto tempo, esforço e conhecimento quanto antes.

ChatGPT

A notícia vem em meio a muita conversa sobre a regulamentação da IA ​​para evitar que ela seja usada para fins maliciosos. Quando o ChatGPT se tornou extremamente popular em novembro passado, não havia regras que regessem seu uso e, em um mês, ele estava sendo sequestrado para escrever e-mails e arquivos maliciosos.

Existem certas salvaguardas dentro do modelo que se destinam a impedir que prompts maliciosos sejam executados, mas podem ser contornados por invasores.

Juhani Hintikka, CEO da WithSecure, disse à Infosecurity que os defensores da segurança cibernética normalmente usam inteligência artificial para encontrar e filtrar malware criado manualmente por agentes de ameaças.

No entanto, isso parece estar mudando agora, com poderosas ferramentas de IA como o ChatGPT disponíveis gratuitamente. As ferramentas de acesso remoto foram usadas para fins ilegais e agora o mesmo se aplica à inteligência artificial.

Tim West, chefe de inteligência de ameaças da WithSecure, acrescentou que "o ChatGPT apoiará a engenharia de software, tanto de uma maneira boa quanto ruim, e isso ajuda e reduz a barreira de entrada para desenvolvedores de software malicioso".

De acordo com Hintikka, os e-mails de phishing que o ChatGPT pode criar são geralmente percebidos pelas pessoas e, à medida que os LLMs se tornam mais avançados, pode se tornar mais difícil evitar cair em tais golpes no futuro próximo.

ChatGPT

Além disso, à medida que o sucesso dos ataques de invasores aumenta a um ritmo alarmante, os invasores estão reinvestindo e se tornando mais organizados, expandindo as operações por meio da terceirização e aprofundando sua compreensão da inteligência artificial para lançar ataques mais bem-sucedidos.

Hintikka concluiu que, olhando para o cenário futuro da segurança cibernética, "será um jogo de IA boa contra IA ruim".

Leia também:

Inscrever-se
Notificar sobre
convidado

0 Comentários
Avaliações incorporadas
Ver todos os comentários