Root NationNotíciasnotícias de TIMicrosoft anunciou uma solução protetora de IA baseada no GPT-4 Security Copilot

Microsoft anunciou uma solução protetora de IA baseada no GPT-4 Security Copilot

-

Sistemas de inteligência artificial (IA) já estão sendo usados ​​para criar gráficos, chatbots e até mesmo controlar casas inteligentes. Empresa Microsoft confiou à IA uma das esferas mais importantes da vida moderna – a proteção contra ameaças cibernéticas. A ferramenta Security Copilot permite reconhecer um ataque cibernético mesmo quando não há sinais óbvios e ajuda na sua eliminação.

Em situações em que a segurança do seu computador é comprometida por algum motivo, o Security Copilot o ajudará a determinar o que aconteceu, o que fazer e como evitar que incidentes semelhantes aconteçam com outras pessoas. A empresa apresentou uma nova solução baseada no modelo GPT-4 - o Security Copilot ajuda clientes corporativos a lidar com ameaças.

Microsoft copiloto de segurança

Até o momento, a ferramenta está disponível apenas para clientes corporativos. O mesmo grande modelo de linguagem que alimenta aplicativos como o Bing Chat está por trás do Security Copilot. Porém, neste caso estamos falando de uma opção especialmente treinada nos materiais e na terminologia utilizada pelos profissionais de TI. Além disso, Microsoft já integrou o Copilot com suas outras ferramentas de segurança. A empresa promete que com o tempo poderá utilizar soluções de software de terceiros.

Embora a maioria dos aplicativos personalizados baseados em GPT-4 tenham sido treinados em conjuntos de dados um tanto desatualizados, o Security Copilot obtém novas informações em tempo real, estudando literalmente trilhões de sinais de ameaças que Microsoft recebe diariamente. Esta é a vantagem do modelo - o Security Copilot pode reconhecer sinais ocultos antes mesmo que o fato de um ataque se torne óbvio. Graças a isso, a ferramenta pode ser usada para reconhecer e eliminar ameaças em tempo hábil.

Microsoft copiloto de segurança

Ao mesmo tempo, ficou claro há algum tempo que IAs como ChatGPT, Bing Chat ou Google Bard podem ter “alucinações” durante as quais fatos completamente não confiáveis ​​são usados ​​como base para “raciocínio”. No domínio da segurança, isto pode tornar-se um fenómeno muito perigoso. EM Microsoft já confirmaram que o Security Copilot “nem sempre acerta as coisas”. Felizmente, no caso do produto Microsoft um mecanismo de feedback do usuário é fornecido para fornecer respostas cada vez mais relevantes.

Ainda Microsoft não relatou o que pode acontecer quando a IA defensiva colide com a IA maliciosa, como aquela projetada para atacar usuários e empresas. De qualquer forma, a empresa disse que os clientes corporativos já podem testar o Security Copilot em um pequeno segmento de seus usuários. Se o experimento for bem-sucedido, provavelmente poderá ajudar usuários comuns no futuro.

Também interessante:

Inscrever-se
Notificar sobre
convidado

0 Comentários
Avaliações incorporadas
Ver todos os comentários