Skip links

Microsoft e OpenAI afirmam que hackers estão usando ChatGPT para melhorar ataques cibernéticos.

Vários grupos apoiados por países estão começando a usar grandes modelos de linguagem para ajudar com pesquisas, scripts e e-mails de phishing.

A Microsoft e a OpenAI revelam hoje que os hackers já estão usando grandes modelos de linguagem como ChatGPT para refinar e melhorar seus ataques cibernéticos existentes. Em pesquisas recentemente publicadas, a Microsoft e a OpenAI detectaram tentativas de grupos apoiados pela Rússia, pela Coreia do Norte, pelo Irã e pela China, usando ferramentas como o ChatGPT para pesquisar alvos, melhorar scripts e ajudar a construir técnicas de engenharia social.

“Grupos de crimes cibernéticos, atores de ameaças estatais e outros adversários estão explorando e testando diferentes tecnologias de IA à medida que surgem, na tentativa de compreender o valor potencial para suas operações e os controles de segurança que podem precisar contornar”, afirma a Microsoft em um blog. postar hoje .

Descobriu-se que o grupo Strontium, ligado à inteligência militar russa, utiliza LLMs “para compreender protocolos de comunicação por satélite, tecnologias de imagem de radar e parâmetros técnicos específicos”. O grupo de hackers, também conhecido como APT28 ou Fancy Bear, esteve ativo durante a guerra Rússia-Ucrânia e esteve anteriormente envolvido no ataque à campanha presidencial de Hillary Clinton em 2016.

O grupo também tem usado LLMs para ajudar em “tarefas básicas de script, incluindo manipulação de arquivos, seleção de dados, expressões regulares e multiprocessamento, para potencialmente automatizar ou otimizar operações técnicas”, de acordo com a Microsoft.

Um grupo de hackers norte-coreano, conhecido como Thallium, tem usado LLMs para pesquisar vulnerabilidades relatadas publicamente e atingir organizações, para ajudar em tarefas básicas de script e para redigir conteúdo para campanhas de phishing. A Microsoft afirma que o grupo iraniano conhecido como Curium também tem usado LLMs para gerar e-mails de phishing e até mesmo códigos para evitar a detecção por aplicativos antivírus. Hackers afiliados ao Estado chinês também estão usando LLMs para pesquisa, scripts, traduções e para refinar suas ferramentas existentes.

Tem havido temores sobre o uso de IA em ataques cibernéticos, especialmente porque ferramentas de IA como WormGPT e FraudGPT surgiram para auxiliar na criação de e-mails maliciosos e ferramentas de cracking. Um alto funcionário da Agência de Segurança Nacional também alertou no mês passado que os hackers estão usando IA para fazer com que seus e-mails de phishing pareçam mais convincentes.

A Microsoft e a OpenAI ainda não detectaram nenhum “ataque significativo” usando LLMs, mas as empresas têm fechado todas as contas e ativos associados a esses grupos de hackers. “Ao mesmo tempo, sentimos que esta é uma pesquisa importante a ser publicada para expor movimentos incrementais em estágio inicial que observamos tentativas de agentes de ameaças conhecidos e compartilhar informações sobre como estamos bloqueando e combatendo-os com a comunidade de defensores”, diz Microsoft.

Embora o uso de IA em ataques cibernéticos pareça limitado no momento, a Microsoft alerta sobre casos de uso futuros, como representação de voz. “A fraude impulsionada pela IA é outra preocupação crítica. A síntese de voz é um exemplo disso, onde uma amostra de voz de três segundos pode treinar um modelo para soar como qualquer pessoa”, diz a Microsoft. “Mesmo algo tão inócuo como a saudação do correio de voz pode ser usado para obter uma amostragem suficiente.”

Naturalmente, a solução da Microsoft utiliza IA para responder a ataques de IA. “A IA pode ajudar os invasores a trazer mais sofisticação aos seus ataques, e eles têm recursos para aproveitá-los”, diz Homa Hayatyfar, principal gerente de análise de detecção da Microsoft. “Vimos isso com mais de 300 atores de ameaças que a Microsoft rastreia e usamos IA para proteger, detectar e responder.”

A Microsoft está construindo um Security Copilot , um novo assistente de IA projetado para que profissionais de segurança cibernética identifiquem violações e entendam melhor a enorme quantidade de sinais e dados gerados diariamente por ferramentas de segurança cibernética. A gigante do software também está reformulando a segurança de seu software após grandes ataques à nuvem Azure e até mesmo hackers russos espionando executivos da Microsoft .


Fonte: https://www.theverge.com/2024/2/14/24072706/microsoft-openai-cyberattack-tools-ai-chatgpt

Instagram:https://www.instagram.com/security.first1st/#

LinkedIn:https://www.linkedin.com/company/securityfirst/

This website uses cookies to improve your web experience.
pt_BRPortuguese