Skip links

AI generativa traz quais desafios para a Segurança da Informação?

É trabalho essencial para os CISOs entender quais são os usos que podem ter a Inteligência Artificial Generativa, tanto para a Cibersegurança, quanto para os hackers

A maior novidade deste ano foi, sem dúvida, a Inteligência Artificial generativa. Começando pelo ChatGPT, uma iniciativa da OpenAI, e passando por outros grandes players de tecnologia, como Google e Microsoft, esse modelo de AI criou um hype no mercado, deixando outras buzzwords, como blockchain, big data bem para trás.

Se olharmos somente no que tange aos impactos positivos, os modelos de AI generativa prometem uma revolução no trabalho, com mais eficiência e produtividade. Na área de Segurança da Informação, também vemos esse movimento, com as tecnologias de proteção ganhando em agilidade e aumentando a eficiência dos times no que tange à resposta às ameaças. Mas o outro lado da AI também traz riscos: o que é autoinfligido, e o risco externo.

O risco autoinfligido ocorre quando os funcionários começam a usar AI para sugerir conteúdo, seja por meio de uma consulta ou no contexto do que estão criando. A menos que os dados sejam bloqueados, há pouco que impeça a AI de analisar seu patrimônio de dados e revelar seu roteiro secreto, informações financeiras ou outros dados preciosos para todas as pessoas erradas. Para ajudar a mitigar esse risco, fabricantes – como a Microsoft, que lançou o seu assistente de AI dentro do Microsoft 365, o Copilot – recomendam que as empresas implementem controles e políticas de acesso corretos às informações.

Infelizmente, implementar os controles e políticas de acesso corretos é muito mais desafiador do que se pensa – e isso vai se tornar ainda mais difícil na medida em que os modelos de AI estiverem cada vez integrados às soluções do dia a dia, aumentando o volume e abrangência de dados criados e que precisam ser protegidos.

Sem os controles corretos, a AI não saberá quem deve ver o quê. As organizações ficarão expostas, assim como ficam quando ativam plataformas de pesquisa corporativa antes de bloquear as coisas – só que muito pior. Se isso acontecer, os funcionários nem precisarão pesquisar o conteúdo que desejam roubar ou dar uma espiada; A AI terá prazer em expor isso para eles.

Cibercrime e a AI

O risco externo vai continuar a aumentar na medida em que os cibercriminosos aprendem a usar a AI. Infelizmente, eles já começaram. WormGPT e FraudGPT usam LLMs [em uma tradução livre, Grandes Modelos de Linguagem] para ajudar os invasores a criar e-mails de phishing convincentes e traduzi-los para outros idiomas.

Agora, os invasores também criam conjuntos de dados falsos com base em violações anteriores e outros dados disponíveis; criminosos alegam que roubaram dados de empresas para reforçar sua reputação como invasores capazes ou potencialmente enganar essas empresas para que paguem um resgate. A AI generativa pode aumentar o volume de dados e tornar mais difícil distinguir entre uma violação real e uma falsa.

Pesquisadores já usaram AI para criar um malware como uma prova de conceito, e devemos esperar ver mais malwares gerado por AI sendo vetores de ataques. Infelizmente, o uso dela ​​continuará a reduzir as barreiras de entrada para todos os tipos de vilania cibernética.

Estes são apenas alguns dos riscos que a AI apresenta – e ao ritmo que esta tecnologia avança, muitos mais virão. Em breve, a tecnologia poderá criar novas ameaças cibernéticas por conta própria.

Benefícios para segurança cibernética

Felizmente, a AI também apresenta enormes oportunidades para a segurança cibernética. A Inteligência Artificial é excelente no reconhecimento de padrões. Ao analisar as coisas certas, o aprendizado de máquina incluido na ferramenta pode fornecer insights sobre vulnerabilidades e comportamentos indesejados. Quando aliada à automação, a IA será capaz de cuidar de tarefas rotineiras, dando aos humanos mais tempo para cuidar de atividades que exigem sua preciosa atenção.

Outro exemplo é o uso da AI para criação de dados sintéticos que podem servir de isca para os invasores, tornando mais difícil para os bandidos saberem se roubaram algo valioso, ao mesmo tempo que daria aos defensores e às tecnologias nas quais eles dependem mais oportunidades de capturar cibercriminosos.

Como preparar a sua empresa

Existem algumas ações que podem preparar a sua empresa de forma efetiva para a integração da AI ao ambiente de trabalho. A primeira delas é realizar uma avaliação efetiva de riscos de dados, identificando quais informações confidenciais estão excessivamente expostas – antes que sejam relevadas por uma Inteligência “amigável” ou “hostil”.

O segundo passo é realizar o bloqueio de dados, principalmente as informações críticas ou confidenciais. Seus funcionários e parceiros devem ter apenas as informações necessárias para realizar seu trabalho e nada mais. Por último, é preciso contar com soluções efetivas de monitoramento de dados: nunca foi tão importante monitorar como os humanos e os aplicativos usam os dados para procurar atividades indesejadas.

Embora algumas tecnologias mais recentes e tendências cheguem ao auge e caiam na obsolescência, a Inteligência Artifical quase certamente sobreviverá ao hype. Se seus dados não estiverem bloqueados, a AI (amigável ou não) poderá aumentar a probabilidade de violação de dados. Até onde sabemos, ainda não se pode desbloquear dados por essa via, portanto, proteja seus dados primeiro para garantir que a máquina funcione a seu favor e não contra você.

Fonte: https://www.securityreport.com.br/

LinkedIn: https://www.linkedin.com/company/securityfirst/

Instagram: https://www.instagram.com/security.first1st/#

This website uses cookies to improve your web experience.
pt_BRPortuguese