A onipresença da inteligência artificial (IA) na empresa está se aproximando da nuvem: em 2023, o uso de aplicativos de IA generativa em empresas aumentou 400%, e mais de 10% dos funcionários acessaram pelo menos um aplicativo de IA generativa todos os meses, em comparação com apenas 2% em 2022, de acordo com pesquisa da CompTIA.
Leia mais:
- O fim do cabo de guerra entre segurança e desempenho
- Assistentes de IA: um novo desafio para a segurança cibernética
- A IA está moldando o futuro da cibersegurança
Os profissionais de segurança cibernética estão adotando essas ferramentas em um ritmo ainda maior. Dos entrevistados, 56% relataram já trabalhar com IA e machine learning (ML), enquanto 36% dos profissionais de segurança cibernética disseram que estão explorando as possibilidades de fazê-lo.
Os profissionais disseram à CompTIA que acreditam que a IA pode ajudá-los a monitorar o tráfego de rede e detectar malwares (conforme citado por 53% dos profissionais de segurança), analisar padrões de comportamento do usuário (50%), automatizar respostas a incidentes (48%), automatizar configurações de infraestrutura de segurança, prever áreas onde futuras violações podem ocorrer e realizar testes de defesas (45%, respectivamente).
Claramente, a IA pode fornecer um suporte notável às equipes do centro de operações de segurança (SOC). Essas equipes devem monitorar continuamente todo o cenário de TI de uma organização para detectar possíveis ameaças em tempo real e frustrá-las da forma mais rápida e eficaz possível. É um trabalho grande, que gera muito estresse e, muitas vezes, esgotamento, sendo que 84% dos funcionários de segurança pensam em deixar a empresa ou mudar de função ou de carreira.
Dadas essas graves consequências, devemos posicionar a IA como um assistente de escritório útil – ou um copiloto confiável – que permite que os funcionários do SOC otimizem as atividades relacionadas à detecção de incidentes, análise de alertas, enriquecimento do conjunto de dados e muito mais.
Capacidades imediatas
Para ilustrar melhor, aqui estão três áreas de capacidade nas quais a IA pode ajudar imediatamente – ou poderá dar suporte após um período de iniciação relativamente curto.
Acelerar a integração. Essa é uma ótima maneira de começar. Os analistas que estão chegando provavelmente terão um conhecimento das principais ferramentas da CrowdStrike ou da Microsoft. Mas eles precisarão ser atualizados em questões como implementação e estrutura organizacional. Isso geralmente inclui informar as novas contratações sobre:
- A quem a equipe de segurança se reporta (ou seja, a uma unidade de negócios, TI, CFO ou outro ponto).
- Outras equipes ou organizações de tecnologia com as quais a equipe do SOC trabalha diretamente de forma regular.
- Tecnologias que tenham sido previamente aprovadas ou experimentadas antes da chegada do indivíduo.
A IA permitirá que os membros da equipe de integração do SOC absorvam essas informações muito mais rapidamente, trazendo novos analistas com mais rapidez e sucesso.
Fazer recomendações. É aqui que a IA surge como um copiloto valioso. Ao fazer as perguntas certas, as equipes podem fazer com que a IA forneça orientações sobre a integração de produtos no ambiente corporativo ou sobre ameaças específicas que possam afetar a organização.
Considere o cenário em que um novo membro do SOC está entrando; o tempo para entender a infraestrutura, as ferramentas, a maneira como as coisas são configuradas e até mesmo os processos são coisas em que um copiloto pode ajudar. Nesse caso, o copiloto pode oferecer rapidamente informações sobre o uso da tecnologia e pode fornecer detalhes adicionais para ajudar os membros da equipe, como informações sobre a configuração do software, detalhes de propriedade e qualquer exposição potencial do sistema.
Simulação de vetores de ataque. Com o tempo, a IA deve ser capaz de desenvolver exemplos relevantes de vetores de ataque contra os quais as equipes podem testar os recursos, como um esquema sofisticado de phishing de e-mail. Nesse sentido, a visualização e as explicações melhorarão muito os esforços para testar os controles de forma mais eficaz contra as táticas, técnicas e procedimentos (TTPs) que os criminosos cibernéticos estão implementando.
As vulnerabilidades exploradas geralmente ocorrem de duas maneiras: vulnerabilidades de software na forma de um bug e configurações vulneráveis. Ambas são difíceis de encontrar e rastrear em uma empresa devido ao volume de dados que os membros da equipe precisam examinar e lembrar.
A capacidade de entender o ambiente complexo para exploração acrescenta entendimentos intrincados e específicos que nem todos os membros da equipe podem ter. Com a IA compreendendo o uso, bem como os dados de configuração e versão de software, podemos garantir que todos os caminhos sejam cobertos ao explorar vetores de ataque contra nossos sistemas e dados.
Orientação para implementação
No entanto, devemos sempre ter cautela ao procurar incorporar com segurança a IA generativa nas operações diárias do SOC. Aqui estão duas práticas recomendadas a serem consideradas.
Verifique tudo. Sabemos que a IA podem errar. No contexto dos relatórios de ameaças, podem acontecer falsos positivos. Desta forma, a IA generativa integrada pode começar a bloquear ameaças que não são reais, o que pode fazer com que seus sistemas fiquem congestionados e fazer com que as equipes solucionem um problema que não existe.
Portanto, não podemos passar de iniciantes em IA para usuários avançados sem revisar e examinar cuidadosamente os resultados quanto à precisão e à relevância. Se pedirmos ajuda para resumir um relatório de inteligência sobre ameaças, por exemplo, não poderemos compartilhar os resultados sem verificar e cruzar minuciosamente as contribuições da IA com o que sabemos ser verdadeiro ou falso.
Para revisar e examinar com eficácia os resultados da IA generativa, você deve tratá-la como outro membro da sua equipe e não apenas como uma ferramenta. Ou seja, os projetos que são lançados devem ser testados, revisados e aceitos pelas equipes de operações e suporte.
Descubra o que seus fornecedores estão fazendo. A sua proteção é tão grande quanto o elo mais fraco da sua corrente. Assim como você está procurando implantar a IA de forma segura, que cresce com o tempo, você deve perguntar aos fornecedores se eles estão fazendo o mesmo. Pergunte a eles sobre seu roteiro para a IA generativa e como isso afetará suas plataformas.
Esse processo precisa começar no seu envolvimento inicial com o fornecedor, perguntando se ele já tem – ou planeja ter – IA ou IA generativa implementada em suas stacks de tecnologia empresarial.
Por exemplo, sua equipe contrata uma empresa terceirizada que atualmente não possui nenhuma integração de IA. Para se alinhar ao programa de governança e conformidade da sua organização, você precisa perguntar se há planos de incorporar IA ou IA generativa ao produto deles no próximo ano. Essa é uma pergunta essencial a ser feita rotineiramente, pois não só permite que você entenda o inventário deles como um controle de nível básico, mas também que faça perguntas mais aprofundadas com base nas respostas.
Ao trazer as ferramentas de IA de forma ponderada, com os caminhos e as proteções corretas – aproveitando as histórias de sucesso e, ao mesmo tempo, agindo como um controle sobre as informações ruins -, os profissionais removerão de seu cotidiano muitas das tarefas manuais que causam esgotamento, para que possam se concentrar em objetivos mais estratégicos.
Desta forma, eles emergirão como defensores da empresa, que estão nela para o longo prazo, em vez de estarem planejando sua próxima transição de carreira.
O post A IA nos centros de segurança pode diminuir estresse dos profissionais apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2024/06/12/colunistas/a-ia-nos-centros-de-seguranca-pode-diminuir-estresse-dos-profissionais/