Como evitar o vazamento de dados e exposição de informações sensíveis por parte dos colaboradores?
Não há dúvidas de que a inteligência artificial chegou com tudo. Ferramentas como o ChatGPT estão mudando a forma como as equipes trabalham, colaboram e encontram soluções rápidas para problemas complexos. De acordo com uma pesquisa realizada pela Ipsos e o Google com 21 mil pessoas em 21 países, em 2024 o Brasil ficou acima da média global no uso de IA: 54% dos brasileiros relataram que utilizaram a tecnologia, enquanto a média global ficou em 48%.
Diante desses dados, está claro que os colaboradores estão cada vez mais expostos a novas tecnologias que prometem agilidade e eficiência. E quem pode culpá-los por querer explorar esses recursos para aprimorar o trabalho? A questão é que, na ânsia por resultados rápidos, muitos ignoram as diretrizes básicas de segurança da informação.
Se por um lado a produtividade pode disparar a partir do seu uso, o controle sobre informações sensíveis que são compartilhadas com as ferramentas de IA se torna cada vez mais difícil. Imagine a seguinte situação: um colaborador decide testar uma nova IA para automatizar um relatório interno. Parece inofensivo, certo? Só que, nesse processo, ele pode compartilhar dados críticos que nunca deveriam sair do ambiente corporativo e trazer diversos prejuízos para os negócios.
Link para a matéria: https://tiinside.com.br/08/07/2025/como-evitar-o-vazamento-de-dados-e-exposicao-de-informacoes-sensiveis-por-parte-dos-colaboradores/
#Skynova #CloudComputing #EmailCorporativo #SegurançaDigital #Colaboração #IA