Shadow IT + Shadow AI
Como é que as tecnologias se “escondem” nas empresas”? E que riscos é que essas opções comportam? A designação “Shadow IT” (ou “IT invisível”) corresponde a qualquer tecnologia que se encontra em uso empresarial sem que dela exista conhecimento por parte do departamento que tem a responsabilidade dessa gestão.
Ao longo dos anos, e com a democratização do uso de determinadas ferramentas, houve um crescimento elevado de Shadow IT, em particular porque os seus utilizadores entendiam que esse uso promovia o aumento da produtividade e da eficiência e eficácia do trabalho, ou seja, uso com boa intenção.
Em particular, ficheiros de Excel promoveram a proliferação de dados analisados quando outras aplicações não o permitiam, trazendo, ao mesmo tempo, dificuldade na gestão das versões, desconhecimento da atualidade das extrações, transformações e análises, do local onde se encontravam esses ficheiros e sequer se as operações que sobre eles foram executadas eram corretas.
Mix entre contas de e-mail pessoais e institucionais, nuvem pessoal ou institucional, dispositivos pessoais versus dispositivos empresariais, instalação desregrada de aplicações nos computadores das empresas são apenas alguns exemplos de estratégias individuais que colocam em causa a segurança das empresas caso não existam políticas de uso que restrinjam as opções em prol da segurança, reduzam as vulnerabilidades decorrentes da exposição a essas tecnologias e sensibilizem os utilizadores para comportamentos que promovam a gestão do risco que opções menos cautelosas acarretam.
Ainda não refeitos das dificuldades de gestão do Shadow IT, surge já o desafio do Shadow AI, agora aplicado à Inteligência Artificial, ou seja, uso de ferramentas ou soluções de IA para executar tarefas profissionais sem que tal seja do conhecimento da empresa e/ou por ela autorizado. Qualquer pessoa pode comprar uma ferramenta para usar na sua empresa, sem que isso seja facilmente detetável. Problemas de privacidade de dados, segurança e conformidade e de desrespeito pelos controlos implementados estão já a preocupar os profissionais com responsabilidades nestas áreas, numa luta musculada contra “consórcios informais” de partilha de licenças individuais.
Este tema necessita de atenção urgente: as empresas devem promover a discussão sensibilizando os seus colaboradores para esses desafios e riscos das suas opções. Todavia, dos desafios surgem oportunidades, emergindo já uma nova função: “auditor do uso da IA”, responsável pela elaboração de políticas de uso da IA, compreensão do risco e definição de controlos, inventário de ferramentas e soluções de IA em uso e autorizadas e definição de responsabilidades, ou seja, ter consciência do que pode suceder e atuar. Estas práticas, agora em curso nas empresas, são já muito prevalentes no Ensino Superior, que se ocupa com a urgência definir práticas, políticas, controlos e regras, num universo onde isso é um desafio pouco menos que hercúleo.



