Skip to main content

Featured

Monitoramento do Secure Boot via Intune Remediations: controle proativo de conformidade

  A Microsoft trouxe uma abordagem prática para monitorar o estado do Secure Boot em dispositivos Windows utilizando o Microsoft Intune , com base em scripts de remediação. Essa solução permite identificar e corrigir automaticamente problemas relacionados a certificados de Secure Boot, algo cada vez mais crítico para a segurança dos endpoints. O Secure Boot é um recurso fundamental do Windows 11 que garante que apenas softwares confiáveis sejam carregados durante a inicialização. Problemas com certificados de Secure Boot podem causar  falhas de boot, vulnerabilidades de segurança e  incompatibilidade com atualizações críticas . Por isso, monitorar esse estado de forma contínua se torna essencial em ambientes corporativos. O que a solução entrega A Microsoft propõe o uso de Remediations no Intune para verificar o estado dos certificados de Secure Boot, identificar dispositivos fora de conformidade e aplicar correções automaticamente quando necess...

Shadow AI: o risco invisível dentro do Microsoft Teams e como preveni-lo


Com o avanço acelerado das soluções baseadas em Inteligência Artificial (IA), um novo desafio tem ganhado destaque entre os profissionais de TI e administradores do Microsoft 365: o uso não autorizado ou não controlado de IA por usuários finais, também conhecido como Shadow AI.

Esse fenômeno representa riscos reais para a segurança da informação, a privacidade dos dados e a conformidade regulatória das organizações. Entender o que é, como surge e como evitar esse tipo de ameaça é essencial para qualquer empresa que utiliza ferramentas como o Microsoft Teams no seu dia a dia.

O que é Shadow AI?

Shadow AI se refere ao uso de ferramentas de inteligência artificial fora do controle ou conhecimento da área de TI. Essas ferramentas são geralmente aplicativos de terceiros, muitas vezes integrados ao ambiente do Microsoft Teams, OneDrive ou SharePoint, sem aprovação formal da organização.

Essas soluções podem parecer inofensivas à primeira vista — como bots que resumem conversas, plugins de produtividade ou geradores de conteúdo — mas podem estar manipulando, transmitindo e armazenando dados corporativos em locais externos e inseguros, sem qualquer política de governança aplicada.

 

Por que a Shadow AI é perigosa?

A popularização da IA trouxe benefícios, mas também expôs brechas importantes. Veja os principais riscos associados ao uso descontrolado de IA em ambientes como o Microsoft Teams:

1. Uso de dados para "treinamento" por IA de terceiros

Alguns serviços de IA utilizam os dados inseridos pelos usuários para treinar seus próprios modelos. Isso significa que informações sensíveis podem ser absorvidas por algoritmos sem o conhecimento ou consentimento da empresa.

2. Armazenamento externo e desconhecido

Aplicativos de IA não homologados frequentemente utilizam servidores em nuvens públicas de outros países. Isso gera perda de controle sobre onde os dados estão sendo armazenados, o que pode violar políticas internas ou legislações de proteção de dados.

3. Quebra de compliance

Empresas de setores regulados (educação, saúde, finanças, etc.) podem violar normas internas e externas ao permitir o uso de Shadow AI, comprometendo auditorias e certificações.

4. Violação da LGPD e outras leis

De acordo com a Lei Geral de Proteção de Dados (LGPD) no Brasil e com o GDPR na Europa, o uso indevido ou o compartilhamento de dados pessoais sem base legal ou consentimento pode acarretar multas e sanções severas.

 

Como prevenir o uso de Shadow AI no Microsoft Teams

1. Mapeamento de aplicativos

Utilize o portal de administração do Microsoft 365 para auditar os aplicativos em uso. Identifique quais são de terceiros, quais estão conectados ao Teams e quem os está utilizando.

2. Bloqueio de apps não autorizados

Por meio das políticas do Microsoft Teams, é possível:

  • Restringir a instalação de aplicativos apenas aos homologados pela empresa.
  • Bloquear apps específicos com base em políticas de segurança e conformidade.
  • Permitir apenas apps verificados pela Microsoft.

3. Aprovação centralizada de aplicativos

Configure um fluxo de solicitação de aprovação para que, antes de um novo aplicativo de IA ser adicionado ao Teams, ele passe por uma análise de TI e segurança da informação.

4. Educação e conscientização

Usuários nem sempre têm conhecimento técnico para entender os riscos envolvidos. Realize campanhas internas para conscientizar colaboradores sobre o que é Shadow AI e os cuidados ao utilizar ferramentas baseadas em IA.

5. Uso de DLP e Microsoft Defender

  • Microsoft Purview (Data Loss Prevention): pode ser usado para detectar quando dados sensíveis estão sendo enviados a apps de terceiros.
  • Microsoft Defender for Cloud Apps: monitora e alerta sobre uso de Shadow IT e acesso não autorizado.

O uso de IA em ambientes corporativos é inevitável e, muitas vezes, benéfico. No entanto, o controle e a governança são fundamentais para garantir a segurança e a conformidade dos dados.

A Shadow AI não é apenas uma ameaça invisível, mas também um alerta claro para que as empresas adotem uma abordagem proativa na administração de seus ambientes Microsoft 365, especialmente no Teams.

Se sua organização ainda não implementou um plano de prevenção ao uso indevido de IA, o momento de agir é agora.

Para mais sobre Shadow IT: 
Descobrir e gerir o Shadow IT - Microsoft Defender for Cloud Apps | Microsoft Learn

Comments