A inteligência artificial (IA) generativa está a transformar a forma como as organizações operam, tal como aponta a Microsoft. Ademais, está a acelerar a deteção de ameaças, a automatizar fluxos de trabalho e a permitir operações em escala.
Porém, esta evolução também traz riscos. A saber, os cibercriminosos estão a usar IA para lançar ataques mais sofisticados, ultrapassando mecanissmos de defesa tradicionais.
Microsoft identifica cinco ameaças da IA generativa que estão a redefinir estratégias empresariais

O Digital Threats Report 2025 da Microsoft revela que ciberatacantes da Rússia, China, Irão e Coreia do Norte duplicaram o uso de IA. Isto para lançar ciberataques e espalhar desinformação.
Hoje, a IA é utilizada para traduzir e-mails de phishing para inglês fluente, gerar vídeos deepfake de executivos. Além de automatizar malware que se adapta em tempo real para evitar deteção.
Esta tendência já está a impactar as organizações a nível global, sendo que 66% das empresas estão a desenvolver ou a planear desenvolver aplicações personalizadas de IA generativa. Isto enquanto 88% admitem estar preocupadas com ataques indiretos de prompt injection.
Além de todas as vantagens, a IA também potenciou novas ameaças
Além disso, 80% dos líderes empresariais identificam a fuga de dados sensíveis via IA como uma das principais ameaças. Estes números refletem a urgência de reforçar estratégias de segurança e implementar medidas específicas para ambientes de IA.
À medida que a IA generativa se integra nos fluxos de trabalho empresariais, surgem desafios estruturais que exigem uma resposta estratégica.
Com efeito, a maioria das aplicações assenta na cloud, o que as torna vulneráveis a ataques que exploram fragilidades na infraestrutura. Isto nos modelos ou nas aplicações para comprometer dados sensíveis ou a integridade dos sistemas.
Ademais, a dependência de grandes volumes de dados também aumenta o risco de fuga de informação e dificulta a aplicação de políticas de governação em ambientes complexos e dispersos.
Além disso, os modelos nem sempre respondem de forma previsível, e inputs maliciosos podem desencadear ações inesperadas, abrindo caminho para ataques sofisticados.
5 ameaças apontadas pela Microsoft
Perante este cenário, a Microsoft identificou cinco ciberameaças da IA generativa que estão a redefinir estratégias empresariais:
- Ataques de envenenamento (Poisoning attacks): São ataques que manipulam ou corrompem dados de treino para influenciar o comportamento do modelo e comprometer a sua precisão, fiabilidade ou responsabilidade ética. Os atacantes podem injetar informação falsa, modificar ou eliminar partes do dataset para alterar a forma como o modelo responde às consultas.
- Ataques de evasão (Evasion attacks): Estes contornam sistemas de segurança da IA ao modificar ou manipular dados de entrada de forma impercetível para o modelo. Exemplos incluem ocultar spam dentro de imagens para ultrapassar filtros. Estes ataques podem ser direcionados (para provocar um erro específico) ou não direcionados (para gerar qualquer tipo de erro). Jailbreaks de modelos são um tipo comum de evasão.
- Extração funcional (Functional extraction): Através deste mecanismo, os atacantes interrogam repetidamente os modelos e usam as respostas para recriar e treinar modelos equivalentes. Estes modelos “substitutos” podem depois ser analisados para preparar ataques ao sistema original.
- Ataques de inversão (Inversion attacks): Semelhantes à extração funcional, este tipo de ataque distingue-se por ter o objetivo de inferir parâmetros ou a arquitetura do modelo. Através do mesmo, os atacantes podem permitir reconstruir dados de treino ou obter informações sensíveis sobre atributos específicos, servindo também como base para outros ataques.
- Ataques de Prompt Injection: Os atacantes utilizam prompts maliciosos para manipular o modelo e levá-lo a executar ações não intencionadas ou prejudiciais. Estes prompts são concebidos para ignorar instruções originais e seguir apenas os comandos do atacante.
Apostar na defesa proativa para ambientes multicloud e IA é essencial para garantir cibersegurança
Seguidamente, com a IA generativa a introduzir novos riscos e comportamentos imprevisíveis, a cibersegurança moderna exige uma abordagem integrada que correlacione sinais entre aplicações, infraestrutura e utilizadores.
Com efeito, a plataforma Cloud-Native Application Protection Platform (CNAPP), por exemplo, simplifica esta complexidade ao reunir ferramentas como Cloud security posture management (CSPM). Além do Cloud Infrastructure Entitlement Management (CIEM), e Cloud Workload Protection Platform (CWPP), que ajudam a garantir a visibilidade total sobre as ameaças e permitem uma resposta rápida às mesmas.
De igual modo, o Microsoft Defender for Cloud é um exemplo claro desta estratégia proativa, oferecendo proteção end-to-end. Isto ao identificar configurações incorretas, monitorizar vulnerabilidades e detetar ameaças específicas de IA. Aliás, tais como jailbreaks e fuga de dados, em tempo real. Desse modo, aproveitando mais de 100 biliões de sinais diários da Microsoft Threat Intelligence. Em suma, esta integração é essencial para manter a confiança num cenário de ciberameaças em rápida evolução.
Em suma, à medida que a IA generativa se torna cada vez mais importante, os líderes de segurança precisam de evoluir as suas estratégias. Por isso, a Microsoft ajuda as organizações a unificar a segurança e a governança em todo o ciclo de vida das aplicações de cloud e IA.
Aliás, com visibilidade abrangente, priorização proativa de riscos e deteção e resposta em tempo real, a Microsoft protege os ativos modernos de cloud e IA. Isto desde o código até ao tempo de execução, enquanto ajuda a cumprir as regulamentações e normas em constante evolução.
Por fim, mais detalhes sobre as cinco ameaças de cibersegurança da IA e recomendações para mitigá-las podem ser consultados na versão completa do e-book “5 Generative AI Security Threats You Must Know About”.
Fica mais conectado:

