O litígio entre a Anthropic – criadora do modelo de IA Claude – e o governo dos Estados Unidos emergiu como um factor de risco inesperado para empresas como a Figma e outras que construíram os seus produtos sobre a API da Anthropic ou que têm exposição significativa ao ecossistema de modelos Claude.
O episódio ilumina uma vulnerabilidade estrutural que muitas empresas de software B2B ainda não avaliaram com seriedade suficiente. A dependência de uma única infraestrutura de IA como pilar central da proposta de valor do produto.
A Figma integrou capacidades de IA da Anthropic de forma profunda no seu fluxo de trabalho de design. Isto é, tornando o Claude uma componente funcional central para os seus utilizadores.
Anthropic continua a dar que falar
Quando um litígio com implicações potencialmente severas para a Anthropic emerge, a Figma – e qualquer empresa em posição semelhante – fica automaticamente exposta a um risco que não criou e que não controla directamente. Neste sentido, a dependência tecnológica de fornecedores de IA cria um novo tipo de risco sistémico para o sector do software empresarial.
O risco regulatório na IA não é novo, mas está a ganhar concretude. Em contrapartida com os anos anteriores, em que a regulação da IA era sobretudo um debate académico e político, 2026 é marcado por acções legais e regulatórias concretas que afectam empresas reais com consequências financeiras reais. De facto, o litígio Anthropic vs. governo dos EUA é apenas um dos múltiplos fronts regulatórios que o sector enfrenta simultaneamente – na Europa, nos EUA e, cada vez mais, em mercados asiáticos.
Para as empresas B2B que dependem de APIs de IA, a lição é clara: a diversificação tecnológica não é apenas uma boa prática de arquitectura de software – é uma necessidade de gestão de risco. Consequentemente, as empresas que construíram sobre uma única fundação de IA, sem planos de contingência para fornecedores alternativos, estão expostas a interrupções de serviço, alterações de preçário e, agora, riscos legais que estão completamente fora do seu controlo.
Qual o futuro do IA?
Todavia, a diversificação tem custos. Integrar múltiplos modelos de IA implica duplicação de esforço de desenvolvimento, gestão de múltiplas relações com fornecedores e complexidade adicional na manutenção de produtos coerentes. Além disso, os modelos de IA têm capacidades distintas. Migrar de Claude para um modelo alternativo não é uma operação neutra em termos de qualidade do produto.
Por outro lado, os custos da dependência exclusiva, quando materializados através de um choque regulatório ou legal, podem ser muito superiores. Sobretudo, o episódio da Figma e da Anthropic deveria servir de alerta para toda a indústria de software. Na era da IA, a resiliência tecnológica exige uma conversa honesta sobre onde residem as dependências críticas – e o que acontece quando essas dependências falham.
Fica ainda mais conectado:
- Samsung Galaxy S26 Ultra Review: Rei Android ou Mero Capricho?
- Estes produtos da Temu são (na sua maior parte) um desastre!
- Xbox Mode chega ao Windows 11 com a atualização de maio

