A Anthropic acusou recentemente várias empresas chinesas de inteligência artificial. Com efeito, a empresa acusa as rivais de utilizarem, de forma abusiva, o seu modelo Claude para treinar sistemas concorrentes.
De facto, no centro das acusações estão três laboratórios chineses de IA: DeepSeek, MiniMax e Moonshot AI. Similarmente, segundo a empresa norte‑americana, terão criado mais de 24 mil contas fraudulentas para aceder ao serviço. Estas contas terão gerado mais de 16 milhões de interações com o Claude, com o objetivo de extrair respostas e padrões de comportamento do modelo para depois os replicar no treino dos seus próprios sistemas.
Do mesmo modo, de acordo com a Anthropic, as empresas chinesas terão recorrido a serviços de proxy e outros intermediários para contornar limitações geográficas e de utilização, mascarando o tráfego como se viesse de utilizadores normais.
Claude da Antrophic como professor de IA?
Porém, a empresa afirma ter identificado semelhanças em endereços IP, métodos de pagamento e padrões de acesso que ligam as contas suspeitas aos laboratórios em questão. Consequentemente, a estratégia descrita tiraria partido sobretudo das capacidades mais avançadas do Claude. Como por exemplo, o raciocínio complexo, o uso de ferramentas, a programação e a avaliação de respostas, precisamente as áreas que mais interessam a quem pretende criar modelos concorrentes de alto nível.
Assim, trata‑se de usar um modelo mais poderoso como professor, gerando respostas e juízos de qualidade que servem de base para treinar um modelo aluno, que assim aprende a aproximar‑se do desempenho do original. Esta técnica é amplamente usada na indústria quando aplicada a modelos próprios, por razões de eficiência e custo, mas a Anthropic considera que recorrer sistematicamente ao Claude através de contas falsas para esse fim ultrapassa a fronteira do aceitável.
Finalmente, o caso tem também uma dimensão geopolítica. A Anthropic não oferece acesso comercial ao Claude na China, invocando preocupações de segurança nacional e controlo de tecnologia sensível. Isto é, surgem num momento em que os EUA discutem novas restrições à exportação de chips e de tecnologia de IA para a China. Precisamente para limitar a capacidade de empresas chinesas nesta área.
Perante o alegado esquema, a Anthropic diz ter reforçado os seus sistemas de deteção de abuso e verificação de contas. Igualmente, a empresa afirma também estar a partilhar indicadores de ameaça com outros laboratórios de IA e fornecedores de infraestruturas cloud. Defendendo que nenhuma organização consegue, sozinha, responder a operações deste tipo.
Em suma, até ao momento, as empresas chinesas visadas não terão dado respostas substanciais a pedidos de comentário de vários meios internacionais. Ou seja, mantendo o conflito num terreno dominado pela narrativa da Anthropic e pela pressão regulatória e política em torno da IA avançada.

