A Amazon e a Anthropic anunciaram um acordo de proporções geológicas. A criadora do modelo de inteligência artificial Claude se comprometeu a gastar US$ 100 bilhões em infraestrutura de nuvem da Amazon Web Services (AWS) ao longo dos próximos dez anos. Em contrapartida, a Amazon injeta imediatamente US$ 5 bilhões na parceira, com a opção de investir mais US$ 20 bilhões no futuro. Isso vai além de uma simples troca de cheques entre gigantes da tecnologia. Trata-se da construção da fundação física que vai processar os dados empresariais e modelos de linguagem pelos próximos anos.
O mainframe do século XXI
Acompanho o funcionamento de sistemas legados há 15 anos. Hoje, linguagens como COBOL, implantadas nos anos 1960, ainda processam milhões de transações bancárias diárias em cidades como São Paulo, Londres e Nova York. Quando um banco de investimento comprava um IBM System/360 naquela época, não estava apenas adquirindo uma máquina; estava decidindo como sua espinha dorsal funcionaria pelo resto do século. O acordo entre Amazon e Anthropic tem esse exato peso histórico.
A Anthropic não vai gastar esse dinheiro alugando servidores comuns. O foco é o uso massivo de chips proprietários da AWS, conhecidos como Trainium e Graviton. A iniciativa tenta contornar a dependência quase total do mercado em relação às placas de vídeo da NVIDIA. O projeto mais ambicioso dessa parceria atende pelo nome de Project Rainier: um cluster computacional colossal equipado com cerca de 500 mil chips Trainium2. Para alimentar esse monstro, a previsão de consumo energético chega a 5 gigawatts. É energia suficiente para acender cidades inteiras. O Doc Brown do filme De Volta Para o Futuro precisava de apenas 1,21 gigawatt para viajar no tempo, mas pelo visto treinar uma IA consome bem mais recursos.
O que isso muda na prática?
A teoria só importa quando os cabos estão conectados e o sistema funciona para o usuário final. Hoje, mais de 100 mil clientes empresariais já utilizam as versões do Claude através do Amazon Bedrock, o serviço da AWS para acessar e gerenciar modelos fundacionais. Ao garantir uma infraestrutura exclusiva após suas rodadas de financiamento bilionárias, a Anthropic promete baratear e acelerar as respostas da sua inteligência artificial para o mercado corporativo.
Os resultados aparecem nas planilhas de custos de operações reais. A plataforma de transporte Lyft aplicou o Claude para automatizar o atendimento aos passageiros e reduziu o tempo de resolução de chamados em 87%. A farmacêutica Pfizer integrou a tecnologia em seus processos de pesquisa de medicamentos, o que reduziu os custos operacionais em 55% e poupou 16 mil horas de trabalho por ano.
A Caixa de Ferramentas: O próximo passo
A união entre a criadora de um modelo de linguagem avançado e a maior fornecedora de infraestrutura de nuvem do mundo indica que o acesso à inteligência artificial corporativa será dominado por quem controla o hardware e garante estabilidade elétrica. Embora a Amazon mantenha negociações de investimento com a rival OpenAI, o compromisso de infraestrutura de uma década estabelece a Anthropic como a principal força residente nos data centers da AWS.
Para gestores de TI e desenvolvedores que buscam integrar IA em seus produtos, a aposta segura agora exige entender o ambiente da AWS. A fluência no Amazon Bedrock passa a ter o mesmo peso que o conhecimento em bancos de dados SQL teve nos últimos trinta anos. Enquanto o hardware é montado e os processos de adequação global ganham tração, a Anthropic também colocou na rua o modelo Mythos, uma ferramenta dedicada a testar riscos, desinformação e falhas de controle de sistemas autônomos para ajudar na adaptação das empresas europeias submetidas ao recém-aprovado AI Act.