---
title: "Corrida dos chips de IA; Startups do setor levantam mais de US$ 1.1 bilhão em uma semana"
author: "Gabriela P. Torres"
date: "2026-02-25 08:17:00-03"
category: "Inteligência Artificial & Dados"
url: "http://desbugados.scale.press/portal/desbugados/post/2026/02/25/corrida-dos-chips-de-ia-startups-do-setor-levantam-mais-de-us-11-bilhao-em-uma-semana/md"
---

# O 'Bug' do Monopólio: Por que tanto dinheiro em hardware agora?

Se o mercado de Inteligência Artificial fosse um código, a Nvidia seria uma função global que todo mundo é obrigado a chamar, mas que custa caro e demora para responder. O 'bug' aqui é a dependência extrema de um único fornecedor e de uma arquitetura (as GPUs) que nem sempre é a mais eficiente para todas as tarefas. Na última semana de fevereiro de 2026, vimos um movimento lógico do mercado: se a demanda por processamento é infinita e a oferta da Nvidia é finita, então novas arquiteturas precisam surgir. Senão, o progresso da IA estagna no custo do silício.

## O Momento 'Desbugado': Quem são os novos jogadores?

Três empresas receberam aportes que somam US$ 1,1 bilhão, cada uma atacando um problema específico da computação moderna:

**MatX (A aposta na velocidade bruta):** Fundada por ex-engenheiros do Google que trabalharam nas TPUs (Tensor Processing Units), a MatX levantou US$ 500 milhões em 24 de fevereiro. O objetivo é criar chips 10 vezes melhores que a Nvidia para treinar LLMs. **Tradução:** Eles estão trocando a flexibilidade de uma GPU por um chip ultra-especializado que 'fala' a língua dos modelos de linguagem nativamente.**Axelera (IA na 'Borda'):** A startup holandesa captou US$ 250 milhões para focar em *Edge Computing*. Se processar tudo na nuvem é caro e lento, então processe no dispositivo (câmeras, robôs, laptops). O chip Europa deles promete 629 TOPS (trilhões de operações por segundo) gastando apenas 45 watts — um sexto da energia de uma Nvidia A100.**SambaNova (A aliada da Intel):** Com um aporte de US$ 350 milhões e uma parceria estratégica com a Intel, a SambaNova foca na economia da inferência. O novo chip SN50 usa uma arquitetura de 'fluxo de dados' que permite trocar de modelos em milissegundos, algo vital para o mundo dos agentes de IA.## Análise Lógica: Fato vs. Marketing

Como analista, meu papel é separar o sinal do ruído. A SambaNova afirma que seu SN50 é 5 vezes mais rápido que o Blackwell da Nvidia para certos usuários. No entanto, os dados mostram que ele possui apenas um terço da capacidade de memória HBM da concorrente. **Se** o desempenho depende puramente de força bruta de memória, **então** a Nvidia continua vencendo. **Senão**, a eficiência da arquitetura de fluxo de dados da SambaNova pode realmente entregar um custo por token menor, que é o que importa para o balanço financeiro das empresas.

## Sua Caixa de Ferramentas: O que acompanhar?

Para não se perder no 'tecniquês' dessa corrida, observe estes três indicadores nos próximos meses:

**Treinamento vs. Inferência:** Treinamento é criar o modelo (exige poder bruto); Inferência é usar o modelo (exige baixo custo). A maioria dessas startups está focando em baratear a inferência.**Arquitetura RISC-V:** Fique de olho na Axelera e seu uso de RISC-V, um padrão aberto que pode reduzir a dependência de tecnologias proprietárias dos EUA.**Disponibilidade:** Promessas de papel não rodam modelos. A MatX planeja envios apenas para 2027. Até lá, a Nvidia já terá lançado duas novas gerações de chips.O mercado de chips não aceita 'talvez'. Ou o silício entrega os FLOPS prometidos, ou o investimento vira *null*. Por enquanto, o bilhão de dólares investido é um voto de confiança de que o futuro da IA será muito mais diverso do que apenas 'verde'.

