
De olho em uma tendência no processamento de inteligência artificial, o Google (GOGL34) anunciou nesta quarta-feira (9) um chip dedicado à inferência para IA. Embora o novo modelo sinalize para menores custos de processamento, a empresa segue com o pé no acelerador dos investimentos em infraestrutura.
“Estamos fazendo grandes investimentos para agora e para o futuro. Em 2025, nosso capex será de US$ 75 bilhões”, disse o CEO do Google, Sundar Pichai, na abertura do evento Google Cloud Next 25′, em Las Vegas.
- Leia também: Google fecha maior aquisição de sua história e vai comprar Wiz por US$ 32 bilhões
- Leia também: Os CEOs das big techs gastaram milhões cortejando Trump. Ainda não valeu a pena
Batizado de Ironwood, o novo chip de inferência da empresa é a primeira TPU, unidade de processamento de tensor, desenvolvida especificamente para esse fim.
A inferência é o processo pelo qual modelos de inteligência já treinados reagem aos comandos. São chips dedicados à velocidade de respostas às perguntas feitas por usuários de um chat de IA ou uma ação solicitada a um assistente.
Clientes do Google Cloud poderão contratar duas capacidades diferentes de computação baseadas nos novos modelos: 256 chips e 9.216 chips. A empresa afirma que o novo modelo tem ganhos significativos de performance, mais de 3 mil vezes superior à TPU desenvolvido pela empresa em 2018, com uma eficiência energética de 29 vezes.
Investimentos arrojados em infraestrutura para data centers têm sido um dos principais receios de investidores quanto aos resultados das big techs, em um momento em que elas tentam expandir seu poder computacional para além da força bruta.
Para a companhia, o novo chip é um passo na direção do que tem chamado de “era da inferência”, em que agentes de IA generativa reagirão proativamente e criarão dados para entregar respostas e ideias colaborativamente. Analistas do Morgan Stanley preveem que 75% da demanda computacional e de energia de data centers nos próximos anos estará centrada em inferência.
É o que tem motivado companhias como o próprio Google Cloud e concorrentes como a AWS, da Amazon, a desenvolverem suas próprias versões dos chips dedicados à inferência, um mercado em que a Nvidia tem sido dominante.
*O repórter viajou à Las Vegas convite do Google Cloud
The post Google lança novo chip de IA de olho em mudança no perfil de demanda computacional appeared first on InfoMoney.