![Nvidia investe mais de US$ 1 trilhão em memórias HBM3e para GPUs H200 Nvidia investe mais de US$ 1 trilhão em memórias HBM3e para GPUs H200](https://i0.statig.com.br/bancodeimagens/66/v4/4j/66v44jieup8w255ol5ag7k575.jpg)
A Nvidia investiu trilhões de dólares para adquirir as memórias HBM3e que vão equipar as novas GPUs para IA H200 . Fontes teriam informado ao veículo coreano Chosun Biz que SK Hynix e Micron teriam recebido pagamentos antecipados na cifra de centenas de milhões de dólares para formalizar acordos entre US$ 700 bi e US$ 1 trilhão cada, inclusive limitando o acesso às memórias por outras empresas.
A Samsung também teria firmado acordo para fornecer memórias HBM para produtos Nvidia assim que os componentes da sul-coreana estiverem comercialmente disponíveis. Os detalhes do acerto com a Samsung não foram revelados, mas a projeção é que suas memórias também equipem placas Nvidia para IA, previstas para chegarem ao mercado já em 2024.
New performance updates - H200 achieves nearly 12,000 tokens/sec on Llama2-13B with NVIDIA TensorRT-LLM. H200 is up to 1.9x faster than H100.
Learn more about how you can supercharge #LLM #inference with TensorRT-LLM and H200. #SC23 #HPC
➡️ https://t.co/lVGBhtNK6t pic.twitter.com/oC9OOlG7t3-
— NVIDIA AI Developer (@NVIDIAAIDev) November 13, 2023
Podcast Canaltech: de segunda a sexta-feira, você escuta as principais manchetes e comentários sobre os acontecimentos tecnológicos no Brasil e no mundo. Links aqui: https://canaltech.com.br/podcast/
-
Antecipando-se à nova crise
Geralmente, comprar componentes envolve projeções de mercado para estimar a demanda aproximada de novos produtos, tornando o movimento da Nvidia bastante atípico. Adquirir lotes tão grandes, já com pagamento antecipado, é uma medida arriscada para placas ainda não lançadas, especialmente considerando que AMD e Intel também estão entrando no mercado de IA em 2024 com os aceleradores Gaudi 2/3 e Instinct MI300X/A .
No entanto, diversos analistas e empresas do setor de semicondutores sugerem que o segmento de memórias NAND irá passar por uma nova crise ao longo deste ano. A última crise de semicondutores de 2018 se estendeu por quase 3 anos, e nada garante que essa próxima irá durar apenas até o final de 2024, como vem sendo estimado.
We announced a collaboration with @AWS to offer new supercomputing infrastructure, software and services for #generativeAI . This includes AWS to offer first cloud AI supercomputer with NVIDIA Grace Hopper Superchip and more. https://t.co/4UknRPK1Dg
— NVIDIA (@nvidia) November 28, 2023
Sendo assim, a estratégia da Nvidia parece ser muito mais uma forma de se antecipar aos impactos de uma possível escassez de chips NAND do que refletir acordos já firmados pelas GPUs H200. Com isso, é possível garantir vazão a longo prazo para as novas placas, sem comprometer o custo de produção e preço final para os clientes.
🛒 Compre placas de vídeo Nvidia GeForce RTX pelo melhor preço!
🛒 Compre placas de vídeo Intel Arc pelo melhor preço!
Leia a matéria no Canaltech .
Trending no Canaltech:
- Espermatozoides quebram leis da física em descoberta surpreendente
- Galaxy S24 Ultra ganha cartaz em quiosque no Brasil com destaque para IA
- Mickey em domínio público | Entenda a questão sobre o personagem
- Apple Vision Pro pode chegar em 27 de janeiro, dizem fontes
- 8 modelos de planilhas prontas para controle de gastos mensais
- Inteligência artificial prevê data da morte com 74% de precisão