A Nvidia passou a primeira parte da GTC 2026 acumulando anúncios de parcerias em chips, cloud, robótica, telecomunicações, automóveis, software de fábrica, espaço, eA Nvidia passou a primeira parte da GTC 2026 acumulando anúncios de parcerias em chips, cloud, robótica, telecomunicações, automóveis, software de fábrica, espaço, e

Nvidia revela parcerias abrangentes de IA no GTC 2026 à medida que a procura por chips se aproxima de $1B

2026/03/18 03:10
Leu 7 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em [email protected]

A Nvidia passou a fase inicial da GTC 2026 a acumular anúncios de parcerias em chips, computação nuvem, robótica, telecomunicações, automóveis, software de fábrica, espaço e gráficos.

O evento começou na segunda-feira e decorre durante três dias.

Falando para uma multidão lotada, o CEO da Nvidia, Jensen Huang, disse que espera que as encomendas relacionadas com Blackwell e Vera Rubin atinjam 1 bilião de dólares até 2027, o que está muito acima da oportunidade de receita de 500 mil milhões de dólares de que a empresa falou no ano passado para essas duas plataformas de chips.

Nvidia leva Vera Rubin ao espaço enquanto empurra cargas de trabalho de IA para além da Terra

Jensen também voltou a afirmar que a procura da Nvidia é forte tanto de startups como de grandes empresas. As ações da Nvidia subiram cerca de 2% na segunda-feira, embora a ação tenha voltado ao vermelho no momento da publicação na terça-feira.

A história maior na conferência, no entanto, tem sido o fluxo de negócios. Pela contagem da Cryptopolitan, a empresa já lançou bem mais de 10 parcerias, com o total a chegar a aproximadamente 15-17.

Um dos anúncios mais invulgares na GTC 2026 focou-se no espaço. A Nvidia disse que as suas mais recentes plataformas de computação acelerada estão a ser usadas para empurrar computação de IA para centros de dados orbitais, inteligência geoespacial e operações espaciais autónomas.

A empresa disse que está a visar ambientes onde o tamanho, peso e energia são limitados, mas a procura por poder de computação sério continua a crescer.

É aí que entra o novo NVIDIA Space-1 Vera Rubin Module. A Nvidia disse que o módulo é a parte mais recente da sua plataforma acelerada para o espaço. Disse também que a GPU Rubin no módulo pode fornecer até 25 vezes mais computação de IA para inferência baseada no espaço do que a GPU NVIDIA H100.

A empresa associou esse aumento à computação de próxima geração para centros de dados orbitais, processamento de inteligência geoespacial mais avançado e operações espaciais autónomas. Disse também que a plataforma foi concebida para permitir que as aplicações de IA funcionem do solo para o espaço e do espaço para o espaço à medida que as necessidades das missões se tornam mais complexas.

Nvidia adiciona construtores de robots, grupos de software e fabricantes para expandir a sua rede de IA industrial

A Nvidia disse que está a trabalhar com desenvolvedores de cérebros de robots, fabricantes de robots industriais e empresas de robots humanoides para impulsionar IA física à escala de produção.

Nvidia CEO Jensen HuangCEO da Nvidia Jensen Huang na GTC 2026

Na GTC, Jensen apresentou novas estruturas de simulação NVIDIA Isaac e novos modelos abertos NVIDIA Cosmos e NVIDIA Isaac GR00T.

A lista de parceiros nessa frente é longa, já que a Nvidia nomeou ABB Robotics, AGIBOT, Agility, FANUC, Figure, Hexagon Robotics, KUKA, Skild AI, Universal Robots, World Labs e YASKAWA como líderes da indústria a construir na sua plataforma. Jensen disse:

A Nvidia também anunciou um impulso separado de software industrial. Disse que está a trabalhar com Cadence, Dassault Systèmes, PTC, Siemens e Synopsys para trazer NVIDIA CUDA-X, NVIDIA Omniverse e ferramentas industriais aceleradas por GPU para FANUC, HD Hyundai, Honda, JLR, KION, Mercedes-Benz, MediaTek, PepsiCo, Samsung, SK hynix e TSMC.

A empresa disse que essas ferramentas serão usadas para acelerar o design, engenharia e fabrico.

Esse mesmo grupo de empresas de software também está a lançar ferramentas de IA agêntica impulsionadas pela Nvidia para clientes que se preparam para a próxima fase do mercado de IA.

NvidiaTodas as empresas atualmente presentes no evento GTC 2026 da Nvidia

A Nvidia disse que essas soluções estão a funcionar na sua infraestrutura de IA através da Amazon Web Services, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure, bem como através de fabricantes de equipamentos originais Dell, HPE e Supermicro para trabalho de design e simulação mais rápido.

Nvidia expande parcerias de condução autónoma e laços de fábrica de dados em automóveis, robótica e computação nuvem

O lado automóvel do evento também esteve movimentado. A Nvidia disse que expandiu o seu trabalho com a Hyundai Motor Company e a Kia Corporation em tecnologia de condução autónoma de próxima geração construída na plataforma NVIDIA DRIVE Hyperion.

A empresa disse que a colaboração combina as capacidades de veículo definido por software da Hyundai, frota global e trabalho de desenvolvimento de condução autónoma com a computação acelerada, infraestrutura de IA e software de condução autónoma da Nvidia.

Como parte da relação expandida, a Hyundai planeia integrar tecnologia de condução autónoma da Nvidia em veículos selecionados, suportando sistemas de Nível 2 e acima. A empresa disse que esse trabalho visa melhorar a segurança e adicionar funções de condução mais inteligentes nas plataformas de veículos da Hyundai.

https://www.cryptopolitan.com/wp-content/uploads/2026/03/download.mp4

A Nvidia também disse que a adoção do DRIVE Hyperion está a crescer com fabricantes de automóveis globais BYD, Geely, Isuzu e Nissan, juntamente com fornecedores de mobilidade.

Outra parceria foi no novo NVIDIA Physical AI Data Factory Blueprint, que a Nvidia descreveu como uma arquitetura de referência aberta que unifica e automatiza como os dados de treino são gerados, expandidos e avaliados.

Para esse esforço, a empresa disse que está a trabalhar com Microsoft Azure e Nebius para integrar o blueprint na infraestrutura e serviços de computação nuvem.

Nvidia expande infraestrutura de IA com novo software de inferência, parceiros de telecomunicações, CPU Vera e DLSS 5

A Nvidia também lançou o NVIDIA Dynamo 1.0, software de código aberto para inferência generativa e agêntica à escala. Emparelhado com a plataforma NVIDIA Blackwell, a empresa disse que o software ajuda fornecedores de computação nuvem, empresas de IA e empresas a fornecer inferência com mais velocidade, escala e eficiência.

A empresa disse que o problema agora não é apenas poder de computação bruto. É orquestração dentro do centro de dados, onde os pedidos chegam em tamanhos diferentes, em formatos diferentes e em rajadas imprevisíveis.

Nvidia CEO Jensen HuangCEO da Nvidia Jensen Huang na GTC 2026

É por isso que a Nvidia descreveu o Dynamo 1.0 como o sistema operativo distribuído das fábricas de IA. O software foi construído para coordenar recursos de GPU e memória num cluster para cargas de trabalho de IA mais complexas. Em benchmarks da indústria, a Nvidia disse que o Dynamo melhorou o desempenho de inferência nas GPUs NVIDIA Blackwell até 7 vezes.

As telecomunicações foram outra área na lista. A Nvidia e a T-Mobile disseram que estão a trabalhar com a Nokia e um ecossistema crescente de desenvolvedores para trazer aplicações de IA física através de redes de IA de borda distribuídas.

As empresas disseram que a infraestrutura AI-RAN de próxima geração pode transformar redes sem fios numa plataforma para computação de IA de borda de alto desempenho distribuída.

Associaram isso a desenvolvedores que constroem Agentes de IA de visão que podem compreender o mundo físico em cidades, utilidades e locais de trabalho industriais através da plataforma NVIDIA Metropolis.

NvidiaCEO da Nvidia Jensen Huang

A T-Mobile disse que foi a primeira nos Estados Unidos a pilotar a infraestrutura AI-RAN da Nvidia usando o software anyRAN da Nokia. A operadora está agora a trabalhar com parceiros selecionados de IA física da Nvidia enquanto continua a fornecer conectividade 5G avançada.

A empresa também lançou a NVIDIA Vera CPU, que chamou de primeiro processador construído para IA agêntica e aprendizagem por reforço. A Nvidia disse que a Vera oferece o dobro da eficiência e funciona 50% mais rápido do que CPUs tradicionais à escala de rack.

O chip baseia-se na anterior NVIDIA Grace CPU e destina-se a organizações que constroem fábricas de IA para assistentes de codificação, Agentes de IA empresariais, Agentes de IA de consumo e outros serviços de IA em larga escala. A Nvidia disse que a Vera traz o desempenho de thread único mais alto e largura de banda por núcleo.

As empresas que trabalham com a Nvidia para implementar a Vera incluem hyperscalers Alibaba, CoreWeave, Meta e Oracle Cloud Infrastructure, juntamente com fabricantes de sistemas Dell Technologies, HPE, Lenovo, Supermicro e outros.

Se está a ler isto, já está à frente. Continue assim com a nossa newsletter.

Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail [email protected] para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.