Tesla, Intel e outros gigantes estão "combatendo" chips de IA: "defesas" de GPU, integração de armazenamento e computação "flancos", players domésticos de chips também querem dividir o bolo da Nvidia
A Nvidia é "dominante" com sua GPU, e cada vez mais empresas estão tentando aproveitar o "oceano azul" dos chips de IA. Musk disse recentemente que Tesla está desenvolvendo seu próprio chip, mas não será chamado de GPU ou 100s, H100s, etc., e o Dojo2 se concentrará em modelos grandes. A Intel lançou anteriormente o chip Gaudi2 "China Special Edition", que é mais econômico do que o H100.Seus servidores AI desenvolvidos em conjunto com a Inspur Information**.
A indústria geralmente acredita que não é fácil para a Nvidia manter esse bolo. Great Wall Securities Hou Bin apontou em um relatório de pesquisa em 13 de julho que, em comparação com os países estrangeiros, o mercado de chips de IA do meu país crescerá a uma taxa mais alta nos próximos três anos, e há um grande espaço para desenvolvimento e um amplo espaço de mercado. De acordo com o relatório de pesquisa da China Merchants Securities Zhang Xia em 18 de julho, o tamanho do mercado de chips AI do meu país chegará a 178 bilhões de yuans em 2025, um aumento de quase 100% ** em comparação com 2022. De 2021 a 2025, o tamanho do mercado de chips AI ** CARG é de 42,9% **, o que é mais rápido que a taxa de crescimento do mercado global (32,1%) no mesmo período.
De acordo com a estrutura do mercado, existem atualmente três tipos de players no campo de chips de IA. Um são os antigos gigantes de chips representados pela Nvidia e AMD, que fizeram grandes aquisições nos últimos anos para aumentar a força de suas linhas de produtos de inteligência artificial; o outro são os gigantes da computação em nuvem representados por Google, Baidu e Huawei. De acordo com dados da IDC, as remessas de cartões aceleradores de IA da China em 2022 serão de cerca de 1,09 milhão, dos quais a participação de mercado da Nvidia no mercado de cartões aceleradores de IA da China é de 85%, a participação de mercado da Huawei é de 10%, a participação de mercado da Baidu é de 2% e Cambrian e Suiyuan Technology têm 1%.
▌Mercado de chips AI disputando o primeiro lugar: os preços da Nvidia A800 dispararam, as empresas domésticas "demitiram" a GPU para encontrar uma saída Cambrian assumiu a bandeira dos chips domésticos AI, mas ainda não conseguiu sair da situação de anos consecutivos de perdas
Este ano, o mercado AIGC está quente para GPUs. Sob a forte demanda, GPUs estão sempre em falta, e o aperto da oferta fez com que muitas empresas de terminais se sentissem sobrecarregadas. YouKede declarou na plataforma de interação com investidores em 3 de julho que as GPUs encomendadas pela empresa estão chegando uma após a outra e a contribuição para a empresa é limitada. O tempo de entrega e a quantidade das GPUs restantes são incertas; Inspur Information divulgou a previsão do relatório semestral na semana passada.
"Tudo está esperando pela Nvidia." Um executivo de uma empresa de IA disse a um repórter da Financial Associated Press que sua empresa fez um pedido de produtos de servidor em abril, mas como a GPU da empresa de servidores ainda não chegou, não há data de entrega exata.
Os infortúnios nunca vêm sozinhos, o mercado de GPU mais uma vez experimentou uma tempestade. Por um lado, o preço da Nvidia A800 aumentou mais de 30%** em uma semana, e mesmo o preço não tem mercado. O Lenovo Group disse na exposição MWC Shanghai que o servidor high-end equipado com o chip A800 será entregue em 10 meses. **
De acordo com fontes da indústria, além da forte demanda pelo A800 e fatores políticos, há também o desejo de "egoísmo" da própria Nvidia, "a NVIDIA está atualmente reduzindo a remessa do A800 e promovendo o H800, mais lucrativo". O preço de uma GPU de placa única H800 chega a mais de 200.000 yuans, muito mais alto do que o A800 após o aumento de preço. A partir de junho deste ano, o H800 será oficialmente promovido em grande escala.
Nesse contexto, muitas pessoas estão preocupadas se as empresas domésticas de GPU terão chance de obter uma participação no futuro. Gai Lujiang, presidente da Tianshu Zhixin, disse que, de fato, independentemente de os produtos da Nvidia poderem ser vendidos para a China, nossos produtos já podem ser usados. Shang Junman, analista da Xinmou Consulting, disse que tem uma atitude relativamente positiva em relação ao desenvolvimento de GPUs nacionais como um todo, mas há uma certa lacuna** entre as cadeias industriais nacionais e estrangeiras em plataformas de design, fundição e software ecológico**.
De acordo com as estatísticas incompletas da Financial Associated Press, as empresas listadas em ações A com um layout no campo de GPU incluem Jingjiawei, VeriSilicon, Hangjin Technology, Zowee Technology, Haoli Technology, Allwinner Technology e Tongfu Microelectronics**, etc. Os detalhes são os seguintes:
Como o "primeiro estoque de chips de IA no Conselho de Inovação em Ciência e Tecnologia", Cambrian respondeu anteriormente na plataforma interativa que o chip inteligente projetado e desenvolvido pela empresa não é uma GPU, mas um chip especialmente projetado para o campo da inteligência artificial. As vantagens de desempenho e eficiência energética dos chips inteligentes estão concentradas principalmente em aplicativos inteligentes. No campo da inteligência artificial, pode substituir os chips GPU, mas não é aplicável a outros campos fora da inteligência artificial.
Vale ressaltar que em 25 de maio, a Nvidia divulgou seu relatório financeiro do primeiro trimestre do ano fiscal de 2024, com receita de US$ 7,19 bilhões, uma queda de 13% em relação ao ano anterior, mas ainda superando as expectativas do mercado de US$ 6,52 bilhões. Em total contraste com o desempenho da Nvidia, o Cambrian teve uma perda líquida de 255 milhões de yuans** no primeiro trimestre de 2023, em comparação com uma perda de 287 milhões de yuans no mesmo período do ano passado.
De fato, desde 2019, o lucro líquido cambriano** sempre esteve em situação de prejuízo**, ou afetado por isso, a queda máxima acumulada de 84,35% desde que o preço das ações foi listado. A empresa afirmou certa vez em seu relatório anual de 2022 que o investimento em P&D de alta qualidade é uma base sólida para o desenvolvimento de longo prazo da indústria de chips. Em todo o ano de 2022, as despesas de pesquisa e desenvolvimento do Cambriano** atingirão 1,523 bilhão de yuans, um aumento anual de 34,11%**.
▌Chips domésticos de IA com grande poder de computação mudam de faixa? Intel, Huawei e outros players globais aceleram a implantação de armazenamento e computação integrados
No que diz respeito aos chips de IA de computação grande exigidos pelo atual modelo AIGC, é possível desenvolver chips de IA que possam comparar o desempenho com o GPGPU da Nvidia por meio de abordagens técnicas existentes? Algumas tecnologias "surpreendentemente corretas" incluem: chips definidos por software, chiplets, empilhamento 3D e empacotamento avançado, integração de armazenamento e cálculo, etc. De acordo com a análise do setor, somente integrando profundamente os recursos de computação, armazenamento, rede e software, acelerando o compartilhamento e a integração de dados, podemos oferecer melhor suporte à computação e aproveitar totalmente o valor dos dados.
Em 14 de julho, Huawei lançou o novo produto de armazenamento AI "OceanStor A310 Deep Learning Data Lake Storage"** na era dos modelos grandes. Este produto é orientado para cenários de data lake de modelo básico/indústria em larga escala e realiza o gerenciamento de dados massivos de processo completo de IA a partir da coleta de dados, pré-processamento, treinamento de modelo e aplicativos de inferência. Ele pode realizar a intercomunicação multiprotocolo sem perdas e simplificar o processo de coleta de dados; realizar o pré-processamento de quase dados por meio da computação de quase memória, reduzir a migração de dados e melhorar a eficiência do pré-processamento em 30%. **
A chamada computação de memória próxima (PNM) pertence à integração de armazenamento e computação. Este último também é conhecido como "o próximo pólo do poder de computação da IA". O fundador Securities acredita que é esperado que se torne o "terceiro pólo"** da arquitetura de poder de computação após CPU e GPU. Além da Huawei, muitas empresas nacionais e estrangeiras realizaram pesquisa e desenvolvimento de tecnologia de integração de computação de armazenamento, incluindo Intel, IBM, SK Hynix, Micron, Samsung, TSMC, Ali** e outros grandes fabricantes, quase todos implantando PNM; e ** Zhicun Technology, Yizhu Technology, Zhixinke** e outras empresas iniciantes estão apostando em PIM (processamento em memória), CIM (computação em memória) e outras rotas de tecnologia de integração de computação de armazenamento mais íntimas .
Sob o pano de fundo de que a fraca versatilidade dos chips ASIC é difícil de lidar com a rápida evolução dos algoritmos downstream, e o GPGPU é limitado pelo alto consumo de energia e baixa utilização de energia de computação, o chip integrado de computação de memória está se tornando uma estrela em ascensão na indústria de chips em virtude de seu baixo consumo de energia, mas alta taxa de eficiência energética. De acordo com estatísticas incompletas da Financial Associated Press, as empresas A-share envolvidas na integração de depósito e cálculo incluem Dongxin Co., Ltd., Hengshuo Co., Ltd., Raput, Capital Online, Changdian Technology, Montage Technology e Runxin Technology, etc. Os detalhes são os seguintes:
Em termos de mercado primário, a integração de armazenamento e cálculo também é a faixa mais popular para investimento em chips nos últimos dois anos. De acordo com a visão e as estatísticas de SI Rui, sete players integrados de armazenamento e cálculo, incluindo Yizhu Technology e Zhicun Technology, são favorecidos pelo capital. Vale a pena notar que as quatro empresas iniciantes sob a trilha integrada de armazenamento e computação ** Yizhu Technology, Zhicun Technology, Pingxin Technology e Houmo Intelligence obtiveram financiamento ** por dois anos consecutivos.
Os analistas acreditam que GPU e armazenamento são mais competitivos do que competitivos: GPU, como a solução mais madura no momento, não pode ser abandonada, e um grupo de empresas é necessário para levá-la adiante; enquanto a computação de armazenamento é um ataque de flanqueamento e intercalado, quebrando barreiras técnicas estrangeiras e realizando novas tecnologias.
Olhando para o futuro, a indústria apontou que o poder de computação da China se tornou um recurso cada vez mais escasso. A fim de atender à demanda de grandes modelos para grande poder de computação, o agrupamento de poder de computação será a tendência futura. Na Conferência Mundial de Inteligência Artificial de 2023, a Huawei anunciou que o cluster Ascend AI foi totalmente atualizado. O tamanho do cluster foi expandido do cluster inicial de 4.000 cartões** para 16.000 cartões**, com velocidade de treinamento mais rápida e um ciclo de treinamento estável de mais de 30 dias. Com base no Ascend AI, mais de 30 modelos de grande escala foram incubados e adaptados nativamente. Até agora, cerca de metade das inovações de modelos de grande escala na China são suportadas pelo Ascend AI**.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Tesla, Intel e outros gigantes estão "combatendo" chips de IA: "defesas" de GPU, integração de armazenamento e computação "flancos", players domésticos de chips também querem dividir o bolo da Nvidia
**Fonte: **Associação Financeira
Editar Ruoyu
A Nvidia é "dominante" com sua GPU, e cada vez mais empresas estão tentando aproveitar o "oceano azul" dos chips de IA. Musk disse recentemente que Tesla está desenvolvendo seu próprio chip, mas não será chamado de GPU ou 100s, H100s, etc., e o Dojo2 se concentrará em modelos grandes. A Intel lançou anteriormente o chip Gaudi2 "China Special Edition", que é mais econômico do que o H100.Seus servidores AI desenvolvidos em conjunto com a Inspur Information**.
A indústria geralmente acredita que não é fácil para a Nvidia manter esse bolo. Great Wall Securities Hou Bin apontou em um relatório de pesquisa em 13 de julho que, em comparação com os países estrangeiros, o mercado de chips de IA do meu país crescerá a uma taxa mais alta nos próximos três anos, e há um grande espaço para desenvolvimento e um amplo espaço de mercado. De acordo com o relatório de pesquisa da China Merchants Securities Zhang Xia em 18 de julho, o tamanho do mercado de chips AI do meu país chegará a 178 bilhões de yuans em 2025, um aumento de quase 100% ** em comparação com 2022. De 2021 a 2025, o tamanho do mercado de chips AI ** CARG é de 42,9% **, o que é mais rápido que a taxa de crescimento do mercado global (32,1%) no mesmo período.
De acordo com a estrutura do mercado, existem atualmente três tipos de players no campo de chips de IA. Um são os antigos gigantes de chips representados pela Nvidia e AMD, que fizeram grandes aquisições nos últimos anos para aumentar a força de suas linhas de produtos de inteligência artificial; o outro são os gigantes da computação em nuvem representados por Google, Baidu e Huawei. De acordo com dados da IDC, as remessas de cartões aceleradores de IA da China em 2022 serão de cerca de 1,09 milhão, dos quais a participação de mercado da Nvidia no mercado de cartões aceleradores de IA da China é de 85%, a participação de mercado da Huawei é de 10%, a participação de mercado da Baidu é de 2% e Cambrian e Suiyuan Technology têm 1%.
▌Mercado de chips AI disputando o primeiro lugar: os preços da Nvidia A800 dispararam, as empresas domésticas "demitiram" a GPU para encontrar uma saída Cambrian assumiu a bandeira dos chips domésticos AI, mas ainda não conseguiu sair da situação de anos consecutivos de perdas
Este ano, o mercado AIGC está quente para GPUs. Sob a forte demanda, GPUs estão sempre em falta, e o aperto da oferta fez com que muitas empresas de terminais se sentissem sobrecarregadas. YouKede declarou na plataforma de interação com investidores em 3 de julho que as GPUs encomendadas pela empresa estão chegando uma após a outra e a contribuição para a empresa é limitada. O tempo de entrega e a quantidade das GPUs restantes são incertas; Inspur Information divulgou a previsão do relatório semestral na semana passada.
"Tudo está esperando pela Nvidia." Um executivo de uma empresa de IA disse a um repórter da Financial Associated Press que sua empresa fez um pedido de produtos de servidor em abril, mas como a GPU da empresa de servidores ainda não chegou, não há data de entrega exata.
Os infortúnios nunca vêm sozinhos, o mercado de GPU mais uma vez experimentou uma tempestade. Por um lado, o preço da Nvidia A800 aumentou mais de 30%** em uma semana, e mesmo o preço não tem mercado. O Lenovo Group disse na exposição MWC Shanghai que o servidor high-end equipado com o chip A800 será entregue em 10 meses. **
Nesse contexto, muitas pessoas estão preocupadas se as empresas domésticas de GPU terão chance de obter uma participação no futuro. Gai Lujiang, presidente da Tianshu Zhixin, disse que, de fato, independentemente de os produtos da Nvidia poderem ser vendidos para a China, nossos produtos já podem ser usados. Shang Junman, analista da Xinmou Consulting, disse que tem uma atitude relativamente positiva em relação ao desenvolvimento de GPUs nacionais como um todo, mas há uma certa lacuna** entre as cadeias industriais nacionais e estrangeiras em plataformas de design, fundição e software ecológico**.
De acordo com as estatísticas incompletas da Financial Associated Press, as empresas listadas em ações A com um layout no campo de GPU incluem Jingjiawei, VeriSilicon, Hangjin Technology, Zowee Technology, Haoli Technology, Allwinner Technology e Tongfu Microelectronics**, etc. Os detalhes são os seguintes:
Vale ressaltar que em 25 de maio, a Nvidia divulgou seu relatório financeiro do primeiro trimestre do ano fiscal de 2024, com receita de US$ 7,19 bilhões, uma queda de 13% em relação ao ano anterior, mas ainda superando as expectativas do mercado de US$ 6,52 bilhões. Em total contraste com o desempenho da Nvidia, o Cambrian teve uma perda líquida de 255 milhões de yuans** no primeiro trimestre de 2023, em comparação com uma perda de 287 milhões de yuans no mesmo período do ano passado.
De fato, desde 2019, o lucro líquido cambriano** sempre esteve em situação de prejuízo**, ou afetado por isso, a queda máxima acumulada de 84,35% desde que o preço das ações foi listado. A empresa afirmou certa vez em seu relatório anual de 2022 que o investimento em P&D de alta qualidade é uma base sólida para o desenvolvimento de longo prazo da indústria de chips. Em todo o ano de 2022, as despesas de pesquisa e desenvolvimento do Cambriano** atingirão 1,523 bilhão de yuans, um aumento anual de 34,11%**.
▌Chips domésticos de IA com grande poder de computação mudam de faixa? Intel, Huawei e outros players globais aceleram a implantação de armazenamento e computação integrados
No que diz respeito aos chips de IA de computação grande exigidos pelo atual modelo AIGC, é possível desenvolver chips de IA que possam comparar o desempenho com o GPGPU da Nvidia por meio de abordagens técnicas existentes? Algumas tecnologias "surpreendentemente corretas" incluem: chips definidos por software, chiplets, empilhamento 3D e empacotamento avançado, integração de armazenamento e cálculo, etc. De acordo com a análise do setor, somente integrando profundamente os recursos de computação, armazenamento, rede e software, acelerando o compartilhamento e a integração de dados, podemos oferecer melhor suporte à computação e aproveitar totalmente o valor dos dados.
Em 14 de julho, Huawei lançou o novo produto de armazenamento AI "OceanStor A310 Deep Learning Data Lake Storage"** na era dos modelos grandes. Este produto é orientado para cenários de data lake de modelo básico/indústria em larga escala e realiza o gerenciamento de dados massivos de processo completo de IA a partir da coleta de dados, pré-processamento, treinamento de modelo e aplicativos de inferência. Ele pode realizar a intercomunicação multiprotocolo sem perdas e simplificar o processo de coleta de dados; realizar o pré-processamento de quase dados por meio da computação de quase memória, reduzir a migração de dados e melhorar a eficiência do pré-processamento em 30%. **
A chamada computação de memória próxima (PNM) pertence à integração de armazenamento e computação. Este último também é conhecido como "o próximo pólo do poder de computação da IA". O fundador Securities acredita que é esperado que se torne o "terceiro pólo"** da arquitetura de poder de computação após CPU e GPU. Além da Huawei, muitas empresas nacionais e estrangeiras realizaram pesquisa e desenvolvimento de tecnologia de integração de computação de armazenamento, incluindo Intel, IBM, SK Hynix, Micron, Samsung, TSMC, Ali** e outros grandes fabricantes, quase todos implantando PNM; e ** Zhicun Technology, Yizhu Technology, Zhixinke** e outras empresas iniciantes estão apostando em PIM (processamento em memória), CIM (computação em memória) e outras rotas de tecnologia de integração de computação de armazenamento mais íntimas .
Sob o pano de fundo de que a fraca versatilidade dos chips ASIC é difícil de lidar com a rápida evolução dos algoritmos downstream, e o GPGPU é limitado pelo alto consumo de energia e baixa utilização de energia de computação, o chip integrado de computação de memória está se tornando uma estrela em ascensão na indústria de chips em virtude de seu baixo consumo de energia, mas alta taxa de eficiência energética. De acordo com estatísticas incompletas da Financial Associated Press, as empresas A-share envolvidas na integração de depósito e cálculo incluem Dongxin Co., Ltd., Hengshuo Co., Ltd., Raput, Capital Online, Changdian Technology, Montage Technology e Runxin Technology, etc. Os detalhes são os seguintes:
Olhando para o futuro, a indústria apontou que o poder de computação da China se tornou um recurso cada vez mais escasso. A fim de atender à demanda de grandes modelos para grande poder de computação, o agrupamento de poder de computação será a tendência futura. Na Conferência Mundial de Inteligência Artificial de 2023, a Huawei anunciou que o cluster Ascend AI foi totalmente atualizado. O tamanho do cluster foi expandido do cluster inicial de 4.000 cartões** para 16.000 cartões**, com velocidade de treinamento mais rápida e um ciclo de treinamento estável de mais de 30 dias. Com base no Ascend AI, mais de 30 modelos de grande escala foram incubados e adaptados nativamente. Até agora, cerca de metade das inovações de modelos de grande escala na China são suportadas pelo Ascend AI**.