Spain Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
May 23, 2020 4:04 AM ET

Chips de IA em 2020: Nvidia e os desafiantes


iCrowd Newswire - May 23, 2020

Agora que a poeira da nvidia revelando seu novo chip Ampere AI se estabeleceu, vamos dar uma olhada no mercado de chips de IA nos bastidores e longe dos holofotes

Poucas pessoas, inclusive os concorrentes da Nvidia, contestariam o fato de que a Nvidia está dando as ordens no jogo de chip de IA hoje. O anúncio do novo chip Ampere AI no principal evento da Nvidia, GTC, roubou os holofotes na semana passada.

Houve uma ampla cobertura, inclusive aqui na ZDNet. Tiernan Ray forneceu uma análise aprofundada do novo e notável no que diz respeito à própria arquitetura de chips. Andrew Brust se concentrou no lado do softwaredas coisas, expandindo o suporte da Nvidia para apache spark,uma das estruturas de código aberto mais bem sucedidas para engenharia de dados, análise e aprendizado de máquina.

Vamos continuar de onde eles pararam, colocando a nova arquitetura em perspectiva, comparando com a concorrência em termos de desempenho, economia e software.

LINHA DE FUNDO DUPLO DA NVIDIA

A essência da análise de Ray é capturar a intenção da Nvidia com a nova geração de chips: fornecer uma família de chips que possa servir tanto para o “treinamento” de redes neurais, onde a operação da rede neural é desenvolvida pela primeira vez em um conjunto de exemplos, e também para inferência, a fase em que as previsões são feitas com base em novos dados de entrada.

Ray observa que esta é uma partida da situação atual onde diferentes chips Nvidia aparecem em diferentes sistemas de computador para treinamento ou inferência. Ele acrescenta que a Nvidia espera fazer um argumento econômico para as lojas de IA de que é melhor comprar um sistema baseado na Nvidia que possa fazer as duas tarefas.

“Você tem toda a sobrecarga de memória adicional, CPUs e fontes de alimentação de 56 servidores … entrou em colapso em um”, disse o CEO da Nvidia, Jensen Huang. “A proposta de valor econômico está realmente fora dos padrões, e isso é a coisa que é realmente emocionante.”

Jonah Alben, vice-presidente sênior de engenharia de GPU da Nvidia, disse aos analistas que a Nvidia já havia empurrado volta, o chip da geração anterior da Nvidia, até onde podia sem pegar fogo. Ele foi ainda mais longe com a Ampere, que possui 54 bilhões de transistores, e pode executar 5 petaflops de desempenho, ou cerca de 20 vezes mais do que Volta.

2555435ebb25b4781b28-39429237-first-Nvidia-dgx-a100-at-argonne-national-laboratory-image-courtesy-argonne-national-laboratory.jpg

Nvidia está atrás de um resultado duplo: melhor desempenho e melhor economia

Assim, a Nvidia está atrás de um resultado duplo: melhor desempenho e melhor economia. Vamos lembrar que recentemente a Nvidia também adicionou suporte para CPUs Arm. Embora o desempenho do processador Arm possa não estar em par com a Intel neste momento, suas necessidades de energia frugal fazem deles uma opção atraente para o data center, também, de acordo com analistas.

Na frente de software, além do suporte ao Apache Spark, a Nvidia também revelou o Jarvis, uma nova estrutura de aplicativos para a construção de serviços de IA conversacionais. Para oferecer experiências interativas e personalizadas, observa a Nvidia, as empresas precisam treinar seus aplicativos baseados em idiomas em dados específicos para suas próprias ofertas de produtos e necessidades dos clientes.

No entanto, a construção de um serviço do zero requer profunda experiência em IA, grandes quantidades de dados e recursos computacionais para treinar os modelos e software para atualizar regularmente modelos com novos dados. A Jarvis tem como objetivo enfrentar esses desafios, oferecendo um pipeline de aprendizado profundo de ponta a ponta para IA conversacional.

Jarvis inclui modelos de aprendizagem profunda de última geração, que podem ser mais afinados usando o Nvidia NeMo,otimizado para inferência usando TensorRT,e implantado na nuvem e na borda usando gráficos Helm disponíveis no NGC, o catálogo da Nvidia de software otimizado para GPU.

INTEL E GRAPHCORE: CHALLENGERS DE ALTO PERFIL

Trabalhando para trás, isso é algo que temos notado várias vezes para a Nvidia: Sua liderança não está apenas no hardware. De fato, o ecossistema de software e parceiros da Nvidia pode ser a parte mais difícil para a concorrência corresponder. A competição está fazendo movimentos também, no entanto. Alguns concorrentes podem desafiar a Nvidia na economia, outros no desempenho. Vamos ver o que os desafiantes estão afazer.

A Intel vem trabalhando em sua tecnologia Nervana há algum tempo. No final de 2019, a Intel fez ondas quando adquiriu a startup Habana Labs por US$ 2 bilhões. Como observa o analista Karl Freund,após a aquisição, a Intel vem trabalhando na mudança de sua aceleração de IA da tecnologia Nervana para a Habana Labs.

Freund também destaca a importância da pilha de software. Ele observa que a pilha de software de IA da Intel fica atrás apenas da da Nvidia, em camadas para fornecer suporte (através da abstração) de uma grande variedade de chips, incluindo Xeon, Nervana, Movidius e até mesmo GPUs nvidia. Habana Labs possui dois chips de IA separados, Gaudi para treinamento, e Goya para inferência.

A Intel está apostando que Gaudi e Goya podem combinar com as fichas da Nvidia. Os resultados de referência de inferência mlperf publicados no ano passado foram positivos para Goya. No entanto, teremos que esperar e ver como ele se sai contra a Ampere da Nvidia e a pilha de software em constante evolução da Nvidia.

graphcore-popvision.png</img class=”” src=”https://zdnet4.cbsistatic.com/hub/i/r/2020/05/21/647b1229-fb77-490f-aa1f-fa828620f86b/resize/1200xauto/ddab85c3d435416684dcef171b4bc5ca/graphcore-popvision.png” alt=”graphcore-popvision.png” width=”727″ >

height=”273″ data-original=”https://zdnet4.cbsistatic.com/hub/i/r/2020/05/21/647b1229-fb77-490f-aa1 f-fa828620f86b/resize/1200xauto/ddab85c3d45416684dcef171b4bc5ca/graphcore-popvision.png” />

O desafiante de chip de IA GraphCore está reforçando poplar, sua pilha de software

Outro desafiante de alto perfil é o GraphCore. O fabricante de chips de IA com sede no Reino Unido tem uma arquitetura projetada do zero para alto desempenho e status de unicórnio. A GraphCore também tem se mantido ocupada, expandindo sua pegada de mercado e trabalhando em seu software.

Dos servidores da Dell à nuvem do Microsoft Azure e ao ecossistema de hardware PaddlePaddle da Baidu,o GraphCore tem uma série de ofertas significativas em vigor. A GraphCore também tem trabalhado em sua própria pilha de software, a Poplar. No último mês, poplar viu uma nova versão e uma nova ferramenta de análise.

Se a Intel tem muito a ver com o que fazer, isso certamente também se aplica ao GraphCore. Ambos os fornecedores parecem estar em uma trajetória semelhante, no entanto. Com o objetivo de inovar no nível de hardware, esperando ser capaz de desafiar a Nvidia com uma abordagem nova e radicalmente diferente, personalizada para cargas de trabalho de IA. Ao mesmo tempo, trabalhando em sua pilha de software, e construindo sua presença no mercado.

FRACIONAR Hardware de IA com uma solução de software por RUN:AI

Por último, mas não menos importante, há alguns desafiantes que são menos importantes e têm uma abordagem diferente. Startup Run:AI saiu recentementedo modo stealth , com o anúncio de US$ 13 milhões em financiamento para o que soa como uma solução pouco ortodoxa: Em vez de oferecer outro chip de IA, o Run:AI oferece uma camada de software para acelerar a execução da carga de trabalho de aprendizado de máquina, no local e na nuvem.

A empresa trabalha em estreita colaboração com a AWS e é parceira de tecnologia da VMware. Sua principal proposta de valor é atuar como uma plataforma de gerenciamento para preencher a lacuna entre as diferentes cargas de trabalho de IA e os vários chips de hardware e executar uma plataforma de computação de IA realmente eficiente e rápida.

Run:AI revelou recentemente seu compartilhamento fracionado de GPU para cargas de trabalho de aprendizagem profunda do Kubernetes. Voltado para tarefas leves de IA em escala, como inferência, o sistema de GPU fracionado oferece às equipes de engenharia de ciência de dados e IA a capacidade de executar várias cargas de trabalho simultaneamente em uma única GPU, reduzindo assim os custos.

abstraction-layer-runai.png

Run:AI funciona como uma camada de abstração em cima de cargas de trabalho de IA em execução de hardware

Omri Geller, co-fundador e CEO da Run:AI disse à ZDNet que o anúncio da Nvidia sobre “fracionar” gpu, ou executar trabalhos separados dentro de uma única GPU, é revolucionário para o hardware da GPU. Geller disse que tem visto muitos clientes com essa necessidade, especialmente para cargas de trabalho de inferência: Por que utilizar uma GPU completa para um trabalho que não requer a computação completa e a memória de uma GPU?

Geller disse:

“Acreditamos, no entanto, que isso é mais facilmente gerenciado na pilha de software do que no nível de hardware, e a razão é a flexibilidade. Enquanto o fatiamento de hardware cria “GPUs menores” com uma quantidade estática de memória e núcleos de computação, as soluções de software permitem a divisão de GPUs em qualquer número de GPUs menores, cada uma com uma pegada de memória escolhida e poder de computação.

Além disso, fracionar com uma solução de software é possível com qualquer GPU ou acelerador de IA, não apenas servidores Ampere – melhorando assim o TCO para todos os recursos de computação de uma empresa, não apenas os mais recentes. Isso é, de fato, o que o recurso de GPU fracionado do Run:AI permite.”

UMA CAMADA DE ACESSIBILIDADE PARA FPGAS COM INACCEL

InAccel é uma startup grega, construída em torno da premissa de fornecer um gerente FPGA que permite a aceleração distribuída de grandes conjuntos de dados através de clusters de recursos FPGA usando modelos simples de programação. O fundador e CEO Chris Kachris disse à ZDNet que existem vários argumentos sobre as vantagens dos FPGAs vs GPUs, especialmente para as cargas de trabalho de IA

Kachris observou que os FPGAs podem fornecer melhor eficiência energética (desempenho/watt) em alguns casos, e também podem alcançar menor latência em comparação com GPUs para redes neurais profundas (DNNs). Para DNNs, Kachris passou a acrescentar, FPGAs podem alcançar alta taxa de throughput usando tamanho de lote baixo, resultando em latência muito menor. Em aplicações que a latência e a eficiência energética são críticas, os FPGAs podem prevalecer.

No entanto, a implantação escalável de clusters FPGA continua sendo desafiadora, e este é o problema que a InAccel está fora para resolver. Suas soluções visam fornecer implantação escalável de clusters FPGA, comprovando a abstração ausente — camada semelhante ao OS para o mundo FPGA. O orquestrador da InAccel permite fácil implantação, dimensionamento instantâneo e gerenciamento automatizado de recursos de clusters FPGA.

fpga-manager-small-1-768x887.png

Os FPGAs podem alcançar alta taxa de utilização de baixo tamanho em lote, resultando em menor latência. Sua implantação permanece complexa, e a InAccel pretende ajudar lá.

Kachris comparou a InAccel à VMware / Kubernetes, ou Run.ai / Bitfusion para o mundo FPGA. Ele também afirmou que a InAccel facilita o FPGA para desenvolvedores de software. Ele também observou que os fornecedores de FPGA como Intel e Xilinx reconheceram a importância de um ecossistema forte e formaram fortes alianças que ajudam a expandir seu ecossistema:

“Parece que os fornecedores de nuvem terão que fornecer uma infra-estrutura diversificada e heterogênea, pois diferentes plataformas têm prós e contras. A maioria desses fornecedores fornece recursos totalmente heterogêneos (CPUS, GPUS, FPGAs e aceleradores dedicados), permitindo que os usuários selecionem o recurso ideal.

Vários fornecedores de nuvem, como AWS e Alibaba, começaram a implantar FPGAs porque vêem os benefícios potenciais. No entanto, a implantação do FPGA ainda é desafiadora, pois os usuários precisam estar familiarizados com o fluxo de ferramentas FPGA. Permitimos que os desenvolvedores de software obtenham todos os benefícios dos FPGAs usando o modelo Familiar PaaS e SaaS e frameworks de alto nível (Spark, Skcikit-learn, Keras), tornando a implantação de FPGAs na nuvem muito mais fácil.”

Proteja suas apostas

É preciso mais do que fichas rápidas para ser o líder neste campo. Economia é um aspecto que os potenciais usuários precisam considerar, ecossistema e software são outros. Levando tudo em conta, parece que a Nvidia ainda é ah

ead da competição.

Também é interessante notar, no entanto, que isso está começando a parecer cada vez menos como uma monocultura. A inovação vem de diferentes lugares e em diferentes formas e formas. Isso é algo que Alben, da Nvidia, também reconheceu. E é certamente algo que os fornecedores de nuvem, os fornecedores de servidores e os construtores de aplicativos parecem estar tomando nota.

Cobrir as apostas no mercado de chips de IA pode ser a coisa mais sábia a se fazer.

Contact Information:

George Anadiotis



Tags:    Portuguese, United States, Wire