O futuro dos gráficos rápidos do PC? Conectando-se diretamente a SSDs

Os impulsos de desempenho são esperados com cada nova geração das melhores placas gráficas, mas parece que a Nvidia e a IBM têm seus pontos turísticos em maiores alterações.

As empresas se uniram para o trabalho na grande memória do acelerador (BAM), uma tecnologia que envolve conectar placas gráficas diretamente a SSDs superfast. Isso pode resultar em maior capacidade de memória GPU e largura de banda mais rápida, limitando o envolvimento da CPU.

SSD SUPER RÁPIDO EM PLACA MÃE LGA 775, ESSE ADAPTADOR FAZ ISSO MESMO?

Este tipo de tecnologia já foi pensado e trabalhou no passado. A interface de programação de aplicativos DirectStorage da Microsoft (API) funciona de uma maneira um pouco semelhante, melhorando as transferências de dados entre a GPU e o SSD. No entanto, isso depende de software externo, aplica-se apenas aos jogos e apenas funciona no Windows. Os pesquisadores da NVIDIA e IBM estão trabalhando juntos em uma solução que remove a necessidade de uma API proprietária, enquanto ainda conecta GPUs a SSDs.

O método, divertido referido como Bam, foi descrito em um papel escrito pela equipe que o projetou. Conexão de uma GPU diretamente a um SSD forneceria um impulso de desempenho que poderia ser viável, especialmente para tarefas pesadas de recursos, como aprendizado de máquina. Como tal, seria usado principalmente em cenários profissionais de computação de alto desempenho (HPC).

A tecnologia atualmente disponível para processamento de cargas de trabalho pesadas requer que a placa gráfica confie em grandes quantidades de memória de propósito especial, como HBM2 ou a ser fornecido com acesso eficiente ao armazenamento SSD. Considerando que os conjuntos de dados estão crescendo apenas em tamanho, é importante otimizar a conexão entre a GPU e o armazenamento, a fim de permitir transferências de dados eficientes. É aqui que vem o Bam.

“Bam mitiga a amplificação de tráfego de E / S, permitindo que os tópicos da GPU leiam ou escrevam pequenas quantidades de dados sob demanda, conforme determinado pelo calendário”, disse os pesquisadores em seu papel, primeiro citado pelo registro. “O objetivo do BAM é estender a capacidade de memória GPU e aprimorar a largura de banda de acesso efetivo de armazenamento, proporcionando abstrações de alto nível para os fios GPU facilmente fazer sob demanda, acesso de grãos finos a estruturas de dados massivos na hierarquia de memória estendida.”

Para muitas pessoas que não trabalham diretamente com este assunto, os detalhes podem parecer complicados, mas a essência é que a NVIDIA quer confiar menos no processador e se conectar diretamente à fonte dos dados. Isso tornaria o processo mais eficiente e liberaria a CPU, tornando a placa gráfica muito mais auto-suficiente. Os pesquisadores afirmam que este design seria capaz de competir com soluções baseadas em DRAM, permanecendo mais barato para implementar.

Embora a NVIDIA e a IBM estejam indubitadamente quebrando novos terrenos com sua tecnologia BAM, a AMD trabalhou nesta área primeiro: em 2016, ela revelou o Radeon Pro SSG, uma GPU da estação de trabalho com SSDs integrados de M.2. No entanto, o Radeon Pro SSG pretendia ser estritamente uma solução gráfica, e a NVIDIA está levando alguns passos ainda mais, com o objetivo de lidar com cargas de trabalho complexas e pesadas de computação.

A equipe que trabalha em Bam planeja liberar os detalhes de sua otimização de software e hardware como fonte aberta, permitindo que outros construam suas descobertas. Não há menção sobre quando, se alguma vez, o Bam pode se encontrar implementado em futuros produtos NVIDIA.

Respondi

Retpoŝtadreso ne estos publikigita.