NVIDIA lança acelerador de computação Tesla V100s



NVIDIA updated its compute accelerator product stack with the new Tesla V100s. Available only in the PCIe add-in card (AIC) form-factor for now, the V100s is positioned above the V100 PCIe, and is equipped with faster memory, besides a few silicon-level changes (possibly higher clock-speeds), to facilitate significant increases in throughput. To begin with, the V100s is equipped with 32 GB of HBM2 memory across a 4096-bit memory interface, with higher 553 MHz (1106 MHz effective) memory clock, compared to the 876 MHz memory clock of the V100. This yields a memory bandwidth of roughly 1,134 GB/s compared to 900 GB/s of the V100 PCIe.

A NVIDIA não detalhou as alterações na velocidade do clock principal da GPU, mas mencionou os números de taxa de transferência de desempenho oferecidos: desempenho de ponto flutuante de precisão dupla de 8,2 TFLOP / s versus 7 TFLOP / s no PCIe V100 original; 16,4 TFLOP / s de precisão única em comparação com 14 TFLOP / s no V100 PCIe; e 130 operações de aprendizado profundo TFLOP / s versus 112 TFLOP / s no V100 PCIe. Os valores de potência classificados pela empresa permanecem inalterados em 250 W de potência típica da placa. A empresa não revelou preços.