Luego de lanzar la versión SMX hace unas semanas, Nvidia anunció hoy la versión PCI-Express de su aceleradora para IA “A100” basada en la arquitectura Ampere. Básicamente, comparte las mismas especificaciones que la versión SMX, aunque por cuestiones de refrigeración tiene un TDP de 250W en vez de 400W, reduciendo sus frecuencias durante cargas sostenidas.
Tal como habíamos mencionado previamente, esta GPU está fabricada bajo el proceso de 7nm de TSMC, y cuenta con 6912 Cuda Cores y 432 Tensor Cores de nueva generación (No tiene RT Cores ya que no está orientada a gráficos, sino a Inteligencia Artificial), junto a 40GB de memoria HBM2 de Samsung. Esto le permite obtener hasta 20 veces más rendimiento que la versión PCI-Express de la Tesla V100, su predecesora basada en Volta.
Otra característica interesante que también habíamos visto en la versión SMX es que permite “dividirse en hasta 7 GPUs”, permitiendo aislar los recursos y ejecutar hasta 7 tareas independientes con hardware dedicado exclusivamente para esas tareas.
Es importante resaltar que usa conexión PCI-E 4.0, por lo que las nuevas GeForce RTX 3000 también podrían utilizar esta tecnología. Si tienen PCI-E 3.0, tranquilos: Podrán usarlas sin problemas ni cuellos de botella, ya que un PCI-E 3.0 x16 tiene ancho de banda más que suficiente.
¿Que opinan sobre la nueva versión PCI-E de la Nvidia A100? ¿Están ansiosos por ver las GeForce basadas en Ampere?