La semana pasada Google reveló el desarrolló de su Tensor Processor Unit (TPU), un chip puede hacer tareas de aprendizaje profundo mucho más rápido y con menor consumo de energía que los procesadores de Intel o GPUs de NVIDIA.
Al ser atacada, NVIDIA no es el tipo de empresa que se puede sentar y quedar mirando que tal va la vida, sobre todo porque la inteligencia artificial se está convirtiendo en el nuevo pan de cada día de la compañía. En el blog de la compañía, el CEO Jen-Hsun Huang escribió un artículo argumentando que los resultados se ven mejor si se compara al TPU con el P40 basado en Pascal de la actual generación.
A pesar de la comparación actualizada, la TPU de Google es casi dos veces más rápida que la tarjeta Tesla basada en Pascal y también requiere sólo un cuarto energía. Sin embargo, hace una advertencia interesante, la TPU está dirigido exclusivamente a la inferencia, ( la inferencia, se da cuando un algoritmo aplica lo que ha aprendido a una entrada de información desconocida.) mientras que la tarjeta de Tesla también están diseñadas para ser utilizado para la formación o sea el entrenamiento. Y lo que dice Huang, es que las GPUs son mucho mejores en entrenamiento, mientras que la TPU de Google está destinado únicamente a la inferencia. El entrenamiento de un algoritmo puede llevar semanas o incluso meses, mientras que la inferencia se da en décimas de segundo.
“El entrenamiento es miles de millones de veces más complicado que la inferencia”, comenta Huang.
Mientras que Google y NVIDIA eligieron caminos de desarrollo diferentes, hubo varios temas comunes:
La IA requiere una computación acelerada. Los aceleradores proporcionan las demandas significativas de procesamiento de datos de aprendizaje profundo en una época en que la ley de Moore se está desacelerando.
Huang dice que muchas empresas necesitarán hacer inferencia y no tienen su propio procesador, y es perfecto que haya empresas que quieran desarrollar sus propios chips de inferencia, no hay problema y nos encanta. Pero hay millones y millones de nodos en los centros de datos de gran escala de las empresas que no desarrollan sus propios TPUs. Pascal es la solución perfecta para ellos.
El mundo de la tecnología está en medio de una transformación histórica que ya se conoce como la Revolución IA. El lugar? los centros de datos como tienen Alibaba, Amazon, Baidu, Facebook, Google, IBM, Microsoft y otros.
Tienen que acelerar las cargas de trabajo de AI sin tener que gastar miles de millones de dólares en la construcción y alimentación de nuevos centros de datos con nodos de CPU. Sin una computación acelerada, la escala de salida de la IA simplemente no es práctica.