El CEO de Intel, Pat Gelsinger, en el evento Making AI Everywhere atacó a la tecnología CUDA de NVIDIA, diciendo que la inferencia será lo más importante para la inteligencia Artificial (IA).
El debate iniciado por Pat Gelsinger se centra en una idea, la IA no solo es entrenamiento, si no que la inferencia será lo mas importante en el campo de la inteligencia artificial (IA). Este concepto se ha convertido en el eje central del sector de la IA desde 2023, y cada empresa adopta la estrategia que mejor se alinean con sus intereses.
Intel, bajo la dirección de su CEO, se enfoca principalmente en la inferencia. Gelsinger sostiene que, si bien el entrenamiento de la IA ya es algo normal, es la inferencia la que representa el verdadero futuro. En este sentido, ataca a NVIDIA y su ecosistema CUDA, el cual es ampliamente reconocido y adoptado por millones de usuarios y empresas en el mundo, argumentando que las ventajas de CUDA son limitadas y no tan profundas como se cree.
Actualmente, Intel ofrece 34 kits para desarrolladores de código abierto y participa en The AI Alliance junto con otras 40 empresas. Esta alianza tiene como objetivo abrir más el ecosistema de la IA, uniendo esfuerzos para competir con opciones propietarias en el sector. Entre los competidores se encuentran nombres destacados como NVIDIA, Google, Meta, OpenAI y Microsoft.
Que es la Inferencia en IA?
La inferencia en el contexto de la Inteligencia Artificial (IA) es el proceso mediante el cual un modelo entrenado de IA utiliza lo que ha aprendido para hacer predicciones o tomar decisiones basadas en nuevos datos.
Por Ejemplo:
- Aplicación de Modelos Entrenados: Después de que un modelo de IA ha sido entrenado con un conjunto de datos (aprendiendo de ejemplos y ajustando sus parámetros internos), la inferencia es el paso donde este modelo se aplica a datos nuevos y desconocidos para él.
- Hacer Predicciones o Tomar Decisiones: Durante la inferencia, el modelo utiliza su conocimiento adquirido para interpretar, analizar o predecir sobre estos nuevos datos. Por ejemplo, en un modelo de reconocimiento de imágenes, la inferencia sería el proceso de identificar objetos en nuevas imágenes que no formaron parte de su conjunto de entrenamiento.
- Importancia en Aplicaciones en Tiempo Real: La inferencia es crucial en aplicaciones de IA en tiempo real, como los asistentes virtuales, sistemas de recomendación, diagnósticos médicos automatizados, y vehículos autónomos. Estas aplicaciones dependen de respuestas rápidas y precisas del modelo de IA.
- Optimización y Eficiencia: Dado que la inferencia puede requerirse en aplicaciones de alto rendimiento y en dispositivos con recursos limitados (como smartphones o dispositivos IoT), se pone un énfasis considerable en optimizar los modelos para que la inferencia sea lo más eficiente y rápida posible.
- Diferencia con el Entrenamiento: El entrenamiento de modelos de IA suele requerir grandes cantidades de datos y recursos computacionales significativos. En cambio, la inferencia se realiza después de este entrenamiento y generalmente es menos intensiva en recursos, lo que permite su implementación en una variedad más amplia de entornos y dispositivos.
En resumen, la inferencia en IA es el paso donde un modelo ya entrenado se usa para obtener insights, hacer predicciones o tomar decisiones sobre nuevos conjuntos de datos, siendo una fase crítica en el ciclo de vida de un modelo de IA y su aplicación práctica en el mundo real.
Que dijo Pat Gelsinger
«Toda la industria está motivada para eliminar el mercado CUDA», dijo Gelsinger. Citó ejemplos como MLIR, Google y OpenAI, sugiriendo que se están moviendo hacia una IA de código abierto.
«Pensamos que lo que puede dar CUDA es poco y nada», dijo Gelsinger. «La industria está motivada en ofrecer un conjunto más amplio de tecnologías para una amplia capacitación, innovación, ciencia de datos, etcétera».
Pero Intel no depende sólo de la capacitación. En cambio, cree que la inferencia es el camino a seguir.
«A medida que se produce la inferencia, una vez que hayas entrenado el modelo, no hay dependencia de CUDA. La cuestión es si puedes ejecutar bien ese modelo, porque fundamentalmente, el mercado de inferencia es donde estará el juego a partir de ahora», dijo Gelsinger.