Si hasta la semana pasada el IA PC, como conjunto de características técnicas básicas que debe cumplir un ordenador para la ejecución de tareas de inteligencia artificial en local, ya estaba más o menos presente, el evento llevado a cabo ayer por Microsoft en el que presentó Copilot+ PC, lo ha elevado hasta convertirlo en lo que apunta a ser el nuevo paradigma que regirá el futuro del PC como mínimo a corto y a medio plazo, algo que ha quedado acreditado por el acelerón dado por los fabricantes de procesadores para añadir NPUs a sus encapsulados.
Ahora bien, aunque la definición inicial del IA PC se centraba en la NPU y su capacidad de cómputo, lo cierto es que esta es solo una de las opciones existentes para dotar a los ordenadores de la capacidad de cómputo necesaria para resolver tareas basadas en IA de manera competente. Y en este punto es dónde NVIDIA pone el foco, tal y como hemos podido ver hoy en Microsoft Build 2024, planteando una versión del IA PC en el que dicha capacidad de cómputo recae sobre la GPU.
Con este fin, NVIDIA ha anunciado que en los próximos meses veremos llegar al mercado los primeros PCs Copilot+ equipados con GPUs RTX que, por supuesto, serán capaces de hacer uso de todas las funciones anunciadas ayer por Microsoft, pero también las propias del ecosistema de software de NVIDIA que ya están disponibles, desde hace tiempo, para los usuarios de los adaptadores gráficos del gigante verde.
Este anuncio de NVIDIA, del que puedes encontrar más información en este enlace, reaviva un debate bastante interesante abierto hace ya algún tiempo por esta tecnológica, y que pone el foco en que, con el nivel actual de desarrollo del hardware, las capacidades de una GPU se sitúan por encima de las que ofrece una NPU. Es cierto, sí, que vamos a vivir una gran evolución de estas últimas a corto y medio plazo, pero como se mostraba en una «diapo» de una presentación de la compañía a principios de este mes, a día deA hoy la diferencia entre ambas opciones es más que destacable. Puedes ver la diapositiva que se muestra sobre este párrafo.
Ahora bien, no todo son prestaciones, también es necesario que los desarrolladores cuenten con las herramientas necesarias para poder hacer uso de las mismas en sus aplicaciones de la manera más óptima. Y es que, no lo olvidemos, hablamos de llevar a cabo, en el PC, tareas que hasta el momento han sido patrimonio, casi exclusivo, de las plataformas en la nube. Así, estas son las principales novedades anunciadas hoy por NVIDIA a este respecto:
- Los modelos grandes de lenguaje (LLM) ahora se ejecutan hasta 3 veces más rápido con ONNX Runtime (ORT) y DirectML utilizando el nuevo driver NVIDIA R555 Game Ready Driver. PyTorch será compatible con los backends de ejecución DirectML, lo que permitirá a los desarrolladores de Windows entrenar e inferir modelos de IA complejos en Windows de forma nativa. ORT y DirectML son herramientas de alto rendimiento que se utilizan para ejecutar modelos de IA localmente en PC con Windows.
- PyTorch será compatible con los backends de ejecución DirectML, lo que permitirá a los desarrolladores de Windows entrenar e inferir modelos de IA complejos en Windows de forma nativa. NVIDIA y Microsoft colaboran para aumentar el rendimiento de las GPU RTX.
- NVIDIA ha optimizado los flujos de trabajo de IA dentro de WebNN -un estándar que ayuda a los desarrolladores de aplicaciones web a acelerar los modelos de aprendizaje profundo con aceleradores de IA integrados en el dispositivo, como Tensor Cores- para ofrecer el potente rendimiento de las GPU RTX directamente en los navegadores.
Este movimiento, como indicaba antes, se enmarca en una discusión realmente interesante, y que sin duda veremos crecer próximamente. ¿Tiene sentido circunscribir la experiencia IA PC exclusivamente a los sistemas que integran una NPU o, por el contrario, debería basarse en la capacidad de cómputo total del sistema?
Personalmente, y aunque puedo entender ambas filosofías, actualmente me inclino por el modelo planteado por NVIDIA con el PC Copilot+ equipado con GPU RTX, tanto por su mayor capacidad de cómputo (tanto en operaciones con enteros como, especialmente, en operaciones de coma flotante), como por su mayor alcance en lo referido a funciones, ya que a las presentadas por Microsoft y que se integrarán en Windows, debemos sumar todas las que ha ido desarrollando NVIDIA con los años, desde el debut de la generación RTX 20, y que van desde las centradas en el mundo del gaming (desde DLSS hasta ACE), hasta otras de propósito general, como NVIDIA Broadcast y Chat with RTX