Nvidia abre Drive to All, presenta SoC para autos sin conductor, TensorRT 7

IA conversacional de Nvidia

Jensen Huang de Nvidia anunció algunas noticias emocionantes sobre vehículos autónomos en el discurso de apertura de GTC de la compañía. En primer lugar, la empresa está poniendo a disposición del público sus modelos de Drive previamente entrenados para investigación y desarrollo. Junto con eso, viene un conjunto de herramientas de aprendizaje por transferencia para hacer que los modelos sean personalizables e implementables. En segundo lugar, una nueva familia de SoC automotrices llamada ORIN está en camino. También en el discurso de apertura, Huang presentó la versión 7 de TensorRT, con un soporte dramáticamente mejorado para la IA conversacional.



Los modelos de Nvidia Drive ya están disponibles para todos

Nvidia ha invertido una gran cantidad de tiempo y dinero en la creación y capacitación de una amplia variedad de modelos para su uso en la creación de sistemas de conducción automatizados. Van desde navegación bastante estándar y planificación de rutas hasta todo tipo de redes de detección e incluso incluyen modalidades de detección alternativas como lidar y radar.



Ahora Nvidia los pone a disposición del público a través de su Nvidia GPU Cloud (GPC). Si bien es lo suficientemente emocionante que los modelos ahora sean algo a lo que cualquiera con un presupuesto de computación pueda tener acceso, es aún más interesante que Nvidia también esté proporcionando un conjunto de herramientas de implementación y aprendizaje de transferencia. Esto permite a los usuarios descargar los modelos y personalizarlos realizando más formación sobre sus propios datos. Los modelos resultantes podrían cargarse y ejecutarse en la GPC, ejecutarse en GPU locales o usarse con las herramientas de Nvidia para implementarlos en SoC de Nvidia como Xavier o el nuevo Orin SoC.



Nvidia

El software de inferencia TensorRT de Nvidia permite la implementación de alto rendimiento de modelos desarrollados en una amplia variedad de kits de herramientas populares

También se admite la capacitación federada, por lo que, por ejemplo, las compañías automotrices globales podrían capacitarse activamente en múltiples geografías para crear un modelo global general.



Nuevo Drive AGX Orin Auto SoC Sports 17 mil millones de transistores

Si hay algo en lo que está de acuerdo la mayoría de los que trabajan en el desarrollo de vehículos autónomos, es en que necesitan toda la potencia de procesamiento que puedan obtener. La mayoría de los vehículos de prueba actuales dependen de múltiples CPU y GPU de alta potencia. Para una adopción generalizada, los vehículos tendrán que funcionar con procesadores menos costosos, que consuman menos energía, pero aún más potentes.



NVIDIA Oren SoC

Para ayudar a satisfacer esas necesidades, Nvidia anunció la familia Orin de SoC automotrices. Equipado con 17 mil millones de transistores y desarrollado durante los últimos cuatro años, el Orin será capaz de realizar más de 200 billones de operaciones por segundo (TOPS), aproximadamente siete veces el rendimiento del actual Xavier SoC. Incluye núcleos de CPU ARM Hercules y la arquitectura de GPU de próxima generación de Nvidia. Diseñado tanto para vehículos como para robots, se promociona que Orin esté diseñado con estándares de seguridad, como ISO 26262 ASIL-D, en mente.



Nvidia afirma que será útil desde las soluciones de Nivel 2 hasta el Nivel 5. El costo influirá en la frecuencia con que se use en los productos de Nivel 2, mientras que el jurado aún está deliberando sobre cuántos caballos de fuerza se necesitan para el Nivel 5 , entonces marcaría esa afirmación como especulación. La buena noticia para los desarrolladores es que Orin ejecuta la misma pila de software que Xavier, por lo que los proyectos actuales que utilizan las herramientas de Nvidia como CUDA y TensorRT deberían moverse fácilmente. La familia Orin incluirá una variedad de configuraciones, pero al momento de la publicación, Nvidia no ha publicado fechas o precios de disponibilidad específicos.

El nuevo TensorRT 7 permite la IA conversacional en tiempo real

Si bien el reconocimiento facial y de objetos solían ser las aplicaciones más comunes para la IA 'en el borde', el reconocimiento y el procesamiento de voz se han puesto al día rápidamente. Según Jupiter Research, se estima que ahora hay más de 3 mil millones de dispositivos que incluyen asistentes de voz digitales en todo el mundo. No todos incluyen funciones sofisticadas de reconocimiento de voz y conversación. Sin embargo, hasta hace poco, los que sí lo hacen, normalmente mediante el uso de modelos de lenguaje avanzados como BERT, han requerido potentes procesadores back-end. Junto con las demandas adicionales de procesador y ancho de banda, eso introduce automáticamente algunos retrasos de procesamiento adicionales.



Con TensorRT 7, Nvidia ha anunciado que agregará soporte para redes neuronales recurrentes (RNN) y bastantes modelos populares de IA conversacional que se basan en características de RNN, incluido BERT, a su tiempo de ejecución de inferencias amigable con los bordes. Eso significa que será posible implementar IA conversacional en una amplia variedad de dispositivos integrados sin requerir conectividad o procesamiento en la nube. Nvidia afirma tener niveles de rendimiento para TensorRT 7 que admitirán tiempos de respuesta de menos de 300 ms para una canalización de reconocimiento de voz, comprensión del lenguaje natural y generación de texto a voz.



Nvidia continúa haciendo avances en inteligencia artificial en China

Junto con las novedades de sus nuevos productos, Nvidia anunció algunas victorias importantes en nuevos diseños en China. Sobre la base de su fortaleza automotriz, Didi, la empresa de viajes compartidos más grande de China, anunció que utilizará la tecnología Nvidia tanto para el desarrollo como para el despliegue de sus autos autónomos.

Baidu, el motor de búsqueda más grande de China, anunció que está utilizando GPU Nvidia V100 en su motor de recomendación, lo que le permite lograr una aceleración 10 veces mayor en el entrenamiento de la red con respecto a su tecnología anterior. Alibaba también está impulsando las búsquedas de usuarios de su catálogo de productos de dos mil millones con GPU Nvidia T4. Esto permite que sus 500 millones de usuarios diarios obtengan resultados de búsqueda más rápidos y precisos. Alibaba acredita esa mejora en el rendimiento con una impresionante ganancia del 10 por ciento en la tasa de clics (CTR).