Compartir

El modelo NVIDIA Jetson AGX Orin recién lanzado elevó el nivel de la IA en el edge, para agregarse a la clasificación general en las últimas evaluaciones de inferencia de la industria.

 

Ciudad de México, México—25 de abril de 2022—En su debut en las evaluaciones MLPerf de la industria, NVIDIA Orin, un sistema en chip de baja potencia basado en la arquitectura NVIDIA Ampere, estableció nuevos récords en inferencia de IA. Esto elevó el nivel de rendimiento por acelerador en el edge.

En general, NVIDIA con sus socios continuó mostrando el rendimiento más alto y el ecosistema más amplio para ejecutar todas las cargas de trabajo y escenarios de machine learning en esta quinta ronda de métricas de la industria para la producción de IA.

En la IA de edge, una versión de preproducción de la NVIDIA Orin lideró cinco de las seis pruebas de rendimiento. Funcionó hasta 5 veces más rápido que la generación anterior Jetson AGX Xavier, al tiempo que ofrece en promedio una eficiencia energética 2 veces mejor.

NVIDIA Orin está disponible desde hoy en el kit de desarrollo NVIDIA Jetson AGX Orin para sistemas autónomos y de robótica. Más de 6,000 clientes, entre los que se encuentran Amazon Web Services, John Deere, Komatsu, Medtronic y Microsoft Azure , utilizan la plataforma NVIDIA Jetson para la inferencia de IA u otras tareas.

También es un componente clave de la plataforma NVIDIA Hyperion para vehículos autónomos. El fabricante de vehículos eléctricos más grande de China. BYD, es el último fabricante de automóviles en anunciar que utilizará la arquitectura DRIVE Hyperion basada en Orin para sus flotas de vehículos eléctricos automatizados de próxima generación.

Orin también es una parte clave de NVIDIA Clara Holoscan para dispositivos médicos, una plataforma que los fabricantes de sistemas y los investigadores están utilizando para desarrollar instrumentos de IA de próxima generación.

Módulo pequeño, Stack grande

Los servidores y dispositivos con las GPU de NVIDIA, incluido Jetson AGX Orin, fueron los únicos aceleradores de edge en ejecutar los seis puntos de referencia de MLPerf.

Con su SDK JetPack, Orin ejecuta la plataforma completa de IA de NVIDIA, un stack de software ya probada en el data center y el cloud. Además, está respaldada por un millón de desarrolladores que utilizan la plataforma NVIDIA Jetson.

CAPTION: NVIDIA lidera en todos los ámbitos el rendimiento de la inferencia por acelerador y es la única empresa que participa en todas las cargas de trabajo.

Nota al pie: Cierre de la inferencia MLPerf v2.0; el rendimiento por acelerador se obtiene a partir de los mejores resultados de MLPerf para las respectivas presentaciones utilizando el recuento de aceleradores informado en el Data Center Sin Conexión y el Servidor. Qualcomm AI 100: 2.0-130, Intel Xeon 8380 de la presentación MLPerf v.1.1: 1.1-023 y 1.1-024, Intel Xeon 8380H 1.1-026, NVIDIA A30: 2.0-090, NVIDIA A100 (Arm): 2.0-077, NVIDIA A100 (X86): 2.0-094.

El nombre y el logotipo de MLPerf son marcas comerciales. Visita www.mlcommons.org para obtener más información.​

NVIDIA y sus socios continúan mostrando un rendimiento superior en todas las pruebas y escenarios en la última ronda de inferencia de MLPerf.

Las evaluaciones de MLPerf cuentan con un amplio respaldo de organizaciones como Amazon, Arm, Baidu, Facebook, Google, Harvard, Intel, Lenovo, Microsoft, NVIDIA, Stanford y la Universidad de Toronto.

 

Más Socios y Propuestas

La plataforma de IA de NVIDIA nuevamente atrajo el mayor número de propuestas de MLPerf procedentes del ecosistema más amplio de socios.

Azure obtuvo un excelente resultado después de su debut en diciembre en las pruebas de entrenamiento MLPerf, en esta ronda sobre inferencia de IA. En ambos casos utilizó las  GPU NVIDIA A100 Tensor Core. La instancia ND96amsr_A100_v4 de Azure igualó las presentaciones de ocho GPU con el rendimiento más alto en casi todas las pruebas de inferencia, lo que demuestra la potencia disponible en el cloud público.

Los fabricantes de sistemas ASUS y H3C hicieron su debut con MLPerf en esta ronda con presentaciones que utilizaron la plataforma de IA de NVIDIA. Se unieron a los fabricantes de sistemas Dell Technologies, Fujitsu, GIGABYTE, Inspur, Nettrix y Supermicro que presentaron los resultados de más de dos docenas de Sistemas Certificados por NVIDIA.

 

Por Qué Es Importante MLPerf

Nuestros socios participan en MLPerf porque saben que es una herramienta valiosa para los clientes que evalúan plataformas y proveedores de IA.

Las diversas pruebas de MLPerf abarcan las cargas de trabajo y los escenarios de IA más populares de la actualidad. Esto les da a los usuarios la confianza de que las evaluaciones reflejarán el rendimiento que pueden esperar en todo el espectro de sus trabajos.

El Software Brilla

Todo el software que utilizamos para nuestras pruebas está disponible en el repositorio de MLPerf.

Dos componentes clave que permitieron obtener los resultados de inferencia – NVIDIA TensorRT para optimizar modelos de IA y el Servidor de Inferencia NVIDIA Triton para implementarlos de manera eficiente- están disponibles de forma gratuita en NGC, el catálogo de software optimizado para GPU.

Las organizaciones de todo el mundo están adoptando Triton, incluidos los proveedores de servicios de cloud como Amazon y Microsoft.

Desde Nvidia se incorporan continuamente todas las optimizaciones en contenedores disponibles en NGC. De esta manera, cada usuario puede comenzar a producir IA con un rendimiento líder.

 

Información sobre NVIDIA

La invención de la GPU por parte de NVIDIA (NASDAQ: NVDA) en 1999 generó el crecimiento del mercado de juegos para PC, redefinió los gráficos por computación modernos y revolucionó la computación en paralelo. El trabajo pionero de la compañía en computación acelerada e inteligencia artificial está remodelando industrias de billones de dólares, como el transporte, la atención médica y la fabricación, y está impulsando el crecimiento de muchas otras. Obtén más información en https://nvidianews.nvidia.com/.

Algunas declaraciones de este comunicado de prensa, lo que incluye, con carácter meramente enunciativo, las declaraciones como la siguiente: los beneficios, el impacto, las especificaciones, el rendimiento y la disponibilidad de los sistemas DGX H100 basados en Hopper, las GPU NVIDIA H100, NVIDIA DGX POD, NVIDIA DGX SuperPOD, NVIDIA Eos, las DPU NVIDIA BlueField-3, los adaptadores de red NVIDIA ConnectX-7 Quantum-2 InfiniBand, NVLink, NVSwitch, NVIDIA DGX Foundry, el software NVIDIA Base Command y el suite de software NVIDIA AI Enterprise; la IA es esencial para construir sistemas; los socios de NVIDIA que están probados y certificados para satisfacer las demandas de la computación de IA DGX SuperPOD; las aplicaciones de MLOps están validadas para proporcionar a los clientes de DGX soluciones de gestión de clústeres, programación y workflows; los clientes que buscan más opciones para agregar infraestructura a medida que crece la adopción de la IA empresarial; Deloitte está certificado para apoyar a los clientes; y la capacidad de los socios de canal de NVIDIA y de los clientes para actualizar y actualizar los sistemas DGX existentes .

© 2022 NVIDIA Corporation. Todos los derechos reservados. NVIDIA, el logotipo de NVIDIA, BlueField, ConnectX, DGX, NVIDIA Base Command, NVIDIA DGX POD, NVIDIA DGX SuperPOD, Servidor de Inferencia NVIDIA Triton, NVLink, NVSwitch y RAPIDS son marcas comerciales y/o marcas comerciales registradas de NVIDIA Corporation en los Estados Unidos y otros países. Todas las marcas comerciales y copyrights son propiedad de sus respectivos dueños. Las funciones, los precios, la disponibilidad y las especificaciones pueden cambiar sin previo aviso.

Compartir