Nvidia y Google ganan los primeros lugares en la competencia de machine learning

Greener

Nvidia Corp. y Google LLC ganaron los primeros lugares en la competencia de aprendizaje automático MLPerf Training, detalló hoy la organización que organiza la competencia.

MLPerf Training está a cargo de MLCommons Association

Un grupo industrial que desarrolla herramientas de IA de código abierto. Los participantes en la competencia prueban qué tan rápido pueden entrenar una serie de redes neuronales para realizar diversas tareas informáticas. El objetivo es completar el proceso de formación lo más rápido posible y de acuerdo con ciertos criterios técnicos establecidos por la Asociación MLCommons.


Banner_frasco-suscripcion-800x250

La competición de este año constó de ocho pruebas. Cada prueba involucró el entrenamiento de una red neuronal diferente utilizando conjuntos de datos de entrenamiento de código abierto especificados por la Asociación MLCommons. Nvidia logró el rendimiento más rápido en cuatro de las pruebas, mientras que Google ganó las otras cuatro.

Nvidia realizó una capacitación en IA

Utilizando su supercomputadora Selene desarrollada internamente, que se basa en la tarjeta gráfica del centro de datos A100 de la compañía. La supercomputadora también incorpora procesadores de Advanced Micro Devices Inc. Cuando se ejecutan cargas de trabajo de IA, Selene puede proporcionar un rendimiento máximo de casi 2,8 exaflops, siendo 1 exaflop el equivalente a 1 millón de billones de operaciones informáticas por segundo.

Las cuatro pruebas de capacitación de MLPerf en las que Selene logró el rendimiento más rápido abarcaron cuatro casos de uso de IA: segmentación de imágenes, reconocimiento de voz, sistemas de recomendación y aprendizaje por refuerzo. La prueba de aprendizaje por refuerzo implicó entrenar una red neuronal para jugar Go.

“En los dos años transcurridos desde nuestra primera presentación de MLPerf con A100, nuestra plataforma ha ofrecido 6 veces más rendimiento”, escribió Shar Narasimhan, gerente senior de marketing de productos del grupo en Nvidia, en una publicación de blog hoy. “Desde la llegada de MLPerf, la plataforma Nvidia AI ha brindado 23 veces más rendimiento en 3,5 años en el punto de referencia, el resultado de la innovación completa que abarca GPU, software y mejoras a escala”.

Google, a su vez, logró el rendimiento más rápido en cuatro pruebas de capacitación MLPerf que se centraron en el reconocimiento de imágenes, la clasificación de imágenes, la detección de objetos y el procesamiento del lenguaje natural. La prueba de procesamiento del lenguaje natural involucró el entrenamiento de una red neuronal llamada BERT. Originalmente desarrollado por los ingenieros de Google, BERT es una de las redes neuronales más extendidas en su categoría y también ayuda a impulsar el motor de búsqueda de la empresa.

Google llevó a cabo un entrenamiento de IA utilizando un grupo de Pods de TPU, sistemas de hardware desarrollados internamente y optimizados para el aprendizaje automático. Los sistemas se basan en el chip personalizado Cloud TPU v4 del gigante de las búsquedas. Según Google, su clúster TPU Pod proporciona hasta 9 exaflops de máximo rendimiento agregado.

“Cada Cloud TPU v4 Pod consta de 4096 chips conectados entre sí a través de una red de interconexión ultrarrápida”, detallaron Naveen Kumar, ingeniero principal de Google, y Vikram Kasivajhula, director de gestión de productos para infraestructura de aprendizaje automático de la empresa. “El chip TPU v4 ofrece el triple de FLOP máximos por vatio en relación con la generación v3”.
Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉