Condensar modelos de aprendizaje profundo para dispositivos perimetrales

Greener

¿Cómo desarrollar modelos de aprendizaje profundo en dispositivos de borde? aquí está la respuesta

La cuantificación es el proceso de implementar modelos de aprendizaje profundo o de aprendizaje automático en dispositivos periféricos como teléfonos inteligentes, televisores inteligentes, relojes inteligentes y muchos más. Pero no es posible implementar el modelo enorme en los dispositivos perimetrales debido a las limitaciones de memoria y aquí es donde se emplea el proceso de cuantificación. Condensa los modelos enormes para implementarlos en los dispositivos perimetrales sin problemas. Este artículo proporciona una breve descripción general de cómo condensar grandes modelos de Tensorflow en modelos ligeros mediante TensorFlow lite y Tensorflow Model Optimization .


Banner_frasco-suscripcion-800x250

Tabla de contenido

  • Introducción a la Cuantización
  • Diferentes tipos de técnicas de Cuantización
  • Construyendo un modelo de aprendizaje profundo desde cero
  • Implementación de la técnica de cuantificación posterior al entrenamiento
  • Implementación de la técnica Aware Model Quantization
  • Comparación del modelo original y la predicción del modelo cuantificado

Introducción a la Cuantización

La cuantificación con respecto al aprendizaje profundo es el proceso de aproximar los pesos de la red neuronal obtenidos después de la propagación a través de las diversas capas al valor entero más cercano o en números de bits más bajos. Esta conversión facilita que cualquier modelo pesado de aprendizaje profundo se implemente fácilmente en dispositivos perimetrales sin problemas, ya que el modelo pesado ahora se condensará en modelos más livianos y los resultados del modelo se pueden visualizar en los dispositivos perimetrales.

Conoce más aquí

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉