Nvidia mejora capacitación de redes de aprendizaje

18

NvidianVidia anunció mejoras en su software acelerado por GPU que duplicará el rendimiento de la capacitación de redes de aprendizaje profundo.

“El nuevo software permitirá que los investigadores y científicos de datos impulsen el potencial de sus proyectos de aprendizaje profundo, y el trabajo de desarrollo de productos mediante la creación de redes neuronales más precisas gracias a la capacitación de modelo más rápida y el diseño de modelos más sofisticados, señaló Ian Buck, vicepresidente de Informática acelerada de nVidia.

La segunda versión (DIGITS 2) del sistema de capacitación de aprendizaje profundo acelerado por GPU nVidia DIGITS, y la tercera versión (cuDNN 3) de la red neuronal profunda, nVidia CUDA, proporcionan mejoras de rendimiento significativas y nuevas capacidades.

Para los científicos de datos, ahora, DIGITS 2 ofrece la escala automática de capacitación de redes neuronales a través de múltiples GPU de alto rendimiento. “Esto puede duplicar la velocidad de la capacitación de redes neuronales profundas para la clasificación de imágenes en comparación con una sola GPU, añadió el ejecutivo.

Para los investigadores de aprendizaje profundo, indicó Buck, cuDNN 3 ofrece funciones optimizadas de almacenamiento de datos en la memoria de la GPU para la capacitación de redes neuronales más grandes y sofisticadas. cuDNN 3 también ofrece un mayor rendimiento que cuDNN 2, lo que permite a los investigadores capacitar redes neuronales hasta dos veces más rápido en una sola GPU.

Se espera que la nueva librería cuDNN 3 se integre en las próximas versiones de las estructuras de aprendizaje profundo Caffe, Minerva, Theano y Torch, que se utilizan ampliamente para capacitar redes neuronales profundas.

cuDNN es una librería acelerada por GPU de rutinas matemáticas para redes neuronales profundas que los desarrolladores integran en las estructuras de aprendizaje de máquinas de nivel superior.

cuDNN 3 agrega soporte para almacenamiento de datos de punto flotante de 16 bits en la memoria de la GPU. De esta manera, se duplica la cantidad de datos que se pueden almacenar y se optimiza el ancho de banda de la memoria.

Autor

  • Francisco Carrasco, periodista chileno especializado en tecnologías de la Información desde hace más de 15 años. Trabajó como periodista y editor en las revistas especializadas ComputerWorld y PC World Chile de la editorial americana IDG durante 6 años y fue editor para Latinoamérica de CIO America Latina, y PC World en Español, y mantiene su blog hace 10 años www.it-review.cl.

    Además en los últimos años ha cumplido roles de editor y asesor de contenidos para varias empresas tecnológicas multinacionales tanto del área del software como del hardware. Así también es colaborador de tecnología por cerca de 2 años de Ediciones Especiales del Diario La Tercera desde 2010-2012 y posteriormente colaboro en Ediciones Especiales de El Mercurio y Chile Tecnológico.