Dado que las redes neuronales profundas (DNN) requieren mucha memoria y cálculo, son difíciles de aplicar en sistemas integrados con recursos de hardware limitados. Por eso, los modelos de DNN deben comprimirse y acelerarse. Aplicando convoluciones separables en profundidad, MobileNet puede reducir el número de parámetros y la complejidad computacional con una menor pérdida de precisión en la clasificación. Basándose en MobileNet, se proponen 3 modelos MobileNet mejorados con expansión del campo receptivo local en capas poco profundas, también llamados modelos Dilated-MobileNet (Dilated Convolution MobileNet), en los que se introducen convoluciones dilatadas en una capa convolucional específica del modelo MobileNet. Sin aumentar el número de parámetros, las convoluciones dilatadas se utilizan para aumentar el campo receptivo de los filtros de convolución y obtener una mayor precisión de clasificación. Los experimentos se realizaron con los conjuntos de datos Caltech-101, Caltech-256 y Tubingen con atributos, respectivamente. Los resultados muestran que Dilated-MobileNets puede obtener una precisión de clasificación hasta un 2% mayor que MobileNet.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Síndrome de apnea obstructiva del sueño pediátrica: Evidencia emergente y enfoque de tratamiento
Artículo:
Modelización de interferencias de canal adyacente de un único punto de vibración en sensores multicanal de presión dinámica
Artículo:
Satisfacción con el acceso a los servicios de salud: la perspectiva de los pacientes estonios con artritis reumatoide.
Artículo:
Correlación entre la morfología y la mejora del rendimiento de los fotoánodos florales jerárquicos de ZnO en células solares sensibilizadas por colorantes casi sólidas
Video:
Semana 8 - Ingeniería de proteínas, lección 7: modificaciones post-translacionales