La introducción del aprendizaje profundo de transferencia (DTL, por sus siglas en inglés) reduce aún más la necesidad de datos y conocimientos expertos en varias aplicaciones, ayudando a que los modelos basados en DNN reutilicen de manera efectiva la información. Sin embargo, a menudo transfiere todos los parámetros de la red fuente que podrían ser útiles para la tarea. Los parámetros entrenables redundantes restringen el DTL en dispositivos con baja potencia de cálculo y en la informática perimetral, mientras que las redes efectivas pequeñas con menos parámetros tienen dificultades para transferir conocimientos debido a diferencias estructurales en el diseño. Para el desafío de cómo transferir un modelo simplificado desde una red compleja, en este artículo se propone un algoritmo para realizar un DTL disperso, que solo transfiere y conserva la estructura más necesaria para reducir los parámetros del modelo final. Se introduce la hipótesis de transferencia dispersa, en la que se diseña una estrategia de compresión para construir redes profundas dispers
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Códigos de control de errores para los sistemas de comunicación de próxima generación: Oportunidades y retos
Artículo:
Diseño de antena alimentada por CPW con sustrato defectuoso para aplicaciones de banda ancha
Artículo:
Mejora de la Calidad del Enlace de Evolución a Largo Plazo y 802.11ax en Áreas de Alta Densidad.
Artículo:
Un Método EDAS Extendido para la Toma de Decisiones Multicriterio Basado en Conjuntos Neutrosóficos Multivaluados.
Artículo:
Revisión de la protección de paquetes basada en la codificación de red sin tasa en redes de sensores inalámbricas