Con el desarrollo de la informática en el borde móvil (MEC), cada vez se despliegan más servicios y aplicaciones inteligentes basados en redes neuronales profundas en dispositivos móviles para satisfacer las diversas y personalizadas necesidades de los usuarios. Desafortunadamente, desplegar e inferir modelos de aprendizaje profundo en dispositivos con recursos limitados es un desafío. El método tradicional basado en la nube generalmente ejecuta el modelo de aprendizaje profundo en el servidor en la nube. Dado que una gran cantidad de datos de entrada debe transmitirse al servidor a través de WAN, esto causará una gran latencia de servicio. Esto es inaceptable para la mayoría de las aplicaciones actuales sensibles a la latencia y con intensidad computacional. En este artículo, proponemos Cogent, un marco de ejecución que acelera la inferencia de redes neuronales profundas a través de la sinergia dispositivo-borde. En el marco de Cogent, se divide en dos etapas de operación, incluida la etapa de poda y partición automática y la etapa
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Despeckling de imágenes SAR de alta resolución basado en un filtro de medios no locales y un modelo AA modificado
Artículo:
Un Control de Interferencia Basado en Conmutación para la Separación del Impulsor de un Vehículo Hipersónico
Artículo:
Trayectoria y estrategia de actualización del clúster de la industria logística basado en el Internet de las cosas
Artículo:
Desarrollo de acoplamiento y coordinación inteligentes y basados en IoT para las industrias financiera y logística
Artículo:
Una solución dinámica de asignación térmica para el complejo beneficio económico de un centro de datos.