Este artículo propone una política de actualización de contenido de caché basada en DRL en la red habilitada para caché para mejorar la proporción de aciertos en la caché y reducir la latencia promedio. En contraste con las políticas existentes, en este trabajo se considera un escenario de caché más práctico, en el que las solicitudes de contenido varían tanto en el tiempo como en la ubicación. Considerando la limitación de la capacidad de caché, el problema de actualización de contenido dinámico se modela como un proceso de decisión de Markov (MDP, por sus siglas en inglés). Además, se utiliza el algoritmo de red neuronal de aprendizaje profundo (DQN) para resolver el problema MDP. Específicamente, la red neuronal se optimiza para aproximar el valor donde los datos de entrenamiento se eligen de la memoria de repetición de experiencia. El agente DQN deriva la política óptima para la decisión de caché. En comparación con las políticas existentes, los resultados de la simulación muestran que nuestra política propuesta mejora en un 56
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Un método de AGC distribuido que tiene en cuenta los retardos aleatorios de dos canales y su diferencia entre sistemas eléctricos interconectados
Artículo:
Asociación de usuarios energéticamente eficiente con evitación de congestiones y restricciones de migración en redes WLAN ecológicas
Artículo:
Descarga de tráfico de datos del móvil a las redes Wi-Fi: Patrones de comportamiento de los usuarios de teléfonos inteligentes
Artículo:
Aplicación de la teoría de catástrofes a la detección de anomalías de red en el tráfico de computación en nube
Artículo:
Utilidad y funcionamiento de las bases de datos NoSQL