El aprendizaje automático descentralizado ha estado desempeñando un papel esencial en mejorar la eficiencia del entrenamiento. Se ha aplicado en muchos escenarios del mundo real, como la computación en el borde y el IoT. Sin embargo, de hecho, las redes son dinámicas y existe el riesgo de que la información se filtre durante el proceso de comunicación. Para abordar este problema, proponemos un algoritmo descentralizado de descenso de gradiente estocástico paralelo (D-(DP)SGD) con privacidad diferencial en redes dinámicas. Con un análisis riguroso, mostramos que D-(DP)SGD converge con una tasa de mientras satisface -DP, lo que logra casi la misma tasa de convergencia que trabajos anteriores sin preocupación por la privacidad. Hasta donde sabemos, nuestro algoritmo es el primer algoritmo conocido de SGD paralelo descentralizado que se puede implementar en redes dinámicas y tener en cuenta la preservación de la privacidad.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Estabilización de una Clase de Sistemas Caóticos Complejos mediante el Control de Retroalimentación Dinámica
Artículo:
Una aplicación ligera para leer mediciones digitales e introducir evaluaciones de estado en la industria manufacturera
Artículo:
Detección de comunidades solapadas basada en la importancia de los nodos y la información de adyacencia
Artículo:
Evaluación del rendimiento de la escalabilidad de la comunicación LoRaWAN en redes de sensores inalámbricos a gran escala
Artículo:
Modelado conjunto de almacenamiento de energía virtual con participación de vehículos eléctricos en la red inteligente de energía local.