Biblioteca122.294 documentos en línea

Artículo

D-(DP)SGD: Decentralized Parallel SGD with Differential Privacy in Dynamic NetworksD-(DP)SGD: Descenso de Gradiente Estocástico Paralelo Descentralizado con Privacidad Diferencial en Redes Dinámicas

Resumen

El aprendizaje automático descentralizado ha estado desempeñando un papel esencial en mejorar la eficiencia del entrenamiento. Se ha aplicado en muchos escenarios del mundo real, como la computación en el borde y el IoT. Sin embargo, de hecho, las redes son dinámicas y existe el riesgo de que la información se filtre durante el proceso de comunicación. Para abordar este problema, proponemos un algoritmo descentralizado de descenso de gradiente estocástico paralelo (D-(DP)SGD) con privacidad diferencial en redes dinámicas. Con un análisis riguroso, mostramos que D-(DP)SGD converge con una tasa de mientras satisface -DP, lo que logra casi la misma tasa de convergencia que trabajos anteriores sin preocupación por la privacidad. Hasta donde sabemos, nuestro algoritmo es el primer algoritmo conocido de SGD paralelo descentralizado que se puede implementar en redes dinámicas y tener en cuenta la preservación de la privacidad.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento