Biblioteca122.294 documentos en línea

Artículo

Personalized Federated Learning with Semisupervised DistillationAprendizaje federado personalizado con destilación semisupervisada

Resumen

Los datos y modelos heterogéneos plantean desafíos críticos para el aprendizaje federado. Sin embargo, el marco tradicional de aprendizaje federado, que entrena el modelo global transfiriendo parámetros del modelo, tiene limitaciones importantes; requiere que todos los participantes tengan las mismas arquitecturas de modelos de entrenamiento, y el modelo global entrenado no garantiza proyecciones precisas para los datos personales de los participantes. Para resolver este problema, proponemos un nuevo marco federado llamado aprendizaje federado personalizado con destilación semisupervisada (pFedSD), que asegura la privacidad de las arquitecturas de modelos de los participantes y mejora la eficiencia de comunicación al transmitir la distribución de clases predichas por los modelos en lugar de los parámetros del modelo. En primer lugar, el servidor adopta el método de agregación adaptativa para reducir el peso de las predicciones de modelos de baja calidad para las distribuciones de clases predichas por todos los clientes, lo que ayuda a mejorar la calidad de la agregación de la distrib

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento