Los datos y modelos heterogéneos plantean desafíos críticos para el aprendizaje federado. Sin embargo, el marco tradicional de aprendizaje federado, que entrena el modelo global transfiriendo parámetros del modelo, tiene limitaciones importantes; requiere que todos los participantes tengan las mismas arquitecturas de modelos de entrenamiento, y el modelo global entrenado no garantiza proyecciones precisas para los datos personales de los participantes. Para resolver este problema, proponemos un nuevo marco federado llamado aprendizaje federado personalizado con destilación semisupervisada (pFedSD), que asegura la privacidad de las arquitecturas de modelos de los participantes y mejora la eficiencia de comunicación al transmitir la distribución de clases predichas por los modelos en lugar de los parámetros del modelo. En primer lugar, el servidor adopta el método de agregación adaptativa para reducir el peso de las predicciones de modelos de baja calidad para las distribuciones de clases predichas por todos los clientes, lo que ayuda a mejorar la calidad de la agregación de la distrib
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Método de clasificación de datos de teledetección de alta resolución espacial basado en el intercambio de espectros.
Artículo:
Evaluación de la calidad de los juegos para móviles: Miftah Alfasaha
Artículo:
Análisis de geometría estocástica y despliegue adicional de células pequeñas para redes heterogéneas afectadas por puntos calientes
Artículo:
Ventajas prácticas del paradigma de programación orientada a aspectos en la simulación de eventos discretos
Artículo:
Tecnologías de aprendizaje automático para la comunicación vehicular segura en la Internet de los vehículos: Avances recientes y aplicaciones