Biblioteca122.739 documentos en línea

Artículos

SSGD: A Safe and Efficient Method of Gradient DescentSSGD: un método seguro y eficiente de descenso gradiente

Resumen

Con el vigoroso desarrollo de la tecnología de inteligencia artificial, diversas aplicaciones de tecnología de ingeniería se han implementado una tras otra. El método de descenso de gradiente juega un papel importante en la resolución de diversos problemas de optimización, debido a su estructura simple, buena estabilidad y fácil implementación. Sin embargo, en un sistema de aprendizaje automático multinodo, los gradientes suelen necesitar ser compartidos, lo que causará una filtración de privacidad, ya que los atacantes pueden inferir los datos de entrenamiento con la información del gradiente. En este artículo, para prevenir la fuga de gradientes manteniendo la precisión del modelo, proponemos el enfoque de descenso de gradiente super estocástico para actualizar los parámetros ocultando la longitud del módulo de los vectores de gradiente y convirtiéndolos en un vector unitario. Además, analizamos la seguridad del enfoque de descenso de gradiente super estocástico y demostramos que nuestro algoritmo puede defenderse contra los ataques al gradiente. Los resultados experimentales muestran que nuestro

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento