Biblioteca122.739 documentos en línea

Artículo

Analysis of Application Examples of Differential Privacy in Deep LearningAnálisis de ejemplos de aplicación de la privacidad diferencial en el aprendizaje profundo

Resumen

La Inteligencia Artificial se ha aplicado ampliamente en la actualidad, y también se ha prestado atención a los consiguientes problemas de fuga de privacidad. Ataques como los de inferencia de modelos en redes neuronales profundas pueden extraer fácilmente información del usuario de las redes neuronales. Por lo tanto, es necesario proteger la privacidad en el aprendizaje profundo. La privacidad diferencial, como tema popular en la preservación de la privacidad en los últimos años, que proporciona una rigurosa garantía de privacidad, también puede utilizarse para preservar la privacidad en el aprendizaje profundo. Aunque muchos artículos han propuesto diferentes métodos para combinar la privacidad diferencial y el aprendizaje profundo, no hay artículos completos que analicen y comparen las diferencias y conexiones entre estas tecnologías. Con este fin, este artículo se propone comparar diferentes métodos de privacidad diferencial en el aprendizaje profundo. Analizamos y clasificamos comparativamente varios modelos de aprendizaje profundo bajo privacidad diferencial. Mientras tanto, también prestamos atención a la aplicación de la privacidad diferencial en las Redes Generativas Adversariales (GANs), comparando y analizando estos modelos. Por último, resumimos la aplicación de la privacidad diferencial en las redes neuronales profundas.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento