Las máquinas de vectores de soporte (SVMs) se encuentran entre los métodos más robustos y precisos en todos los algoritmos de aprendizaje automático conocidos, especialmente para la clasificación. Las SVMs entrenan un modelo de clasificación resolviendo un problema de optimización para decidir qué instancias en los conjuntos de datos de entrenamiento son los vectores de soporte (SVs). Sin embargo, los SVs son instancias intactas tomadas de los conjuntos de datos de entrenamiento y liberar directamente el modelo de clasificación de las SVMs conlleva un riesgo significativo para la privacidad de las personas, cuando los conjuntos de datos de entrenamiento contienen información sensible. En este documento, estudiamos el problema de cómo liberar el modelo de clasificación de las SVMs de kernel evitando la filtración de privacidad de los SVs y cumpliendo con el requisito de protección de la privacidad. Proponemos un nuevo algoritmo diferencialmente privado para las SVMs de kernel basado en el mecanismo híbrido exponencial y Laplace llamado DPKSVMEL
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Generación de historias utilizando grafos de conocimiento bajo estados psicológicos
Artículo:
Modelo de reconocimiento de emociones multimodal basado en una red neuronal profunda con optimización multiobjetivo.
Artículo:
Evaluación de la eficacia de la budesonida combinada con surfactantes pulmonares en el síndrome de dificultad respiratoria neonatal mediante ecografía pulmonar.
Artículo:
Fenómenos caóticos y respuestas no lineales en un sistema vibroacústico
Artículo:
Un Sistema de Predicción del Entorno Vial para Vehículos Inteligentes