Biblioteca122.739 documentos en línea

Artículo

Explainable Artificial Intelligence (XAI) to Enhance Trust Management in Intrusion Detection Systems Using Decision Tree ModelInteligencia Artificial Explicable (XAI) para Mejorar la Gestión de Confianza en Sistemas de Detección de Intrusiones Utilizando un Modelo de Árbol de Decisiones.

Resumen

A pesar de la creciente popularidad de los modelos de aprendizaje automático en las aplicaciones de ciberseguridad (por ejemplo, un sistema de detección de intrusiones (IDS)), la mayoría de estos modelos son percibidos como una caja negra. La Inteligencia Artificial Explicable (XAI) se ha vuelto cada vez más importante para interpretar los modelos de aprendizaje automático y mejorar la gestión de confianza al permitir que los expertos humanos comprendan las pruebas de datos subyacentes y el razonamiento causal. Según el IDS, el papel crítico de la gestión de confianza es comprender el impacto de los datos maliciosos para detectar cualquier intrusión en el sistema. Los estudios anteriores se centraron más en la precisión de los diversos algoritmos de clasificación para la confianza en el IDS. A menudo no proporcionan información sobre su comportamiento y razonamiento proporcionado por el algoritmo sofisticado. Por lo tanto, en este documento, abordamos el concepto de XAI para mejorar la gestión de confianza explorando el modelo de

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento