Biblioteca122.739 documentos en línea

Artículo

Impact of Parameter Tuning for Optimizing Deep Neural Network Models for Predicting Software FaultsImpacto de la Ajuste de Parámetros para Optimizar Modelos de Redes Neuronales Profundas para Predecir Fallas de Software

Resumen

Los modelos de redes neuronales profundas construidos mediante decisiones de diseño adecuadas son cruciales para obtener el rendimiento deseado del clasificador. Esto es especialmente deseable al predecir la propensión a fallas de los módulos de software. Cuando se identifican correctamente, esto podría ayudar a reducir el costo de las pruebas al dirigir los esfuerzos más hacia los módulos identificados como propensos a fallas. Para poder construir un modelo eficiente de red neuronal profunda, es importante investigar en detalle los parámetros como el número de capas ocultas, el número de nodos en cada capa y detalles de entrenamiento como la tasa de aprendizaje y los métodos de regularización. El objetivo de este artículo es mostrar la importancia de la sintonización de hiperparámetros en el desarrollo de modelos eficientes de redes neuronales profundas para predecir la propensión a fallas de los módulos de software y comparar los resultados con otros algoritmos de aprendizaje automático. Se muestra que el modelo propuesto supera a los otros algoritmos en la mayoría de los casos

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento