Impacto de la estandarización y escalado: factor para predicción de costos en proyectos a través de una red neuronal artificial
Impact of Standardization and Scaling: factor to predicting costs in projects through artificial neural network
Este artículo presenta una comparación de los métodos de estandarización y escalado en la predicción de costos. Se utilizaron cuatro métodos de estandarización y escalado para el procesamiento previo dedatos; después de eso, los datos se procesaron a través de la red neuronal artificial (RNA). El primer pasofue crear variables comunes en proyectos de información basados en las opiniones de algunos gerentesde proyecto. El segundo paso fue simular un conjunto de datos basado en la información proporcionadapor la empresa colaboradora: CRConsulting. La tercera etapa fue procesar los datos con algoritmos deaprendizaje automático de acuerdo con los cuatro métodos propuestos, los algoritmos de aprendizajeautomático fueron los mismos en los cuatro casos. Por último, los resultados de la comparación sepresentaron mediante modelos de ajuste según el método aplicado. El proceso anterior permitió determinarque los métodos de escalado y rango, aportan un mejor ajuste para la predicción de los costos, además deposeer un error medio cuadrático y un error cuadrático inferior en comparación con los datos no escalados y con los datos que fueron procesados por otros algoritmos de estandarización.
INTRODUCCIÓN
En la actualidad la literatura se enfoca en el análisis de la predicción de costos en proyectos, sin embargo, los modelos explicativos se orientan a exponer los resultados del procesamiento de los datos ejecutados por técnicas de aprendizaje automático, tales como las redes neuronales artificiales (RNA), sin profundizar en los detalles del manejo o depuración de la información.
Un factor que puede influir para mejorar el rendimiento en los resultados mostrados por una RNA en la predicción de costos en proyectos es la depuración del set de datos antes de ser procesados por la RNA.
Los modelos de aprendizaje estadístico son ampliamente utilizados para hacer regresión, clasificación y minería de datos. Se proponen cada vez más nuevos modelos de aprendizaje para tratar diferentes tipos de conjuntos de datos. La función de escala es un paso necesario para el preprocesamiento de datos y se usa ampliamente en aplicaciones 7.
La depuración se realiza a través de técnicas conocidas como normalización estadística y escalado, las cuales aportan valor a la predicción y a las técnicas de exploración de análisis, reduciendo ruidos y generando predicciones y modelos más certeros.
Recursos
-
Formatopdf
-
Idioma:español
-
Tamaño:913 kb