Este artículo presenta una comparación de los métodos de estandarización y escalado en la predicción de costos. Se utilizaron cuatro métodos de estandarización y escalado para el procesamiento previo dedatos; después de eso, los datos se procesaron a través de la red neuronal artificial (RNA). El primer pasofue crear variables comunes en proyectos de información basados en las opiniones de algunos gerentesde proyecto. El segundo paso fue simular un conjunto de datos basado en la información proporcionadapor la empresa colaboradora: CRConsulting. La tercera etapa fue procesar los datos con algoritmos deaprendizaje automático de acuerdo con los cuatro métodos propuestos, los algoritmos de aprendizajeautomático fueron los mismos en los cuatro casos. Por último, los resultados de la comparación sepresentaron mediante modelos de ajuste según el método aplicado. El proceso anterior permitió determinarque los métodos de escalado y rango, aportan un mejor ajuste para la predicción de los costos, además deposeer un error medio cuadrático y un error cuadrático inferior en comparación con los datos no escalados y con los datos que fueron procesados por otros algoritmos de estandarización.
INTRODUCCIÓN
En la actualidad la literatura se enfoca en el análisis de la predicción de costos en proyectos, sin embargo, los modelos explicativos se orientan a exponer los resultados del procesamiento de los datos ejecutados por técnicas de aprendizaje automático, tales como las redes neuronales artificiales (RNA), sin profundizar en los detalles del manejo o depuración de la información.
Un factor que puede influir para mejorar el rendimiento en los resultados mostrados por una RNA en la predicción de costos en proyectos es la depuración del set de datos antes de ser procesados por la RNA.
Los modelos de aprendizaje estadístico son ampliamente utilizados para hacer regresión, clasificación y minería de datos. Se proponen cada vez más nuevos modelos de aprendizaje para tratar diferentes tipos de conjuntos de datos. La función de escala es un paso necesario para el preprocesamiento de datos y se usa ampliamente en aplicaciones 7.
La depuración se realiza a través de técnicas conocidas como normalización estadística y escalado, las cuales aportan valor a la predicción y a las técnicas de exploración de análisis, reduciendo ruidos y generando predicciones y modelos más certeros.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Modelo analítico de un sistema de servicio Round Robin ponderado
Artículo:
Optimización del Sistema de Supervisión Logística de Comercio Electrónico Transfronterizo Basado en la Tecnología de Internet de las Cosas
Artículo:
Detección de comunidades con cambio autoadaptativo basado en afinidad.
Artículo:
Análisis cuantitativo de la influencia integral de la red musical basado en regresión logística y agrupamiento bidireccional.
Artículo:
Metodología y herramientas para implantar políticas de seguridad fiables en infraestructuras críticas