Este artículo presenta una comparación de los métodos de estandarización y escalado en la predicción de costos. Se utilizaron cuatro métodos de estandarización y escalado para el procesamiento previo dedatos; después de eso, los datos se procesaron a través de la red neuronal artificial (RNA). El primer pasofue crear variables comunes en proyectos de información basados en las opiniones de algunos gerentesde proyecto. El segundo paso fue simular un conjunto de datos basado en la información proporcionadapor la empresa colaboradora: CRConsulting. La tercera etapa fue procesar los datos con algoritmos deaprendizaje automático de acuerdo con los cuatro métodos propuestos, los algoritmos de aprendizajeautomático fueron los mismos en los cuatro casos. Por último, los resultados de la comparación sepresentaron mediante modelos de ajuste según el método aplicado. El proceso anterior permitió determinarque los métodos de escalado y rango, aportan un mejor ajuste para la predicción de los costos, además deposeer un error medio cuadrático y un error cuadrático inferior en comparación con los datos no escalados y con los datos que fueron procesados por otros algoritmos de estandarización.
INTRODUCCIÓN
En la actualidad la literatura se enfoca en el análisis de la predicción de costos en proyectos, sin embargo, los modelos explicativos se orientan a exponer los resultados del procesamiento de los datos ejecutados por técnicas de aprendizaje automático, tales como las redes neuronales artificiales (RNA), sin profundizar en los detalles del manejo o depuración de la información.
Un factor que puede influir para mejorar el rendimiento en los resultados mostrados por una RNA en la predicción de costos en proyectos es la depuración del set de datos antes de ser procesados por la RNA.
Los modelos de aprendizaje estadístico son ampliamente utilizados para hacer regresión, clasificación y minería de datos. Se proponen cada vez más nuevos modelos de aprendizaje para tratar diferentes tipos de conjuntos de datos. La función de escala es un paso necesario para el preprocesamiento de datos y se usa ampliamente en aplicaciones 7.
La depuración se realiza a través de técnicas conocidas como normalización estadística y escalado, las cuales aportan valor a la predicción y a las técnicas de exploración de análisis, reduciendo ruidos y generando predicciones y modelos más certeros.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Una Evolución Diferencial Multistrategy Basada en Múltiples Objetivos para el Control Óptimo en Procesos Químicos
Artículo:
Generador compacto de impulsos de alto voltaje para aplicaciones de campo eléctrico pulsado: Desarrollo a escala de laboratorio
Artículo:
Análisis Cuantitativo para el Rango de Diseminación de Tumores Malignos Basado en Simetría de Lie
Artículo:
Enfoque de particionamiento multicriterio basado en la estimación del rendimiento para programas de flujo de datos dinámicos
Artículo:
Una información textual médica segura y protegida utilizando una esteganografía de imágenes LSB mejorada.
Artículo:
Creación de empresas y estrategia : reflexiones desde el enfoque de recursos
Artículo:
Los web services como herramienta generadora de valor en las organizaciones
Artículo:
La gestión de las relaciones con los clientes como característica de la alta rentabilidad empresarial
Libro:
Ergonomía en los sistemas de trabajo