Como método de aprendizaje automático, AdaBoost se aplica ampliamente a la clasificación de datos y la detección de objetos por su robustez y eficacia. AdaBoost construye una combinación global y óptima de clasificadores débiles basada en una reponderación de muestras. Se sabe que este tipo de combinación mejora enormemente el rendimiento de la clasificación. A medida que aumenta la popularidad de AdaBoost, se han propuesto muchas variantes para mejorar el rendimiento de AdaBoost. También se han publicado muchos estudios de comparación y revisión de variantes de AdaBoost. Algunos investigadores compararon diferentes variantes de AdaBoost mediante experimentos en sus propios campos, y otros revisaron diversas variantes de AdaBoost introduciendo básicamente estos algoritmos. Sin embargo, falta un análisis matemático de las capacidades de generalización de las distintas variantes de AdaBoost. En este artículo, analizamos las capacidades de generalización de seis variantes de AdaBoost en términos de márgenes de clasificación. Las seis variantes comparadas son Real AdaBoost, Gentle AdaBoost, Modest AdaBoost, Parameterized AdaBoost, Margin-pruning Boost y Penalized AdaBoost. Por último, utilizamos experimentos para verificar nuestros análisis.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Selección de cartera con respecto a la preferencia probabilística en apetitos de riesgo variables: un método de análisis de doble jerarquía.
Artículo:
Control deslizante SPMSM basado en el nuevo algoritmo de super torsión.
Artículo:
Tecnología de detección de eventos en el ámbito de la seguridad de la información basada en SAtt-LSTM
Artículo:
Operaciones de gráficos que preservan la privacidad para la autenticación móvil
Artículo:
Estimación de áreas quemadas en incendios forestales utilizando redes neurales artificiales