Biblioteca122.294 documentos en línea

Artículo

Analysis of Generalization Ability for Different AdaBoost Variants Based on Classification and Regression TreesAnálisis de la capacidad de generalización de distintas variantes de AdaBoost basadas en árboles de clasificación y regresión

Resumen

Como método de aprendizaje automático, AdaBoost se aplica ampliamente a la clasificación de datos y la detección de objetos por su robustez y eficacia. AdaBoost construye una combinación global y óptima de clasificadores débiles basada en una reponderación de muestras. Se sabe que este tipo de combinación mejora enormemente el rendimiento de la clasificación. A medida que aumenta la popularidad de AdaBoost, se han propuesto muchas variantes para mejorar el rendimiento de AdaBoost. También se han publicado muchos estudios de comparación y revisión de variantes de AdaBoost. Algunos investigadores compararon diferentes variantes de AdaBoost mediante experimentos en sus propios campos, y otros revisaron diversas variantes de AdaBoost introduciendo básicamente estos algoritmos. Sin embargo, falta un análisis matemático de las capacidades de generalización de las distintas variantes de AdaBoost. En este artículo, analizamos las capacidades de generalización de seis variantes de AdaBoost en términos de márgenes de clasificación. Las seis variantes comparadas son Real AdaBoost, Gentle AdaBoost, Modest AdaBoost, Parameterized AdaBoost, Margin-pruning Boost y Penalized AdaBoost. Por último, utilizamos experimentos para verificar nuestros análisis.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento