El aprendizaje de núcleos múltiples (MKL), como enfoque para la selección automatizada de núcleos, desempeña un papel importante en el aprendizaje automático. Se han construido algunas teorías de aprendizaje para analizar la generalización del aprendizaje de núcleos múltiples. Sin embargo, se ha estudiado menos el aprendizaje de núcleos múltiples en el marco del aprendizaje semisupervisado. En este trabajo, analizamos la generalización del aprendizaje de núcleos múltiples en el marco del aprendizaje multivista semisupervisado. Aplicamos la complejidad del caos de Rademacher para controlar el rendimiento de la clase candidata de núcleos múltiples coregularizados y obtenemos el límite de error de generalización del aprendizaje de núcleos múltiples coregularizados. Además, mostramos que los resultados existentes sobre el aprendizaje de kennels múltiples y el aprendizaje de kernels coregularizados pueden considerarse como los casos especiales de nuestros resultados principales en este trabajo.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Video:
Seminario web: Ampliación de la agricultura
Artículo:
Síntesis de una poliacrilamida catiónica bajo iniciación UV y su floculación en la eliminación de estrona
Artículo:
Diseño conceptual y análisis de un nuevo robot vaporizador-llenador
Artículo:
Modelo de toma de decisiones del esquema de diseño de Big Data de modelado de productos basado en una red neuronal optimizada por un algoritmo genético
Artículo:
Control adaptativo de detección y supervisión del estado de sistemas eólicos de doble alimentación