Consideramos una familia de algoritmos de clasificación generados a partir de un esquema de regularización de núcleo asociado con un regularizador - y una función de pérdida convexa. Nuestro objetivo principal es proporcionar una tasa de convergencia explícita para el error de clasificación excesivo de los clasificadores producidos. La descomposición del error incluye error de aproximación, error de hipótesis y error de muestra. Aplicamos algunas técnicas novedosas para estimar el error de hipótesis y el error de muestra. Finalmente, se derivan tasas de aprendizaje bajo algunas suposiciones sobre el núcleo, el espacio de entrada, la distribución marginal y el error de aproximación.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Diseño de un controlador de modo deslizante de segundo orden para el control de seguimiento de naves espaciales
Artículo:
Toma de decisiones en grupo difuso trapezoidal intuicionista basada en el operador integral de Choquet prospectivo y el cluster dinámico de búsqueda de proyección gris
Artículo:
Un Algoritmo de Agrupamiento Difuso Dinámico para Series Temporales
Artículo:
Evasión de depresiones en LRTS basada en el refinamiento incremental de árboles cuádruples codificados
Artículo:
Diseño de un Microgrid con Capacidad de Atravesar Bajos Voltajes y Experimento de Simulación