Los modelos tradicionales de reducción de la dimensionalidad de los núcleos múltiples se basan generalmente en la incrustación de gráficos y en la suposición de la existencia de múltiples. Sin embargo, esta suposición podría no ser válida para algunos datos de alta dimensión o escasos debido a la maldición de la dimensionalidad, que influye negativamente en el rendimiento del aprendizaje de núcleos múltiples. Además, algunos modelos pueden estar mal planteados si el rango de las matrices en sus funciones objetivo no es lo suficientemente alto. Para resolver estos problemas, ampliamos el marco tradicional de incrustación de gráficos y proponemos un nuevo método regularizado de reducción de la dimensionalidad de múltiples núcleos. A diferencia de la técnica convencional de relajación convexa, el algoritmo propuesto aprovecha directamente una búsqueda binaria y un esquema de optimización alternativo para obtener soluciones óptimas de forma eficiente. Los resultados experimentales demuestran la eficacia del método propuesto para escenarios supervisados, no supervisados y semisupervisados.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Fabricación de recubrimientos cristalinos de TiO2 combinando la oxidación anódica de Ti-6Al-4V y los tratamientos térmicos
Artículo:
Síntesis y caracterización de nanocables de carbono vítreo
Artículo:
Gestión de recursos inalámbricos y optimización de la resistencia del sistema de comunicaciones móviles orientado a M2M
Artículo:
El papel de las plaquetas en las fiebres hemorrágicas virales
Artículo:
Algoritmos eficientes de aprendizaje de múltiples núcleos mediante representación de bajo rango