La clasificación de grandes conjuntos de datos se utiliza ampliamente en muchas aplicaciones industriales. Es una tarea desafiante clasificar grandes conjuntos de datos de manera eficiente, precisa y robusta, ya que estos siempre contienen numerosas instancias con un espacio de características de alta dimensionalidad. Para hacer frente a este problema, en este artículo presentamos un modelo de aprendizaje métrico basado en la divergencia Logdet en línea (LDML) haciendo uso de la potencia del aprendizaje métrico. En primer lugar, generamos una matriz de Mahalanobis mediante el aprendizaje de los datos de entrenamiento con el modelo LDML. Al mismo tiempo, proponemos una representación comprimida para la matriz de Mahalanobis de alta dimensionalidad para reducir la complejidad computacional en cada iteración. La matriz de Mahalanobis final obtenida de esta manera mide las distancias entre las instancias con precisión y sirve como base de los clasificadores, por ejemplo, el clasificador de los k-vecinos más cercanos. Experimentos en conjuntos de datos de referencia demuestran que el algoritmo propuesto se
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Algunas condiciones para que un -álgebra sea conmutativa
Artículo:
TCDABCF: Detección de comunidades basadas en la confianza mediante colonias de abejas artificiales por fusión de características
Artículo:
Un Método Integrado Fuzzy Best-Worst-TOPSIS para la Evaluación de Sitios Web de Hoteles y Empresas Proveedoras de Soluciones Digitales.
Artículo:
Observaciones sobre ultramétricas y funciones que conservan la métrica
Artículo:
La Existencia de Estados Estables No Constantes Positivos en un Modelo de Epidemia de Reacción-Difusión