Aprovechando la habilidad del núcleo y la propiedad dispersa, la máquina de vectores de relevancia (RVM) podría adquirir una solución dispersa, con una capacidad de generalización equivalente en comparación con la máquina de vectores de soporte. La propiedad dispersa requiere mucho menos tiempo en la predicción, por lo que la RVM tiene potencial para clasificar imágenes hiperespectrales a gran escala. Sin embargo, RVM no está muy influenciado por su lento procedimiento de entrenamiento. Para resolver el problema, en este trabajo se acelera la clasificación de la imagen hiperespectral utilizando RVM mediante la técnica de computación paralela. La paralelización se revela desde los aspectos de la estrategia multiclase, el conjunto de múltiples clasificadores débiles y las operaciones matriciales. Los RVM paralelos se implementan utilizando el lenguaje C más las funciones paralelas de los paquetes de álgebra lineal y la biblioteca de interfaz de paso de mensajes. Los métodos propuestos se evalúan mediante el conjunto de datos AVIRIS Indian Pines en el clúster Beowulf y las plataformas multinúcleo. Se demuestra que los RVM paralelos aceleran de forma evidente el procedimiento de entrenamiento.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Un método numérico para el modelo compresible de contaminación por residuos nucleares en medios porosos
Artículo:
Caracterización de subvariedades lagrangianas mediante desigualdades geométricas en formas espaciales complejas.
Artículo:
Atractor aleatorio uniforme para las ecuaciones de Camassa-Holm estocásticas no autónomas tridimensionales.
Artículo:
Soluciones positivas para algunos sistemas fraccionarios competitivos en dominios acotados
Artículo:
Algoritmos Iterativos Estables Perturbados para Resolver Nuevos Sistemas Generales de Inclusión Variacional General No Lineal en Espacios de Banach