Generalmente, la complejidad temporal de los algoritmos para la recuperación de imágenes basada en el contenido es extremadamente alta. Con el fin de recuperar imágenes en bases de datos a gran escala de manera eficiente, se propone una nueva forma de recuperación basada en el marco distribuido Hadoop. En primer lugar, se construye una base de datos de características de imágenes mediante el algoritmo Speeded Up Robust Features y Locality-Sensitive Hashing y, a continuación, se realiza la búsqueda en la plataforma Hadoop de una forma paralela especialmente diseñada. Considerables resultados experimentales muestran que es capaz de recuperar imágenes basadas en el contenido en clústeres a gran escala y conjuntos de imágenes de manera efectiva.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículos:
Método Bootstrap Parsimonioso para Modelar Series de Energía de Entrada Natural
Artículos:
Una Desigualdad de Hilbert Semidiscreta Más Precisa con un Núcleo No Homogéneo
Artículos:
Una conjetura sobre el etiquetado total de super arista-mágica de libros de ciclos de 4.
Artículos:
Estabilidad en Funciones Generalizadas
Artículos:
Compromiso de rendimiento y retardo para redes de radio cognitiva: una perspectiva de optimización convexa
Tesis y Trabajos de grado:
Sistema de costos por órdenes de producción para determinar la rentabilidad de la empresa de lácteos “San Agustín” Cía. Ltda., ubicada en la parroquia de Pintag, provincia de Pichincha
Norma:
Bombas centrífugas
Artículos:
Comportamiento del aguacate Hass liofilizado durante la operación de rehidratación
Artículos:
Generación de Baño Líquido Mediante Gas Natural Para el Arranque de Celdas Electrolíticas en CVG Alcasa