La reconstrucción 3D basada en luz estructurada o escaneado láser se ha utilizado ampliamente en medición industrial, navegación robótica y realidad virtual. Sin embargo, la mayoría de los sensores de alcance modernos no son capaces de escanear objetos transparentes y otros materiales especiales, cuya superficie no puede reflejar la profundidad exacta debido a la absorción y refracción de la luz. En este trabajo, fusionamos la información de profundidad y silueta de un sensor RGB-D (Kinect v1) para recuperar la superficie perdida de objetos transparentes. Nuestro sistema se divide en dos partes. En primer lugar, utilizamos la profundidad nula y errónea generada por materiales transparentes desde múltiples vistas para buscar la región 3D que contiene el objeto transparente. A continuación, basándonos en la tecnología de la forma a partir de la silueta, recuperamos el modelo 3D mediante el casco visual dentro de estas regiones ruidosas. La segmentación Grabcut conjunta se aplica a varias imágenes en color para extraer la silueta. La restricción inicial para Grabcut se determina automáticamente. Los experimentos demuestran que nuestro método puede mejorar el modelo 3D de un objeto transparente en una escena real. Nuestro sistema ahorra tiempo, es robusto y no requiere ninguna operación interactiva durante todo el proceso.
Esta es una versi髇 de prueba de citaci髇 de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citaci髇 de las respectivas fuentes.
Video:
Tomates y codicia - El 閤odo forzado de los agricultores de Ghana | DW Documental
Art韈ulo:
Previsión de la productividad y producción de arroz en Odisha, India, mediante modelos de medias móviles integradas autorregresivas
Art韈ulo:
Arsénico, cromo y otros elementos potencialmente tóxicos en las rocas y sedimentos de la cuenca de Oropos-Kalamos, Ática, Grecia
Art韈ulo:
Estructuras de covarianza en sistemas de cultivo convencionales y ecológicos
Art韈ulo:
Isotermas de desorci髇 de humedad para granos de cacao