El método de traducción de imagen a imagen tiene como objetivo aprender mapeos entre dominios a partir de datos emparejados/no emparejados. Aunque esta técnica se ha utilizado ampliamente para tareas de predicción visual como clasificación y segmentación de imágenes y ha logrado grandes resultados, todavía no hemos logrado realizar traducciones flexibles al intentar aprender diferentes mapeos, especialmente para imágenes que contienen múltiples instancias. Para abordar este problema, proponemos un marco generativo DAGAN (Red Generativa Adversaria Consciente del Dominio) que permite a los dominios aprender relaciones de mapeo diversas. Supusimos que una imagen está compuesta por un dominio de fondo y de instancias y luego los alimentamos en diferentes redes de traducción. Por último, integramos los dominios traducidos en una imagen completa con etiquetas suavizadas para mantener el realismo. Examinamos el marco consciente de instancias en conjuntos de datos generados por YOLO y confirmamos que es capaz de generar imágenes con igual o mejor diversidad en comparación con los modelos de traducción actuales.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Cálculo de trayectorias de desprendimiento de hielo mediante cuadrículas cartesianas, penalización y conjuntos de niveles
Artículo:
Migración de servicios en la computación móvil de borde
Artículo:
Análisis de auditoría del comportamiento anormal del Fondo de Seguridad Social basado en el algoritmo de clustering espectral adaptativo.
Artículo:
Análisis de agrupamiento y visualización para la Leyenda de los Héroes del Cóndor basado en la red social.
Artículo:
Protocolo de enrutamiento basado en contención de canal para redes inalámbricas ad hoc.