Biblioteca122.294 documentos en línea

Artículo

Convolutional Recurrent Neural Networks for Observation-Centered Plant IdentificationRedes neuronales convolucionales recurrentes para la identificación de plantas basada en la observación

Resumen

Los métodos tradicionales de identificación de plantas centrados en la imagen pueden ser confusos debido a los distintos puntos de vista, las iluminaciones desiguales y los ciclos de crecimiento. Para tolerar las importantes variaciones intraclase, se proponen las redes neuronales convolucionales recurrentes (C-RNN) para la identificación de plantas centrada en la observación con el fin de imitar los comportamientos humanos. El modelo C-RNN consta de dos componentes: la red neuronal convolucional (CNN) se utiliza como extractor de características de las imágenes, y las unidades de la red neuronal recurrente (RNN) se construyen para sintetizar las características multivista de cada imagen para la predicción final. Se realizan numerosos experimentos para explorar la mejor combinación de CNN y RNN. Todos los modelos se entrenan de extremo a extremo con 1 a 3 imágenes de plantas de la misma observación mediante retropropagación truncada en el tiempo. Los experimentos demuestran que la combinación de MobileNet y Gated Recurrent Unit (GRU) ofrece la mejor relación entre precisión de clasificación y carga computacional en el conjunto de datos Flavia. En el conjunto de pruebas holdout, la precisión media de 10 veces con 1, 2 y 3 hojas de entrada alcanzó el 99,53%, el 100,00% y el 100,00%, respectivamente. En el conjunto de datos BJFU100, el modelo C-RNN alcanza una tasa de clasificación del 99,65 y un entrenamiento de dos etapas de extremo a extremo. El método centrado en la observación basado en las C-RNN muestra potencial para mejorar aún más la precisión de la identificación de plantas.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento