Biblioteca122.294 documentos en línea

Artículo

Labelling Training Samples Using Crowdsourcing Annotation for RecommendationEtiquetado de muestras de entrenamiento utilizando anotación de multitudes para recomendación.

Resumen

Los modelos de recomendación basados en aprendizaje supervisado, cuyas infraestructuras cuentan con suficientes muestras de entrenamiento de alta calidad, han sido ampliamente aplicados en muchos ámbitos. En la era del big data con el crecimiento explosivo del volumen de datos, las muestras de entrenamiento deben ser etiquetadas de manera oportuna y precisa para garantizar el excelente rendimiento de recomendación de los modelos basados en aprendizaje supervisado. La anotación automática no puede completar las tareas de etiquetado de muestras de entrenamiento con alta calidad debido a la limitada inteligencia de las máquinas. Aunque la anotación de expertos puede lograr una alta precisión, requiere mucho tiempo y más recursos. Como una nueva forma de inteligencia humana para participar en la computación automática, la anotación de crowdsourcing compensa las deficiencias de la anotación automática y la anotación de expertos. Por lo tanto, en este documento, utilizamos la anotación de crowdsourcing para etiquetar muestras de entrenamiento. En primer lugar, se diseña un me

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento