La literatura médica contiene conocimientos valiosos, como los síntomas clínicos, el diagnóstico y los tratamientos de una enfermedad en particular. El Reconocimiento de Entidades Nombradas (NER) es el paso inicial para extraer este conocimiento de texto no estructurado y presentarlo como un Grafo de Conocimiento (KG). Sin embargo, los enfoques anteriores de NER a menudo han sufrido por tener datos de entrenamiento etiquetados por humanos a pequeña escala. Además, extraer conocimiento de la literatura médica china es una tarea más compleja porque no hay segmentación entre caracteres chinos. Recientemente, los modelos de pre-entrenamiento, que obtienen representaciones con el conocimiento semántico previo en grandes corpus no etiquetados, han logrado resultados de vanguardia para una amplia variedad de tareas de Procesamiento del Lenguaje Natural (NLP). Sin embargo, las capacidades de los modelos de pre-entrenamiento no se han explotado completamente, y las aplicaciones de otros modelos de pre-entrenamiento excepto BERT en dominios específicos
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Investigación sobre el algoritmo de mapeo flexible de intenciones para un robot de acompañamiento para personas mayores.
Artículo:
Análisis de la Eficiencia de Financiamiento de las Empresas Agrícolas Chinas Cotizadas Basado en Aprendizaje Automático
Artículo:
Topologías de interacción en sistemas de música en red situados basados en dispositivos móviles.
Artículo:
Comparación de la estructura de la red de viajes interurbanos durante el día a día y en días festivos en China.
Artículo:
Reconocimiento de expresiones faciales basado en marcos utilizando características geométricas