Biblioteca122.294 documentos en línea

Artículo

Improving Transformer-Based Neural Machine Translation with Prior AlignmentsMejorando la traducción automática neuronal basada en transformadores con alineamientos previos

Resumen

Transformer es un modelo de traducción neuronal que revoluciona la traducción automática. En comparación con los modelos tradicionales de traducción automática estadística y otros modelos de traducción automática neuronal, el modelo transformer propuesto recientemente cambia radical y fundamentalmente la traducción automática con sus mecanismos de autoatención y atención cruzada. Estos mecanismos modelan de manera efectiva las alineaciones de tokens entre las oraciones fuente y las oraciones objetivo. Se ha informado que el modelo transformer proporciona alineaciones posteriores precisas. En este trabajo, demostramos de manera empírica el efecto inverso, mostrando que las alineaciones previas ayudan a los modelos transformer a producir mejores traducciones. Los resultados experimentales en la tarea de traducción de noticias vietnamitas-inglés muestran no solo el efecto positivo de las alineaciones manualmente anotadas en los modelos transformer, sino también el sorprendente rendimiento superior de las alineaciones construidas estadísticamente reforzadas con la flexibilidad de la selección de tipo de token sobre las alineaciones manuales para mejorar

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento