Transformer es un modelo de traducción neuronal que revoluciona la traducción automática. En comparación con los modelos tradicionales de traducción automática estadística y otros modelos de traducción automática neuronal, el modelo transformer propuesto recientemente cambia radical y fundamentalmente la traducción automática con sus mecanismos de autoatención y atención cruzada. Estos mecanismos modelan de manera efectiva las alineaciones de tokens entre las oraciones fuente y las oraciones objetivo. Se ha informado que el modelo transformer proporciona alineaciones posteriores precisas. En este trabajo, demostramos de manera empírica el efecto inverso, mostrando que las alineaciones previas ayudan a los modelos transformer a producir mejores traducciones. Los resultados experimentales en la tarea de traducción de noticias vietnamitas-inglés muestran no solo el efecto positivo de las alineaciones manualmente anotadas en los modelos transformer, sino también el sorprendente rendimiento superior de las alineaciones construidas estadísticamente reforzadas con la flexibilidad de la selección de tipo de token sobre las alineaciones manuales para mejorar
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Prediciendo la Rotación de Clientes Utilizando Redes Neuronales Recursivas
Artículo:
Integrando la Selección de Características Basada en Correlación y el Agrupamiento para Mejorar el Diagnóstico de Enfermedades Cardiovasculares
Artículo:
Un esquema de hash de imágenes 3D DIBR basado en agrupación de píxeles y NMF.
Artículo:
Una investigación sobre el sistema de control de un motor homopolar de alta velocidad con rotor sólido basado en almacenamiento de energía de volante.
Artículo:
Simulador clásico de sistemas celulares LTE para la enseñanza de redes informáticas