Biblioteca122.739 documentos en línea

Artículo

Computer Vision-Enabled Character Recognition of Hand Gestures for Patients with Hearing and Speaking DisabilityReconocimiento de caracteres de gestos manuales mediante visión por ordenador para pacientes con discapacidad auditiva y del habla

Resumen

El reconocimiento de gestos con la mano es una de las tecnologías más buscadas en el campo del aprendizaje automático y la visión por computadora. Ha habido una demanda sin precedentes de aplicaciones a través de las cuales se puedan detectar los signos manuales para personas sordas y personas que usan lenguaje de señas para comunicarse, detectando así los signos manuales y prediciendo correspondientemente la próxima palabra o recomendando la palabra que puede ser más apropiada, seguida de la producción de la palabra que las personas sordas y las personas que usan lenguaje de señas desean decir. Este artículo presenta un enfoque para desarrollar un sistema de este tipo mediante el cual podemos determinar el carácter más apropiado a partir del signo que está mostrando el usuario o la persona al sistema. Para habilitar el reconocimiento de patrones, se han explorado diversas técnicas de aprendizaje automático y hemos utilizado las redes CNN como una solución confiable en nuestro contexto. La creación de dicho sistema implica varias capas de convolución a través de las cuales se han capturado características capa por capa. Las características recopiladas de la imagen se utilizan posteriormente para entrenar el modelo. El modelo entrenado predice eficientemente el carácter más apropiado en respuesta al signo expuesto al modelo. Posteriormente, el carácter predicho se utiliza para predecir más palabras a partir de él de acuerdo con el sistema de recomendación utilizado en este caso. El sistema propuesto alcanza una precisión de predicción del 91.07%.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento