Biblioteca122.739 documentos en línea

Artículo

Towards Activity Recognition through Multidimensional Mobile Data Fusion with a Smartphone and Deep LearningHacia el reconocimiento de actividades mediante la fusión multidimensional de datos móviles con un smartphone y Deep Learning

Resumen

El campo del reconocimiento de actividades ha evolucionado relativamente temprano y ha atraído a innumerables investigadores. Con el continuo desarrollo de la ciencia y la tecnología, la investigación de las personas sobre el reconocimiento de actividades humanas también se está profundizando y enriqueciendo. Hoy en día, ya sea en medicina, educación, deportes o hogares inteligentes, varios campos han desarrollado un fuerte interés en el reconocimiento de actividades, y una serie de resultados de investigación también se han puesto en la producción y la vida real de las personas. En la actualidad, los teléfonos inteligentes se han vuelto bastante populares, y la tecnología se está volviendo cada vez más madura, y varios sensores han surgido en un momento histórico, por lo que la investigación relacionada con el reconocimiento de actividades basada en sensores de teléfonos móviles tiene su necesidad y posibilidad. Este artículo utilizará un teléfono inteligente Android para recopilar los datos de seis comportamientos básicos humanos, que son caminar, correr, estar de pie, sentarse, subir escaleras y bajar escaleras, a través de su sensor de aceleración, y utilizará el modelo clásico de aprendizaje profundo CNN (red neuronal convolucional) para fusionar esos datos móviles multidimensionales, utilizando TensorFlow para el entrenamiento del modelo y la evaluación de pruebas. El modelo generado se transplantará finalmente a un teléfono Android para completar el sistema de reconocimiento de actividades en el extremo móvil.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento