El desarrollo de agentes de inteligencia artificial (IA) es un reto para la exploración eficiente en entornos visualmente ricos y complejos. En este estudio, formulamos la cuestión de la exploración como un problema de aprendizaje por refuerzo y nos basamos en la motivación intrínseca para guiar el comportamiento de exploración. Dicha motivación intrínseca está impulsada por la curiosidad y se calcula a partir de la memoria de episodios. Para distribuir la motivación intrínseca, utilizamos un método basado en el recuento y la distancia temporal para generarla de forma sincrónica. Probamos nuestro enfoque en entornos laberínticos en 3D y validamos su rendimiento en tareas de exploración mediante amplios experimentos. Los resultados experimentales demuestran que nuestro agente puede aprender la capacidad de exploración a partir de la información sensorial bruta y llevar a cabo una exploración autónoma en diferentes laberintos. Además, la política aprendida no está sesgada por los objetos estocásticos. También analizamos los efectos de diferentes métodos de entrenamiento y fuerzas motrices en la política de exploración.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Avances recientes en litografía no convencional para estructuras jerárquicas tridimensionales complejas y sus aplicaciones
Artículo:
Utilizar el diseño y el diseño gráfico con la investigación del color en los medios visuales AI para transmitir
Artículo:
Ingrediente del material de envasado de biomasa y estudio comparativo de las propiedades de amortiguación
Artículo:
Efecto anticariogénico de nanopartículas de selenio sintetizadas con Brassica oleracea
Artículo:
Infecciones comunes adquiridas en cuidados intensivos: Aspectos microbiológicos y factores de riesgo