Noticias Actualidad en procesos industriales

Dele visibilidad a su trayectoria académica

Participe en la convocatoria de trabajos inéditos de Virtual Pro.

Publicar Ahora

2024-11-22Los investigadores del MIT desarrollan una forma eficiente de formar agentes de IA más fiables

MIT |La técnica podría mejorar los sistemas de IA en tareas complejas que implican variabilidad.

Campos que van desde la robótica hasta la medicina y las ciencias políticas están intentando entrenar sistemas de inteligencia artificial para que tomen decisiones significativas de todo tipo. Por ejemplo, utilizar un sistema de inteligencia artificial para controlar inteligentemente el tráfico en una ciudad congestionada podría ayudar a los automovilistas a llegar a sus destinos más rápido, al tiempo que mejora la seguridad o la sostenibilidad.

Desafortunadamente, enseñar a un sistema de IA a tomar buenas decisiones no es una tarea fácil.

Los modelos de aprendizaje por refuerzo, que subyacen a estos sistemas de toma de decisiones de IA, todavía a menudo fallan cuando se enfrentan incluso a pequeñas variaciones en las tareas para las que están capacitados. En el caso del tráfico, un modelo podría tener dificultades para controlar un conjunto de intersecciones con diferentes límites de velocidad, número de carriles o patrones de tráfico.

Para aumentar la confiabilidad de los modelos de aprendizaje por refuerzo para tareas complejas con variabilidad, los investigadores del MIT han introducido un algoritmo más eficiente para entrenarlos.

Para aumentar la confiabilidad de los modelos de aprendizaje por refuerzo para tareas complejas con variabilidad, los investigadores del MIT han introducido un algoritmo más eficiente para entrenarlos.

El algoritmo selecciona estratégicamente las mejores tareas para entrenar a un agente de IA para que pueda realizar todas las tareas de manera efectiva en una colección de tareas relacionadas. En el caso del control de señales de tráfico, cada tarea podría ser una intersección en un espacio de tareas que incluya todas las intersecciones de la ciudad.

Al centrarse en un número menor de intersecciones que más contribuyen a la eficacia general del algoritmo, este método maximiza el rendimiento manteniendo bajo el costo de entrenamiento.

Los investigadores descubrieron que su técnica era entre cinco y 50 veces más eficiente que los enfoques estándar en una variedad de tareas simuladas. Esta ganancia en eficiencia ayuda al algoritmo a aprender una mejor solución de una manera más rápida, mejorando en última instancia el rendimiento del agente de IA.

“Pudimos ver increíbles mejoras de rendimiento, con un algoritmo muy simple, pensando fuera de lo común. Un algoritmo que no es muy complicado tiene más posibilidades de ser adoptado por la comunidad porque es más fácil de implementar y de entender para otros, dice la autora principal Cathy Wu, Thomas D. y Virginia W. Profesor Asociado de Desarrollo Profesional Cabot en Ingeniería Civil y Ambiental (CEE) y el Instituto de Datos, Sistemas y Sociedad (IDSS), y miembro del Laboratorio de Sistemas de Información y Decisión (LIDS).

Ella está unida en el papel por el autor principal Jung-Hoon Cho, un estudiante de posgrado de CEE; Vindula Jayawardana, estudiante de posgrado del Departamento de Ingeniería Eléctrica e Informática (EECS); y Sirui Li, estudiante de posgrado de IDSS. La investigación será presentada en la Conferencia sobre Sistemas de Procesamiento de Información Neural.

Encontrar un término medio

Para entrenar un algoritmo para controlar los semáforos en muchas intersecciones de una ciudad, un ingeniero normalmente elegiría entre dos enfoques principales. Puede entrenar un algoritmo para cada intersección de forma independiente, usando solo los datos de esa intersección, o entrenar un algoritmo más grande usando datos de todas las intersecciones y luego aplicarlo a cada una.

Pero cada enfoque tiene sus desventajas. Entrenar un algoritmo separado para cada tarea (como una intersección determinada) es un proceso que requiere mucho tiempo y requiere una enorme cantidad de datos y cálculos, mientras que entrenar un algoritmo para todas las tareas a menudo conduce a un rendimiento deficiente.

Wu y sus colaboradores buscaron un punto óptimo entre estos dos enfoques.

Para su método, eligen un subconjunto de tareas y entrenan un algoritmo para cada tarea de forma independiente. Es importante destacar que seleccionan estratégicamente tareas individuales que tienen más probabilidades de mejorar el rendimiento general del algoritmo en todas las tareas.

Aprovechan un truco común del campo del aprendizaje por refuerzo llamado aprendizaje por transferencia de tiro cero, en el que se aplica un modelo ya entrenado a una nueva tarea sin recibir más capacitación. Con el aprendizaje por transferencia, el modelo a menudo funciona notablemente bien en la tarea del nuevo vecino.

“Sabemos que sería ideal entrenar en todas las tareas, pero nos preguntamos si podríamos salirnos con la nuestra entrenando en un subconjunto de esas tareas, aplicar el resultado a todas las tareas y aún ver un aumento en el rendimiento, dice” Wu.

Para identificar qué tareas deberían seleccionar para maximizar el rendimiento esperado, los investigadores desarrollaron un algoritmo llamado Aprendizaje por transferencia basado en modelos (MBTL).

El algoritmo MBTL tiene dos piezas. Por un lado, modela qué tan bien funcionaría cada algoritmo si se entrenara de forma independiente en una tarea. Luego modela cuánto se degradaría el rendimiento de cada algoritmo si se transfiriera entre sí, un concepto conocido como rendimiento de generalización.

Modelar explícitamente el rendimiento de la generalización permite a MBTL estimar el valor del entrenamiento en una nueva tarea.

MBTL hace esto secuencialmente, eligiendo primero la tarea que conduce a la mayor ganancia de rendimiento y luego seleccionando tareas adicionales que proporcionan las mayores mejoras marginales posteriores al rendimiento general.

Dado que MBTL sólo se centra en las tareas más prometedoras, puede mejorar drásticamente la eficiencia del proceso de formación.

Reducir los costes de formación

Cuando los investigadores probaron esta técnica en tareas simuladas, incluido el control de señales de tráfico, la gestión de avisos de velocidad en tiempo real y la ejecución de varias tareas de control clásicas, fue de cinco a 50 veces más eficiente que otros métodos.

Esto significa que podrían llegar a la misma solución entrenando con muchos menos datos. Por ejemplo, con un aumento de eficiencia de 50x, el algoritmo MBTL podría entrenarse en solo dos tareas y lograr el mismo rendimiento que un método estándar que utiliza datos de 100 tareas.

“Desde la perspectiva de los dos enfoques principales, eso significa que los datos de las otras 98 tareas no eran necesarios o que el entrenamiento en las 100 tareas resulta confuso para el algoritmo, por lo que el rendimiento termina peor que el nuestro, dice” Wu.

Con MBTL, agregar incluso una pequeña cantidad de tiempo de entrenamiento adicional podría conducir a un rendimiento mucho mejor.

En el futuro, los investigadores planean diseñar algoritmos MBTL que puedan extenderse a problemas más complejos, como espacios de tareas de alta dimensión. También están interesados en aplicar su enfoque a problemas del mundo real, especialmente en los sistemas de movilidad de próxima generación.

La investigación está financiada, en parte, por un Premio CARRERA de la Fundación Nacional de Ciencias, el Programa de Becas de Doctorado de la Fundación Educativa Kwanjeong y una Beca de Doctorado en Robótica de Amazon.


Autor

 
MIT
Autor
MIT

Promover la investigación, las innovaciones, la enseñanza y los eventos y las personas de interés periodístico del MIT a la comunidad del campus, los medios de comunicación y el público en general, Comunicar anuncios del Instituto, Publicar noticias de la comunidad para profesores, estudiantes, personal y ex alumnos del MIT. Proporcionar servicios de medios a los miembros de la comunidad, incluido el asesoramiento sobre cómo trabajar con periodistas, Responder a consultas de los medios y solicitudes de entrevistas...


2024-11-22
Las tecnologías digitales en la educación, investigación y panoramas 2024

Desde las clases virtuales hasta los libros electrónicos (ebooks) y aplicaciones diseñadas para optimizar la pedagogía en el aula, estas herramientas han dejado una huella profunda en los sistemas educativos actuales.

2024-11-22
Curiosidad, imágenes y exploración científica

El nuevo libro del profesor de práctica Alan Lightman profundiza en la maravilla de los fenómenos visuales sorprendentes en la naturaleza.

2024-11-21
Descubren gas molecular en la galaxia espiral más grande observada

Un equipo liderado por el profesor del Instituto de Astrofísica UC e investigador del CATA Gaspar Galaz, logró identificar gracias a la gran sensibilidad del telescopio ALMA, la emisión de moléculas de monóxido de carbono en el centro de la galaxia Malin 1 -de bajo brillo superficial y por ende, muy difusa-, ubicada a 1.206 millones de años luz. Este crucial hallazgo permitirá comprender mejor la formación y evolución de las galaxias.

2024-11-21
Colombia impulsa el debate sobre datos gubernamentales y de investigación en el Quinto Foro Mundial de Datos de las Naciones Unidas

En el marco del Quinto Foro Mundial de Datos de las Naciones Unidas, celebrado en Medellín, Colombia, el Ministerio de Ciencia, Tecnología e Innovación lideró el panel “Datos gubernamentales y datos de investigación: encuentros y desencuentros”.

2024-11-21
Colombia apuesta por la inteligencia artificial como herramienta para el desarrollo educativo y socialcolombia-apuesta-por-la-inteligencia-artificial-como-herramienta-para-el-desarrollo-educativo-y-social

En el marco del evento "Desarrollo Tecnológico e Inteligencia Artificial: Impacto y Visión a Futuro", organizado por la Universidad Nacional, la ministra de Ciencia, Tecnología e Innovación, Yesenia Olaya Requene, compartió la visión del Gobierno del Cambio sobre la implementación de la inteligencia artificial (IA) en entornos educativos y su impacto en el país.

2024-11-20
¿Pueden los robots aprender de los sueños de las máquinas?

Investigadores del CSAIL del MIT utilizaron imágenes generadas por IA para entrenar a un perro robot en parkour, sin datos del mundo real. Su sistema LucidSim demuestra el potencial de la IA generativa para crear datos de entrenamiento robótico.