Noticias Actualidad en procesos industriales

Dele visibilidad a su trayectoria académica

Participe en la convocatoria de trabajos inéditos de Virtual Pro.

Publicar Ahora

2024-10-03Cómo la IA está mejorando las simulaciones con técnicas de muestreo más inteligentes

MIT |Los investigadores del MIT CSAIL crearon un método impulsado por IA para el muestreo de baja discrepancia, que distribuye uniformemente los puntos de datos para aumentar la precisión de la simulación.

Imagina que te encargan enviar a un equipo de jugadores de fútbol a un campo para evaluar el estado del césped (una tarea que, por supuesto, es probable que tengan). Si eliges sus posiciones al azar, es posible que se agrupen en algunas zonas y descuiden por completo otras. Pero si les das una estrategia, como distribuirlos uniformemente por todo el campo, es posible que obtengas una imagen mucho más precisa del estado del césped.

Ahora, imaginemos que es necesario expandirse no solo en dos dimensiones, sino en decenas o incluso en cientos. Ese es el desafío que los investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT están superando. Han desarrollado un enfoque impulsado por IA para el "muestreo de baja discrepancia", un método que mejora la precisión de la simulación al distribuir los puntos de datos de manera más uniforme en el espacio.

Una novedad clave es el uso de redes neuronales gráficas (GNN), que permiten que los puntos se “comuniquen” y se autooptimicen para lograr una mayor uniformidad. Su enfoque supone una mejora fundamental para las simulaciones en campos como la robótica, las finanzas y la ciencia computacional, en particular en el manejo de problemas complejos y multidimensionales que son fundamentales para realizar simulaciones y cálculos numéricos precisos.

“En muchos problemas, cuanto más uniformemente se puedan distribuir los puntos, con mayor precisión se pueden simular sistemas complejos”, afirma T. Konstantin Rusch, autor principal del nuevo artículo y posdoctorado del MIT CSAIL. “Hemos desarrollado un método llamado Message-Passing Monte Carlo (MPMC) para generar puntos espaciados uniformemente, utilizando técnicas de aprendizaje profundo geométrico. Esto nos permite además generar puntos que enfatizan dimensiones que son particularmente importantes para un problema en cuestión, una propiedad que es muy importante en muchas aplicaciones. Las redes neuronales de grafos subyacentes del modelo permiten que los puntos "hablen" entre sí, logrando una uniformidad mucho mejor que los métodos anteriores”.

Su trabajo fue publicado en la edición de septiembre de la revista Proceedings of the National Academy of Sciences .

Llévame a Montecarlo

La idea de los métodos de Monte Carlo es aprender sobre un sistema simulándolo con un muestreo aleatorio. El muestreo es la selección de un subconjunto de una población para estimar características de toda la población. Históricamente, ya se utilizaba en el siglo XVIII, cuando el matemático Pierre-Simon Laplace lo empleó para estimar la población de Francia sin tener que contar a cada individuo.

Las secuencias de baja discrepancia, que son secuencias con baja discrepancia, es decir, alta uniformidad, como Sobol´, Halton y Niederreiter, han sido durante mucho tiempo el estándar de oro para el muestreo cuasialeatorio, que intercambia el muestreo aleatorio con el muestreo de baja discrepancia. Se utilizan ampliamente en campos como los gráficos de computadora y las finanzas computacionales, para todo, desde opciones de precios hasta evaluación de riesgos, donde llenar espacios de manera uniforme con puntos puede conducir a resultados más precisos. 

El marco MPMC sugerido por el equipo transforma muestras aleatorias en puntos con alta uniformidad. Esto se hace procesando las muestras aleatorias con una GNN que minimiza una medida de discrepancia específica.

Uno de los grandes retos de utilizar la IA para generar puntos muy uniformes es que la forma habitual de medir la uniformidad de los puntos es muy lenta de calcular y difícil de utilizar. Para solucionarlo, el equipo cambió a una medida de uniformidad más rápida y flexible llamada discrepancia L2. Para los problemas de alta dimensión, donde este método no es suficiente por sí solo, utilizan una técnica novedosa que se centra en proyecciones importantes de los puntos en dimensiones inferiores. De esta forma, pueden crear conjuntos de puntos que se adaptan mejor a aplicaciones específicas.

Las implicaciones van mucho más allá del ámbito académico, dice el equipo. En finanzas computacionales, por ejemplo, las simulaciones dependen en gran medida de la calidad de los puntos de muestreo. “Con este tipo de métodos, los puntos aleatorios suelen ser ineficientes, pero nuestros puntos de baja discrepancia generados por GNN conducen a una mayor precisión”, dice Rusch. “Por ejemplo, consideramos un problema clásico de finanzas computacionales en 32 dimensiones, donde nuestros puntos MPMC superaron a los métodos de muestreo cuasialeatorios de última generación anteriores por un factor de cuatro a 24”.

Robots en Montecarlo

En robótica, la planificación de trayectorias y movimientos suele basarse en algoritmos basados ​​en muestreo, que guían a los robots a través de procesos de toma de decisiones en tiempo real. La uniformidad mejorada de MPMC podría conducir a una navegación robótica más eficiente y adaptaciones en tiempo real para cuestiones como la conducción autónoma o la tecnología de drones. “De hecho, en una preimpresión reciente, demostramos que nuestros puntos MPMC logran una mejora cuádruple con respecto a los métodos anteriores de baja discrepancia cuando se aplican a problemas de planificación de movimientos robóticos del mundo real”, afirma Rusch.

“Las secuencias tradicionales de baja discrepancia fueron un gran avance en su época, pero el mundo se ha vuelto más complejo y los problemas que estamos resolviendo ahora a menudo existen en espacios de 10, 20 o incluso 100 dimensiones”, dice Daniela Rus, directora de CSAIL y profesora de ingeniería eléctrica y ciencias de la computación del MIT. “Necesitábamos algo más inteligente, algo que se adapte a medida que aumenta la dimensionalidad. Las GNN son un cambio de paradigma en la forma en que generamos conjuntos de puntos de baja discrepancia. A diferencia de los métodos tradicionales, donde los puntos se generan de forma independiente, las GNN permiten que los puntos "charlen" entre sí para que la red aprenda a colocar los puntos de una manera que reduzca la agrupación y las brechas, problemas comunes con los enfoques típicos”.

En el futuro, el equipo planea hacer que los puntos MPMC sean aún más accesibles para todos, abordando la limitación actual de entrenar una nueva GNN para cada número fijo de puntos y dimensiones.

“Gran parte de las matemáticas aplicadas utilizan cantidades que varían continuamente, pero los cálculos normalmente nos permiten utilizar solo un número finito de puntos”, afirma Art B. Owen, profesor de estadística de la Universidad de Stanford, que no participó en la investigación. “El campo de la discrepancia, que tiene más de un siglo de antigüedad, utiliza el álgebra abstracta y la teoría de números para definir puntos de muestreo efectivos. Este artículo utiliza redes neuronales de grafos para encontrar puntos de entrada con baja discrepancia en comparación con una distribución continua. Ese enfoque ya se acerca mucho a los conjuntos de puntos de baja discrepancia más conocidos en problemas pequeños y muestra un gran potencial para una integral de 32 dimensiones de las finanzas computacionales. Podemos esperar que este sea el primero de muchos esfuerzos para utilizar métodos neuronales para encontrar buenos puntos de entrada para el cálculo numérico”.

Rusch y Rus escribieron el artículo junto con el investigador de la Universidad de Waterloo Nathan Kirk, el profesor de IA DeepMind de la Universidad de Oxford y ex afiliado de CSAIL Michael Bronstein, y la profesora de Estadística y Ciencias Actuariales de la Universidad de Waterloo Christiane Lemieux. Su investigación fue financiada, en parte, por el programa AI2050 de Schmidt Futures, Boeing, el Laboratorio de Investigación de la Fuerza Aérea de los Estados Unidos y el Acelerador de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, la Fundación Nacional de Ciencias de Suiza, el Consejo de Investigación en Ciencias Naturales e Ingeniería de Canadá y una beca de investigación líder mundial en IA Turing del EPSRC. 

Rachel Gordon | Instituto Tecnológico y de Investigaciones sobre el Derecho del Mar del MIT

Autor

MIT
Autor
MIT

Promover la investigación, las innovaciones, la enseñanza y los eventos y las personas de interés periodístico del MIT a la comunidad del campus, los medios de comunicación y el público en general, Comunicar anuncios del Instituto, Publicar noticias de la comunidad para profesores, estudiantes, personal y ex alumnos del MIT. Proporcionar servicios de medios a los miembros de la comunidad, incluido el asesoramiento sobre cómo trabajar con periodistas, Responder a consultas de los medios y solicitudes de entrevistas...


2024-10-01
Ayudando a los robots a centrarse en los objetos que importan

Un nuevo método llamado Clio permite a los robots mapear rápidamente una escena e identificar los elementos que necesitan para completar un conjunto determinado de tareas.

2024-10-01
La prótesis del futuro simplifica las actividades cotidianas

La primera mano robótica del mundo controlada magnéticamente permite a las personas amputadas realizar tareas habituales.

2024-09-11
Microdrones ultraligeros que funcionan solo con energía solar: el nuevo invento de China para revolucionar el sector

Los desarrolladores han patentado un dron con autonomía de una hora.

2024-09-10
¿Hasta qué punto pueden automatizarse las tareas domésticas?

¿Tendremos más tiempo libre en el futuro? Es muy posible, según un estudio financiado con fondos europeos en el que se afirma que la inteligencia artificial podría reducir drásticamente el tiempo que dedicado en la actualidad a las tareas domésticas.

2024-09-09
Cirugía 4.0: el arte de operar con Ana Otero

El robot da Vinci promete revolucionar la cirugía a nivel internacional. Cada vez más hospitales cuentan con este sistema robótico para ayudar a cirujanos como Ana Otero, especialista senior del Servicio de Cirugía Gastrointestinal del Clínic Barcelona, durante una operación. Como una de las profesionales con más experiencia en este nuevo campo de la cirugía 4.0, nos explica las ventajas que tiene este robot para los pacientes en el podcast "Rivela, Desvelando el Ecosistema Tech".

2024-09-06
Aprendizaje artificial: así enseñan a los robots a “caminar” como los humanos

Mediante simulaciones avanzadas y aprendizaje por imitación, un ingeniero de la Universidad Nacional de Colombia (UNAL) les enseñó a 2 robots humanoides (capaces de moverse sobre dos piernas) a caminar de manera natural y eficiente en un entorno real, lo que hasta ahora ha sido una de las grandes limitaciones en la programación de estas máquinas.