Consideramos un problema de optimización estocástica continuo submodular a gran escala, que surge naturalmente en muchas aplicaciones como el aprendizaje automático. Debido a los datos de alta dimensionalidad, el cálculo del vector gradiente completo puede volverse prohibitivamente costoso. Para reducir la complejidad y los requisitos de memoria, proponemos un algoritmo estocástico de proyección de gradiente de bloques coordenados para maximizar funciones submodulares continuas, que elige un subconjunto aleatorio del vector gradiente y actualiza las estimaciones a lo largo de la dirección del gradiente positivo. Demostramos que las estimaciones de todos los nodos generados por el algoritmo convergen a algunos puntos estacionarios con probabilidad 1. Además, mostramos que el algoritmo propuesto logra la garantía de aproximación ajustada después de iteraciones para funciones DR-submodulares eligiendo tamaños de paso apropiados. Además, también demostramos que el algoritmo logra la garantía de aproximación ajustada después de iteraciones para funciones débilmente DR-submodulares con el parámetro
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Enfoques dinámicos para soluciones multiservicio
Artículo:
FaceFilter: Identificación facial con Aprendizaje Profundo y Algoritmo de Filtro
Artículo:
Nuevos Esquemas de Defensa para la Inteligencia Artificial Implementada en un Entorno de Computación en el Borde
Artículo:
Método de reconocimiento de defectos en el revestimiento de túneles basado en aprendizaje profundo
Artículo:
SW-LZMA: Implementación paralela de LZMA basada en el procesador many-core SW26010