Presentamos una nueva función de pérdida, denominada pérdida GO, para clasificación. La mayoría de los métodos existentes, como la pérdida de centro y la pérdida contrastiva, determinan dinámicamente la dirección de convergencia de las características de la muestra durante el proceso de entrenamiento. En contraste, la pérdida GO descompone la dirección de convergencia en dos componentes mutuamente ortogonales, a saber, direcciones tangencial y radial, y realiza la optimización de forma separada en ellas. Teóricamente, los dos componentes afectan la separación entre clases y la compacidad intraclase de la distribución de las características de la muestra, respectivamente. Por lo tanto, minimizar las pérdidas por separado en ellos puede evitar los efectos de su optimización. En consecuencia, se puede obtener un centro de convergencia estable para cada uno de ellos. Además, asumimos que los dos componentes siguen una distribución gaussiana, lo cual se ha demostrado como una forma efectiva de modelar con precisión las características de entrenamiento para mejorar los efectos de clasificación. Experimentos
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Búsqueda conjuntiva y disyuntiva de palabras clave en datos móviles cifrados en la nube en un sistema de clave pública
Artículo:
Algoritmo de enrutamiento eficiente en energía basado en partición de área igual para redes de sensores inalámbricos circulares.
Artículo:
Agrupación personalizada de etiquetas de música y visualización de recomendaciones
Artículo:
Diseñando una Gestión Eficiente del Hogar Inteligente con Iluminación Inteligente IoT: Un Estudio de Caso
Artículo:
Posicionamiento WiFi basado en la estimación de la orientación del usuario y el reconocimiento de la posición del smartphone portador