logo móvil
Contáctanos

Perturbaciones gaussianas en redes ReLU y la disposición de las regiones de activación

Autores: Daróczy, Bálint

Idioma: Inglés

Editor: MDPI

Año: 2022

Descargar PDF

Acceso abierto

Artículo científico


Categoría

Matemáticas

Subcategoría

Matemáticas generales

Palabras clave

Redes neuronales
Problemas de aprendizaje
Sensibilidad
Estabilidad
Actualizaciones de gradiente
Regiones de activación

Licencia

CC BY-SA – Atribución – Compartir Igual

Consultas: 27

Citaciones: Sin citaciones


Descripción
Artículos recientes indican que las redes neuronales profundas son modelos eficientes para diversos problemas de aprendizaje. Sin embargo, a menudo son altamente sensibles a varios cambios que no pueden ser detectados por un observador independiente. Dado que nuestra comprensión de las redes neuronales profundas con límites de generalización tradicionales aún sigue siendo incompleta, existen varias medidas que capturan el comportamiento del modelo en caso de pequeños cambios en un estado específico. En este documento consideramos perturbaciones gaussianas en el espacio tangente y sugerimos la sensibilidad tangente para caracterizar la estabilidad de las actualizaciones de gradiente. Nos enfocamos en un tipo particular de estabilidad con respecto a cambios en parámetros que son inducidos por ejemplos individuales sin etiquetas conocidas. Derivamos varios límites fácilmente computables y medidas empíricas para redes feed-forward completamente conectadas con ReLU (Unidad Lineal Rectificada) y conectamos la sensibilidad tangente con la distribución de las regiones de activación en el espacio de entrada realizadas por la red.

Documentos Relacionados

Temas Virtualpro