Multidimensional Game-Theoretic Attribution of Function of Neural Units
Кто Что Делает в Глубоком Обучении? Многомерная Теоретико-Игровая Атрибуция Функций Нейронных Элементов В данной статье представлена Multiperturbation Shapley-value Analysis (MSA), новая теоретико-игровая структура для понимания вклада отдельных нейронных элементов в моделях глубокого обучения. MSA решает проблемы существующих методов объяснимого ИИ (XAI), которые в основном сосредоточены на входных признаках. Систематически возмущая комбинации нейронных элементов, MSA генерирует Shapley Modes, предоставляя карты вклада для каждого элемента. Метод не зависит от модели и применим к различным архитектурам, от MLP до больших языковых моделей (LLM), таких как Mixtral-8x7B и GAN. Исследование демонстрирует способность MSA выявлять концентрацию вычислений с помощью регуляризации, идентифицировать языковых экспертов в LLM и выявлять иерархии генерации пикселей в GAN. MSA предлагает инструмент для интерпретации, редактирования и сжатия глубоких нейронных сетей путем количественной оценки причинно-следственных взаимодействий элементов через многомерные выходы. Этот подход расширяет понимание за рамки XAI, ориентированного на ввод, позволяя оптимизировать эти мощные модели. Авторы подтверждают MSA с помощью экспериментов на MLP, LLM и GAN, демонстрируя ее универсальность. #ГлубокоеОбучение #ОбъяснимыйИИ #ТеорияИгр #НейронныеСети #Интерпретируемость документ - https://arxiv.org/pdf/2506.19732v1 подписаться - https://t.me/arxivdotorg отправить донаты: USDT: 0xAA7B976c6A9A7ccC97A3B55B7fb353b6Cc8D1ef7 BTC: bc1q8972egrt38f5ye5klv3yye0996k2jjsz2zthpr ETH: 0xAA7B976c6A9A7ccC97A3B55B7fb353b6Cc8D1ef7 SOL: DXnz1nd6oVm7evDJk25Z2wFSstEH8mcA1dzWDCVjUj9e создано с помощью NotebookLM
Кто Что Делает в Глубоком Обучении? Многомерная Теоретико-Игровая Атрибуция Функций Нейронных Элементов В данной статье представлена Multiperturbation Shapley-value Analysis (MSA), новая теоретико-игровая структура для понимания вклада отдельных нейронных элементов в моделях глубокого обучения. MSA решает проблемы существующих методов объяснимого ИИ (XAI), которые в основном сосредоточены на входных признаках. Систематически возмущая комбинации нейронных элементов, MSA генерирует Shapley Modes, предоставляя карты вклада для каждого элемента. Метод не зависит от модели и применим к различным архитектурам, от MLP до больших языковых моделей (LLM), таких как Mixtral-8x7B и GAN. Исследование демонстрирует способность MSA выявлять концентрацию вычислений с помощью регуляризации, идентифицировать языковых экспертов в LLM и выявлять иерархии генерации пикселей в GAN. MSA предлагает инструмент для интерпретации, редактирования и сжатия глубоких нейронных сетей путем количественной оценки причинно-следственных взаимодействий элементов через многомерные выходы. Этот подход расширяет понимание за рамки XAI, ориентированного на ввод, позволяя оптимизировать эти мощные модели. Авторы подтверждают MSA с помощью экспериментов на MLP, LLM и GAN, демонстрируя ее универсальность. #ГлубокоеОбучение #ОбъяснимыйИИ #ТеорияИгр #НейронныеСети #Интерпретируемость документ - https://arxiv.org/pdf/2506.19732v1 подписаться - https://t.me/arxivdotorg отправить донаты: USDT: 0xAA7B976c6A9A7ccC97A3B55B7fb353b6Cc8D1ef7 BTC: bc1q8972egrt38f5ye5klv3yye0996k2jjsz2zthpr ETH: 0xAA7B976c6A9A7ccC97A3B55B7fb353b6Cc8D1ef7 SOL: DXnz1nd6oVm7evDJk25Z2wFSstEH8mcA1dzWDCVjUj9e создано с помощью NotebookLM