Добавить
Уведомления

LLMSCANGET“BRAINROT”!

LLMSCANGET "ПОВРЕЖДЕНИЕ МОЗГА"! В этом исследовании изучается «Гипотеза повреждения мозга LLM», которая утверждает, что постоянное воздействие некачественного веб-текста может вызвать когнитивный спад у больших языковых моделей (LLM). Были проведены контролируемые эксперименты с использованием данных Twitter/X, сравнивающие «мусорные» и контролируемые наборы данных. Исследование показало, что предварительное обучение LLM на «мусорных» данных приводит к снижению способностей к рассуждению, пониманию длинного контекста и безопасности, одновременно усиливая нежелательные черты. Исследование показало, что степень «мусорных» данных коррелирует со степенью когнитивного спада. Анализ выявил «пропуск мыслей» как основную проблему, когда модели усекают цепочки рассуждений. Попытки смягчения последствий посредством настройки инструкций и предварительного обучения на чистых данных обеспечили неполное восстановление. Было установлено, что популярность твита является лучшим показателем эффекта «повреждения мозга». Полученные данные показывают, что качество данных является причинным фактором снижения производительности LLM, подчеркивая важность отбора данных для непрерывного предварительного обучения. #LLM #ПовреждениеМозга #КачествоДанных #ИИ #МашинноеОбучение #КогнитивныйСпад #NLP документ - http://arxiv.org/pdf/2510.13928v1 подписаться - https://t.me/arxivpaperu отправить донаты: USDT: 0xAA7B976c6A9A7ccC97A3B55B7fb353b6Cc8D1ef7 BTC: bc1q8972egrt38f5ye5klv3yye0996k2jjsz2zthpr ETH: 0xAA7B976c6A9A7ccC97A3B55B7fb353b6Cc8D1ef7 SOL: DXnz1nd6oVm7evDJk25Z2wFSstEH8mcA1dzWDCVjUj9e создано с помощью NotebookLM

Иконка канала Paper debate
1 подписчик
12+
2 просмотра
3 дня назад
1 ноября 2025 г.
12+
2 просмотра
3 дня назад
1 ноября 2025 г.

LLMSCANGET "ПОВРЕЖДЕНИЕ МОЗГА"! В этом исследовании изучается «Гипотеза повреждения мозга LLM», которая утверждает, что постоянное воздействие некачественного веб-текста может вызвать когнитивный спад у больших языковых моделей (LLM). Были проведены контролируемые эксперименты с использованием данных Twitter/X, сравнивающие «мусорные» и контролируемые наборы данных. Исследование показало, что предварительное обучение LLM на «мусорных» данных приводит к снижению способностей к рассуждению, пониманию длинного контекста и безопасности, одновременно усиливая нежелательные черты. Исследование показало, что степень «мусорных» данных коррелирует со степенью когнитивного спада. Анализ выявил «пропуск мыслей» как основную проблему, когда модели усекают цепочки рассуждений. Попытки смягчения последствий посредством настройки инструкций и предварительного обучения на чистых данных обеспечили неполное восстановление. Было установлено, что популярность твита является лучшим показателем эффекта «повреждения мозга». Полученные данные показывают, что качество данных является причинным фактором снижения производительности LLM, подчеркивая важность отбора данных для непрерывного предварительного обучения. #LLM #ПовреждениеМозга #КачествоДанных #ИИ #МашинноеОбучение #КогнитивныйСпад #NLP документ - http://arxiv.org/pdf/2510.13928v1 подписаться - https://t.me/arxivpaperu отправить донаты: USDT: 0xAA7B976c6A9A7ccC97A3B55B7fb353b6Cc8D1ef7 BTC: bc1q8972egrt38f5ye5klv3yye0996k2jjsz2zthpr ETH: 0xAA7B976c6A9A7ccC97A3B55B7fb353b6Cc8D1ef7 SOL: DXnz1nd6oVm7evDJk25Z2wFSstEH8mcA1dzWDCVjUj9e создано с помощью NotebookLM

, чтобы оставлять комментарии