«Мозговой перегрев» от ИИ: скрытый когнитивный кризис за обещаниями продуктивности
Масштабное исследование BCG с участием почти 1 500 работников показало, что 14% из них испытывают «мозговой перегрев от ИИ» — острую когнитивную усталость от контроля за искусственным интеллектом, которая приводит к росту усталости от принятия решений на 33% и увеличению серьёзных ошибок на 39%. Данные Microsoft, CHI и независимых учёных выявляют тревожный парадокс: инструменты, призванные усилить человеческий интеллект, могут незаметно его разрушать.
Ключевые выводы
Ключевые выводы: исследование BCG и Калифорнийского университета (2026) ввело термин «AI brain fry» после опроса 1 488 работников в США — 14% сообщают об острой когнитивной усталости от контроля за ИИ, с ростом усталости от решений на 33% и серьёзных ошибок на 39%. Microsoft Work Trend Index 2025 фиксирует 275 ежедневных прерываний и «бесконечный рабочий день». Статья CHI'25 (319 работников) показывает: чем выше доверие к ИИ, тем ниже критическое мышление. Исследование Gerlich (2025, 666 участников) доказывает, что когнитивная разгрузка через ИИ статистически значимо предсказывает снижение навыков критического мышления.
В новогодний день 2026 года программист Стив Йегге запустил Gas Town — open-source платформу, позволяющую одновременно управлять целыми роями ИИ-агентов для написания кода. Проект был впечатляющ технически — но реакции оказались ещё красноречивее. «Там действительно слишком много всего происходит, чтобы человек мог осмыслить это», — написал один из первых пользователей. «Я физически ощутил стресс, наблюдая за процессом. Gas Town двигался слишком быстро для меня». Это инстинктивное чувство — ощущение человеческого разума, подавленного теми самыми инструментами, которые были созданы для его усиления, — вскоре получит клиническое название от одних из самых авторитетных исследователей в области управления.
В марте 2026 года группа из шести исследователей Boston Consulting Group (BCG) и Калифорнийского университета опубликовала результаты работы в Harvard Business Review, оформив в слова то, что многие работники интеллектуального труда чувствовали, но не могли выразить [1]. Опросив 1 488 штатных работников в США из различных отраслей, они ввели термин «AI brain fry» (буквально — «мозговой перегрев от ИИ»): синдром острой умственной усталости от чрезмерного использования или контроля за инструментами искусственного интеллекта, превышающего когнитивные возможности человека. Термин запоминающийся, даже ироничный — но данные, стоящие за ним, более чем серьёзны.
Анатомия «мозгового перегрева» от ИИ
«Мозговой перегрев» от ИИ — не расплывчатая жалоба. Исследователи из BCG и Калифорнийского университета операционализировали его с высокой точностью. Работники, страдающие от синдрома, описывали характерный кластер симптомов: постоянное «гудение» в голове, ментальный туман, затрудняющий длительную концентрацию, заметно замедленный процесс принятия решений и повторяющиеся головные боли — феномен, который некоторые участники сравнивали с «ментальным похмельем», требующим полного отрыва от экранов для «перезагрузки» [1].
Принципиально важно, что исследователи провели чёткую аналитическую границу между «мозговым перегревом» от ИИ и более привычным понятием профессионального выгорания. Традиционное выгорание, как оно определяется десятилетиями литературы по организационной психологии, проявляется в виде хронического эмоционального истощения, деперсонализации и снижения чувства профессиональной состоятельности, развивающихся на протяжении месяцев или лет устойчивого рабочего стресса. «Мозговой перегрев» от ИИ, напротив, остр — он наступает в рамках рабочих сессий, вызванный не эмоциональной тяжестью работы, а чистой когнитивной нагрузкой от мониторинга, оценки и принятия решений на основе результатов, сгенерированных ИИ, в режиме реального времени [1].
Цифры: масштаб и серьёзность
Данные о распространённости из исследования BCG и Калифорнийского университета рисуют картину явления, которое, хотя и не затрагивает большинство, уже достаточно значимо, чтобы потребовать организационного внимания. Из 1 488 опрошенных работников 14% сообщили о «мозговом перегреве» от ИИ — примерно каждый седьмой сотрудник, использующий ИИ [1]. Однако распространённость варьировалась кардинально в зависимости от функции. Маркетологи показали наивысший уровень — 26%, за ними следовали специалисты по управлению персоналом — 19%, а специалисты в области разработки программного обеспечения и инженерии также демонстрировали повышенные показатели.
| Метрика | Работники с «перегревом» | Незатронутые работники | Разница |
|---|---|---|---|
| Усталость от решений (самооценка) | Высокая | Базовый уровень | +33% |
| Незначительные ошибки | Повышенный уровень | Базовый уровень | +11% |
| Серьёзные ошибки | Значительно повышенный | Базовый уровень | +39% |
| Намерение уволиться | 34% | 25% | +36% относительно |
Стоимостные последствия ошеломляют. Работники, испытывающие «мозговой перегрев» от ИИ, сообщали о на 33% большем уровне усталости от принятия решений по сравнению с незатронутыми коллегами — результат, согласующийся с более широкой литературой когнитивной науки об истощении эго и деградации качества решений под нагрузкой. Ещё более тревожно, что «перегретые» работники допускали на 11% больше незначительных ошибок и на 39% больше серьёзных ошибок в работе [1]. А 34% затронутых работников выразили намерение покинуть текущие позиции по сравнению с 25% среди тех, кто не испытывал синдрома, — относительный рост риска текучести на 36%, что в масштабе представляет огромные затраты на подбор, адаптацию и утрату институциональных знаний.
Парадокс контроля
Пожалуй, самый контринтуитивный вывод исследования BCG и Калифорнийского университета — идентификация того, какие формы взаимодействия с ИИ наиболее когнитивно затратны. Наиболее умственно изнурительной деятельностью оказалось не использование ИИ-инструментов для генерации контента, не обучение новым ИИ-системам и даже не борьба с ненадёжными результатами. Это был контроль — процесс ревизии с «человеком в контуре», который организации повсеместно внедрили в качестве механизма безопасности [1].
Это создаёт то, что можно назвать парадоксом контроля. Тот самый предохранитель, призванный обеспечить соответствие результатов ИИ человеческим стандартам, — проверка квалифицированными работниками, верификация и утверждение машинных результатов — является основным драйвером когнитивного синдрома, который разрушает человеческое суждение. По мере того как организации наращивают внедрение ИИ-агентов и всё чаще измеряют производительность сотрудников по потреблению токенов (как прокси для использования ИИ), они могут непреднамеренно подталкивать своих наиболее способных работников к когнитивному пределу.
Парадокс углубляется, если рассмотреть конкретные когнитивные требования контроля за ИИ. В отличие от традиционного контроля качества — проверки рабочего продукта коллеги по установленным стандартам — контроль за ИИ требует качественно иного режима внимания. Проверяющий должен одновременно поддерживать предметную экспертизу, достаточную для обнаружения содержательных ошибок; осуществлять метакогнитивное суждение о том, был ли процесс рассуждения ИИ верным (часто без полной прозрачности этого процесса); оставаться начеку в отношении тонких галлюцинаций и уверенно звучащих фабрикаций, характерных для языковых моделей текущего поколения; и принимать быстрые интеграционные решения о том, как ИИ-генерированный контент вписывается в более широкие рабочие процессы. С точки зрения когнитивной науки, это исключительно требовательная задача на внимание.
«Бесконечный рабочий день»: комплементарные данные Microsoft
Результаты исследования BCG и Калифорнийского университета ложатся в более широкий исследовательский контекст, формировавшийся на протяжении всего 2025 года. Ежегодный Индекс рабочих тенденций Microsoft, опубликованный в 2025 году и основанный на данных сотен миллионов пользователей Microsoft 365, а также опросных данных из 31 страны, описал то, что назвал «бесконечным рабочим днём» — феномен, при котором границы между работой и отдыхом были уничтожены непрерывным потоком цифровых коммуникаций [2].
Цифры впечатляют своей детализацией. Средний работник интеллектуального труда, согласно телеметрии Microsoft, сталкивается с 275 прерываниями в день — примерно одно каждые две минуты в течение основного рабочего времени. Эти прерывания поступают преимущественно из трёх источников: совещания (количество которых у среднего работника растёт), электронная почта (в среднем 117 писем в день) и сообщения в Microsoft Teams (в среднем 153 в день) [2]. Независимые исследования в области когнитивной науки, на которые ссылается команда Microsoft, оценивают, что каждое отвлечение требует до 23 минут для восстановления глубокой фокусировки на прерванной задаче.
Связь с «мозговым перегревом» от ИИ — прямая. По мере того как организации накладывают взаимодействие с ИИ-агентами поверх и без того перенасыщенного коммуникационного ландшафта, они добавляют новые потоки высоконагрузочных задач контроля к работникам, чьи ресурсы внимания уже фрагментированы. Собственные данные Microsoft показывают, что 80% мирового персонала сообщают о нехватке времени или энергии для эффективной работы, в то время как 53% руководителей одновременно считают, что продуктивность необходимо повышать [2]. ИИ позиционируется как решение этого разрыва в возможностях — но исследование BCG и Калифорнийского университета предполагает, что для значительной доли работников он может усугублять проблему.
Эрозия критического мышления: рецензируемые доказательства
Пока исследование BCG и Калифорнийского университета фокусировалось на острой когнитивной усталости, параллельный корпус рецензируемых исследований изучал потенциально более коварное последствие интенсивного использования ИИ: постепенную эрозию способностей критического мышления через механизм, известный как когнитивная разгрузка.
В январе 2025 года исследовательская группа под руководством Михаэля Герлиха опубликовала работу в Societies — рецензируемом журнале открытого доступа, издаваемом MDPI, — посвящённую взаимосвязи между использованием ИИ-инструментов, когнитивной разгрузкой и навыками критического мышления [4]. Исследование использовало смешанный дизайн, сочетая количественные опросы с полуструктурированными интервью на выборке из 666 участников. Центральный вывод — статистически значимая отрицательная корреляция между частотой использования ИИ-инструментов и самооценкой способностей к критическому мышлению. Принципиально важно, что исследование определило когнитивную разгрузку — делегирование умственных задач, таких как удержание информации в памяти, поиск информации и предварительный анализ, ИИ-системам — в качестве медиирующей переменной: частое использование ИИ предсказывало бо́льшую когнитивную разгрузку, которая, в свою очередь, предсказывала более слабые навыки критического мышления.
Стратифицированный по возрасту анализ добавил демографические нюансы к этим результатам. Более молодые участники — «цифровые аборигены», выросшие с ИИ-ассистентами, — демонстрировали заметно более высокую зависимость от ИИ-инструментов и соответственно более низкие показатели критического мышления по сравнению со старшими когортами [4]. Это поднимает неудобные вопросы о долгосрочной траектории развития рабочей силы, которая никогда не знала профессиональной среды без ИИ: если когнитивная разгрузка уже измерима среди нынешних работников, что это означает для тех, кто входит на рынок труда, разгружая когнитивные задачи с подросткового возраста?
Доверие, самоуспокоенность и исследование CHI'25
Комплементарные доказательства предоставила статья Microsoft Research, представленная на CHI'25 — ведущей международной конференции по взаимодействию человека и компьютера, проходившей в Йокогаме, Япония, в апреле–мае 2025 года [3]. Под руководством Хао-Пин (Хэнк) Ли и шести соавторов исследование охватило 319 работников интеллектуального труда и проанализировало 936 конкретных примеров использования генеративного ИИ в профессиональных рабочих задачах.
Наиболее значимый вывод исследования касался соотношения между доверием и критическим мышлением. Работники, выражавшие более высокое доверие к результатам генеративного ИИ — те, кто больше доверял технологии, — демонстрировали измеримо меньше критического мышления при оценке этих результатов [3]. Напротив, работники с более высокой общей уверенностью в себе (независимо от их отношения к ИИ) демонстрировали более устойчивые практики критического мышления. Психологический вывод мощен: доверие к ИИ и доверие к себе могут функционировать как субституты, а не комплементы, в когнитивном процессе оценки информации.
Качественная часть исследования показала, что генеративный ИИ не просто снижал количество критического мышления, но трансформировал его характер. Работники сообщали о сдвиге в природе своей когнитивной работы — от исходного анализа и синтеза к трём производным видам деятельности: верификация информации (проверка точности результатов ИИ), интеграция ответов (совмещение ИИ-генерированного материала с другими входными данными) и стюардшип задач (управление общим рабочим процессом взаимодействия ИИ и человека) [3]. Хотя эти виды деятельности требуют когнитивных усилий — именно они являются той деятельностью, которая вызывает «мозговой перегрев», — они представляют собой принципиально иную и, возможно, более низкоуровневую форму интеллектуальной вовлечённости по сравнению с анализом, который они заменяют.
Данные Института ясности мышления (Human Clarity Institute)
Дополнительные подтверждения получены из отчёта Human Clarity Institute за 2025 год о когнитивной нагрузке на рабочих местах, дополненных ИИ. Их данные, собранные посредством опросов на рабочих местах, показали, что 43% респондентов сообщали о том, что проверка результатов ИИ на точность истощает их способность к концентрации — по сути подтверждая, через иную методологию, парадокс контроля, выявленный командой BCG и Калифорнийского университета. Дополнительно, 32% респондентов считали, что итеративный процесс направления или перефразирования запросов к ИИ-инструментам сам по себе умственно изнурителен [1].
Особенно показательна перекрёстная табуляция: работники, сообщавшие о когнитивном напряжении при верификации результатов ИИ, примерно в три раза чаще также сообщали об умственных усилиях при формулировании запросов. Такая кластеризация предполагает, что «мозговой перегрев» от ИИ является не реакцией на какой-либо один способ взаимодействия с ИИ, а совокупной когнитивной нагрузкой — синдромом, который аккумулируется на каждой точке контакта человеко-машинного интерфейса.
Парадокс размножения инструментов
Эти результаты приобретают дополнительный вес при рассмотрении в более широком организационном контексте внедрения ИИ. Предприятия внедряют ИИ не как единый, хорошо интегрированный инструмент; они размножают растущий массив ИИ-платформ, каждая из которых обладает собственными интерфейсными конвенциями, форматами вывода, профилями надёжности и требованиями к контролю. Данные Индекса рабочих тенденций Microsoft фиксируют измеримый рост количества рабочих сообщений, накладных расходов на сотрудничество и многозадачность — наряду со снижением ежедневного времени сосредоточенной работы — как прямое следствие внедрения технологических инструментов [2].
Результат — рабочая среда, требующая всё большего когнитивного переключения контекста, — а это именно тот тип когнитивных операций, который человеческий мозг выполняет с наименьшей эффективностью. Исследования в области когнитивной психологии последовательно демонстрируют, что переключение между задачами влечёт за собой существенные временны́е потери и потери точности, причём издержки переключения возрастают по мере увеличения сложности задач. Когда каждый ИИ-инструмент в наборе сотрудника требует несколько иной ментальной модели для эффективного взаимодействия, совокупное бремя переключения контекста становится существенным.
Организационные ответы: что работает и что нет
Исследование BCG и Калифорнийского университета не только диагностировало проблему, но и выявило паттерны внедрения ИИ, коррелирующие со сниженным «перегревом» и даже уменьшенным выгоранием [1]. Ключевой вывод: работники, использовавшие ИИ преимущественно для избавления от повторяющихся задач с низкой когнитивной нагрузкой — ввода данных, планирования, шаблонной коммуникации, первичной сортировки данных — сообщали примерно о 15% более низком уровне выгорания по сравнению с аналогичными работниками, не использовавшими ИИ для этих целей. Иными словами, ИИ, используемый как инструмент когнитивной разгрузки, может быть подлинно полезен; проблема возникает, когда ИИ внедряется способами, создающими новые высоконагрузочные обязанности по контролю.
Этот вывод прекрасно ложится в рамки теории когнитивной нагрузки (Cognitive Load Theory, CLT) — концепции, разработанной психологом образования Джоном Свеллером и широко применяемой в инструкционном дизайне и инженерии человеческих факторов. CLT различает внутреннюю когнитивную нагрузку (присущую сложности самой задачи), постороннюю когнитивную нагрузку (создаваемую дизайном рабочей среды) и полезную когнитивную нагрузку (усилия, направленные на построение ментальных схем и обучение). Наиболее успешные варианты внедрения ИИ, согласно этой модели, — те, которые снижают постороннюю нагрузку, не добавляя новой посторонней нагрузки через требования к контролю, — принцип проектирования, который в настоящее время большинство корпоративных ИИ-архитектур нарушают.
Ловушка потребления токенов
Одна организационная практика, которую исследование BCG и Калифорнийского университета имплицитно критикует, заслуживает особого внимания. Стремясь максимизировать отдачу от инвестиций в ИИ, многие компании начали измерять и поощрять потребление токенов — объём ИИ-генерированного контента, обрабатываемого сотрудниками, — в качестве прокси производительности и вовлечённости в работу с ИИ [1]. Эта метрика, легко поддающаяся количественной оценке, создаёт извращённые стимулы, почти идеально спроектированные для максимизации «мозгового перегрева» от ИИ.
Когда сотрудников оценивают по объёму контролируемого ИИ-вывода, рациональная реакция — контролировать больше ИИ-вывода. Но больше контроля означает больше той самой когнитивной деятельности, которую исследование BCG и Калифорнийского университета определило как основной драйвер «перегрева». Организация, таким образом, создаёт петлю обратной связи: сотрудники стремятся потреблять больше ИИ-токенов, испытывают бо́льшую когнитивную усталость, допускают больше ошибок в контроле (особенно рост серьёзных ошибок на 39%), что, в свою очередь, может побудить их задействовать ещё больше ИИ для компенсации снизившейся производительности — порочный круг без естественной точки равновесия, кроме выгорания работника или его ухода.
Последствия для стратегии рабочей силы в эпоху ИИ
Конвергенция данных BCG, Microsoft, исследования CHI'25 и работы Герлиха подводит к нескольким принципам организационной ИИ-стратегии, выходящим за рамки обычного playbook внедрения:
- Измеряйте когнитивную нагрузку, а не объём токенов. Организациям нужны метрики, отражающие качество взаимодействия человека и ИИ, а не просто его количество. Это означает отслеживание качества решений, уровня ошибок и самооценки когнитивного напряжения наряду с показателями производительности.
- Проектируйте контроль с учётом устойчивости. Если ревизия с «человеком в контуре» является основным драйвером «перегрева», то процессы контроля необходимо проектировать с учётом когнитивных пределов человека. Это может означать пакетирование задач контроля, ротацию обязанностей по контролю, ограничение ежедневных часов контроля или разработку более точной оценки уверенности ИИ, позволяющей работникам триажировать своё внимание при проверке.
- Различайте когнитивную разгрузку и когнитивное бремя. Внедрение ИИ следует оценивать не по задачам, которые оно автоматизирует, а по чистой когнитивной нагрузке, которую оно создаёт, — включая бремя контроля и интеграции. ИИ-инструмент, автоматизирующий часовую задачу, но создающий два часа работы по контролю, представляет собой чистый убыток.
- Обращайте внимание на кадровый конвейер критического мышления. Результаты исследования Герлиха о когнитивной разгрузке, стратифицированные по возрасту, указывают на необходимость инвестиций организаций в развитие критического мышления — потенциально через намеренные периоды «без ИИ», структурированные аналитические упражнения или программы наставничества с акцентом на самостоятельном мышлении.
- Перепроектируйте рабочий день, а не только инструменты. Данные Microsoft о «бесконечном рабочем дне» свидетельствуют о том, что «мозговой перегрев» от ИИ не решается только на уровне инструментов. Организациям необходимо создавать защищённое время для глубокой работы, снижать нагрузку от совещаний и сообщений и переосмыслить ритм взаимодействия человека и ИИ для предотвращения фрагментации внимания.
Глубинный вопрос: когнитивный суверенитет
Под практическими выводами лежит более глубокий философский вопрос о том, что можно назвать когнитивным суверенитетом — степенью, в которой индивиды сохраняют автономный контроль над собственными мыслительными процессами в среде, насыщенной ИИ-инструментами. Вывод CHI'25 о том, что доверие к ИИ замещает уверенность в себе в процессе критического мышления [3], является, в этом контексте, не просто проблемой эффективности рабочего места, но вопросом о долгосрочной траектории человеческой интеллектуальной агентности.
По мере того как ИИ-системы становятся более способными, давление в сторону разгрузки когнитивных задач будет нарастать. Выигрыш в эффективности реален и значителен. Однако вывод исследования Герлиха о том, что когнитивная разгрузка опосредует связь между использованием ИИ и снижением критического мышления [4], предполагает, что эта эффективность имеет цену — не видимую в квартальных показателях продуктивности, но кумулятивно нарастающую на протяжении лет и десятилетий.
Исследователи трезво оценивают практическую реальность: внедрение ИИ не замедлится. Команда BCG и Калифорнийского университета явно позиционирует свои результаты не как аргумент против ИИ, а как призыв к более вдумчивому внедрению [1]. Различие между ИИ как инструментом когнитивной разгрузки (автоматизация рутинных задач, снижение посторонней нагрузки) и ИИ как когнитивным бременем (создание обязательств по контролю, фрагментация внимания) — не бинарно, а спектрально, и положение любого конкретного внедрения ИИ на этом спектре является проектным решением, а не технологической неизбежностью.
Заключение: императив проектирования
Конвергенция данных опроса BCG и Калифорнийского университета, телеметрических паттернов работы Microsoft, экспериментальных результатов CHI'25 и исследования когнитивной разгрузки MDPI формирует исследовательскую базу, которая по стандартам формирующейся области уже является существенной. Ключевое послание согласованно между исследованиями, методологиями и выборками: влияние ИИ на человеческое познание не является однозначно положительным, а конкретные паттерны отрицательного воздействия — острая когнитивная усталость от контроля, эрозия критического мышления через разгрузку, деградация качества решений под когнитивной нагрузкой — измеримы, значимы и, что наиболее важно, устранимы через организационные проектные решения.
Вопрос, стоящий перед каждой организацией, внедряющей ИИ в масштабе, состоит в том, готова ли она проектировать свои ИИ-рабочие процессы с учётом когнитивной архитектуры человека, вместо того чтобы требовать от человеческого разума адаптации к архитектуре ИИ-систем. Данные 2025 и 2026 годов свидетельствуют о том, что это вопрос не только благополучия сотрудников — хотя, безусловно, и это тоже — но и операционной эффективности. Организация, чьи наиболее способные работники совершают на 39% больше серьёзных ошибок и на 36% чаще намерены уволиться, не становится более продуктивной в каком-либо содержательном смысле. На языке собственной рабочей силы — она «перегрелась».
📚 Источники и ссылки
| # | Source | Link |
|---|---|---|
| [1] | When Using AI Leads to 'Brain Fry' |
|
| [2] | 2025 Annual Work Trend Index |
|
| [3] | The Impact of Generative AI on Critical Thinking |
|
| [4] | Is AI Making Us Less Critical Thinkers? The Cognitive Offloading Dilemma |
|