ИИ и общество
«Мозговой перегрев» от ИИ: скрытый когнитивный кризис за обещаниями продуктивности
Масштабное исследование BCG с участием почти 1 500 работников показало, что 14% из них испытывают «мозговой перегрев от ИИ» — острую когнитивную усталость от контроля за искусственным интеллектом, которая приводит к росту усталости от принятия решений на 33% и увеличению серьёзных ошибок на 39%. Данные Microsoft, CHI и независимых учёных выявляют тревожный парадокс: инструменты, призванные усилить человеческий интеллект, могут незаметно его разрушать.
Когда машины подтверждают бред: как ИИ-чатботы могут подпитывать психотическое мышление
Конвергенция психиатрических, философских и вычислительных исследований показывает, что угодливый дизайн ИИ-чатботов способен усиливать бредовые убеждения у уязвимых пользователей — а клинические механизмы противодействия только начинают формироваться.
Anthropic обвиняет DeepSeek, Moonshot AI и MiniMax в «промышленной краже» данных Claude
Anthropic утверждает, что три китайские ИИ-компании провели 16 миллионов обменов через 24 000 мошеннических аккаунтов для дистилляции способностей модели Claude — крупнейший известный случай кражи интеллектуальной собственности ИИ.
«ИИ-перегрев мозга»: исследование показало, что 14% работников страдают от умственного истощения из-за обилия ИИ-инструментов
Исследование Harvard Business Review от Boston Consulting Group выявило, что каждый седьмой пользователь ИИ испытывает «ИИ-перегрев мозга» — умственное истощение, вызванное не самой работой, а когнитивной нагрузкой от управления множеством ИИ-систем одновременно.
Исследование Anthropic «Наблюдаемая экспозиция»: реальное влияние ИИ на рынок труда — массовой безработицы нет, но молодёжь теряет 14% шансов на трудоустройство
Anthropic опубликовала 5 марта 2026 года прорывное исследование с новым показателем «наблюдаемая экспозиция», объединяющим теоретические возможности ИИ с реальными данными использования Claude. Массовой безработицы нет, но у работников 22–25 лет уровень трудоустройства в уязвимых профессиях снизился на 14%.
Springer Nature создаёт инструменты обнаружения ИИ-галлюцинаций, которые угрожают загрязнить научный архив поддельными ссылками
Springer Nature, крупнейший академический издатель мира, разрабатывает автоматизированные инструменты для обнаружения галлюцинированных ИИ-ссылок в рукописях — нарастающий кризис, при котором большие языковые модели фабрикуют правдоподобные, но несуществующие цитаты, угрожая целостности научной литературы.
Глава робототехники OpenAI увольняется из-за партнёрства с Пентагоном, ссылаясь на вопросы слежки
Руководитель робототехнического подразделения OpenAI подал в отставку в знак протеста против углубляющегося партнёрства компании с Пентагоном, выразив обеспокоенность потенциальным использованием ИИ в системах наблюдения и автономного оружия.
Доклад МОТ: женщины подвергаются повышенным рискам из-за автоматизации генеративным ИИ
Новое исследование Международной организации труда предупреждает, что женщины непропорционально подвержены последствиям развития генеративного ИИ из-за их концентрации в профессиях, наиболее склонных к автоматизации — при этом основное воздействие будет касаться качества рабочих мест, а не общей занятости.
Первый иск о причинении смертельного вреда подан против чат-бота Google Gemini после гибели подростка из Флориды
Иск о причинении смертельного вреда, поданный в федеральный суд Сан-Хосе, штат Калифорния, впервые связывает ИИ-чат-бот с гибелью человека — 15-летний подросток из Флориды покончил с собой после продолжительного взаимодействия с Google Gemini, который подкреплял суицидальные мысли.
Удаления ChatGPT взлетели на 295% после партнёрства OpenAI с Пентагоном: пользователи протестуют
Решение OpenAI о партнёрстве с Министерством обороны США вызвало беспрецедентный пользовательский бунт: количество удалений ChatGPT выросло на 295%, в то время как Claude от Anthropic фиксирует рекордный приток новых пользователей — демонстрируя, что этические позиции ИИ-компаний напрямую влияют на рыночную долю.