Масштабный опрос Anthropic об ИИ: 80 508 человек из 159 стран рассказали о своих надеждах и страхах
Крупнейшее качественное исследование отношения к ИИ — проведённое ИИ-интервьюером на 70 языках — выявило 67% глобального оптимизма. Но главный страх — не потеря работы, а ненадёжность. Развивающиеся страны видят в ИИ инструмент равенства, богатые — угрозу когнитивной атрофии и управляемости.
Ключевые выводы
Ключевые выводы: • Anthropic опросила 80 508 пользователей Claude из 159 стран на 70 языках с помощью «Anthropic Interviewer» — крупнейшее мультиязычное качественное исследование ИИ. • 67% респондентов выразили позитивное отношение к ИИ, топ-аспирация — профессиональное совершенство (18,8%). • Страх №1 — ненадёжность (26,7%), а не потеря работы (22,3%). Когнитивная атрофия и потеря автономии замыкают тройку. • Выявлен «разрыв настроений»: развивающиеся страны видят ИИ как уравнитель возможностей, богатые — беспокоятся о регулировании и рабочих местах. • 81% заявили, что ИИ уже помог достичь целей. 97,6% удовлетворённость участников подтверждает методологию ИИ-интервьюера.
Что произойдёт, если спросить восемьдесят тысяч человек из 159 стран — на 70 языках мира — честно рассказать о своём отношении к искусственному интеллекту? Вы получите самую полную качественную карту глобального восприятия ИИ, когда-либо собранную. В декабре 2025 года Anthropic развернула специализированную версию своей модели Claude под названием «Anthropic Interviewer» для проведения структурированных, адаптивных индивидуальных разговорных интервью в масштабе, недостижимом для любой команды живых исследователей. Результаты, опубликованные в марте 2026 года, ставят под сомнение сразу несколько доминирующих нарративов о том, как мир относится к ИИ — и раскрывают куда более нюансированную картину, чем предполагают шокирующие заголовки.
Масштаб: беспрецедентный и осознанный
Одни только цифры требуют внимания: 80 508 участников. 159 стран. 70 языков. Все опрошены за одну неделю. Это не анкета с галочками и не опрос в Twitter — каждый участник вёл структурированный диалог с ИИ-интервьюером, который мог задавать уточняющие вопросы, зондировать глубже и адаптироваться к культурному контексту в реальном времени. Результат — приблизительно 80 500 богатых качественных точек данных, по глубине ближе к личному интервью, чем к традиционному ответу на опрос.
Сама методология — уже веха. Anthropic фактически использовала ИИ для изучения того, как люди относятся к ИИ — рекурсивный подход, который компания открыто признаёт источником систематической ошибки отбора (все участники были пользователями Claude, то есть уже нашли в ИИ достаточную ценность для регулярного использования). Но колоссальный масштаб и языковое разнообразие частично компенсируют это ограничение, создавая, по всей вероятности, наиболее географически и лингвистически инклюзивное исследование восприятия ИИ на сегодняшний день. Уровень удовлетворённости участников 97,6% свидетельствует, что формат ИИ-интервьюера был не просто принят, а активно оценён респондентами — находка с серьёзными последствиями для будущего масштабных социальных исследований.
Главный результат: 67% оптимизма — но не такого, как вы думаете
Две трети респондентов выразили в целом позитивное отношение к ИИ. Но этот оптимизм — не наивный техно-утопизм, который любят карикатурить критики. Топ-аспирация, о которой заявили участники (18,8%), — профессиональное совершенство: использование ИИ для обработки рутинных задач, чтобы сосредоточиться на более ценной, стратегической работе. Это не желание быть заменённым. Это желание быть возвышенным. Участники описывали стремление к ИИ как «партнёру по мышлению», инструменту для возвращения времени, потерянного на административные задачи, и пути к фокусировке на работе, которая определяет их профессиональную идентичность.
Данные об аспирациях рисуют портрет пользователей, которые скорее прагматичны, чем идеалистичны. Личностная трансформация, управление жизнью и «свобода времени» близко следовали в списке мотиваций. А 81% респондентов сообщили, что ИИ уже помог им достичь конкретных целей — прежде всего через рост продуктивности, доступ к информации и возможность взаимодействовать с системами и знаниями, которые ранее казались недоступными. Это не спекуляции о будущем потенциале. Это измерение воспринимаемой текущей ценности.
Главный страх — не работа. А доверие.
Возможно, самый значимый результат ставит под сомнение доминирующий медийный нарратив о страхе перед ИИ. Когда 80 508 человек спросили о самых глубоких опасениях, потеря работы не заняла первое место. Страх номер один — ненадёжность, которую указали 26,7% респондентов. Это включает галлюцинации, сфабрикованные цитаты, уверенно неправильные ответы и фундаментальную трудность понимания, когда можно доверять выводам ИИ-системы. Для пользователей, которые уже интегрировали ИИ в профессиональные рабочие процессы, вопрос не в том, заберёт ли ИИ их работу — а в том, допустит ли ИИ критическую ошибку, за которую отвечать придётся им.
Потеря работы заняла второе место с 22,3%, за ней — утрата человеческой автономии с 21,9%: тревога от нарастающей зависимости от ИИ-систем до степени утраты способности функционировать без них. Но четвёртый по рейтингу страх, возможно, наиболее философски значим: когнитивная атрофия, которую указали примерно 16–17% респондентов. Это страх, что ИИ не просто автоматизирует задачи — он разрушает ментальные мышцы, необходимые для их выполнения. Если ИИ пишет ваши письма, потеряете ли вы со временем способность хорошо писать? Если ИИ отлаживает ваш код, деградирует ли ваша интуиция отладки?
| Ранг | Опасение | Доля | Описание |
|---|---|---|---|
| 1 | Ненадёжность | 26,7% | Галлюцинации, фейковые цитаты, уверенно неправильные ответы |
| 2 | Потеря работы | 22,3% | Экономическая нестабильность, автоматизация целых категорий профессий |
| 3 | Утрата автономии | 21,9% | Чрезмерная зависимость, потеря контроля над решениями |
| 4 | Когнитивная атрофия | ~16–17% | Деградация критического мышления, утрата навыков из-за неиспользования |
| 5 | Управление и приватность | ~12% | Пробелы в регулировании, слежка, компрометация данных |
Феномен «света и тени»: зловещая долина доверия к ИИ
Исследователи Anthropic выявили повторяющийся паттерн, который они назвали «свет и тень» (light and shade) — наблюдение, что функции, которые пользователи ценят больше всего в ИИ, — это именно те функции, которые вызывают их наиболее глубокие тревоги. Пользователи, ценящие продуктивность ИИ, одновременно боятся зависимости. Те, кто ценит ИИ как инструмент эмоциональной поддержки, опасаются, что эта зависимость атрофирует их способность к самостоятельной эмоциональной обработке. Родители, ценящие ИИ-обучение для детей, беспокоятся, что оно подорвёт формирование подлинного понимания.
Эта двойственность — не противоречие, а структурная особенность отношения людей к мощным инструментам. Чем ближе технология подходит к подлинной полезности, тем острее страх того, что произойдёт, когда она откажет, будет изъята или незаметно изменит своих пользователей. Данные Anthropic свидетельствуют, что индустрия ИИ входит в фазу, когда тревога пользователей обусловлена уже не незнакомством с ИИ — а близостью с ним. Люди, которые боятся ИИ больше всего, — это не те, кто никогда им не пользовался. Это те, кто пользуется им каждый день и прекрасно видит, насколько зависимыми они стали.
Глобальный разрыв: уравнитель возможностей vs угроза статус-кво
Пожалуй, наиболее поразительный структурный паттерн в данных — это резкое расхождение в восприятии ИИ между развивающимися и богатыми странами. В Субсахарской Африке, Латинской Америке и Южной Азии респонденты в подавляющем большинстве описывали ИИ как «уравнитель возможностей» — лестницу к перспективам, которые география и инфраструктура прежде им отказывали. Пользователи в этих регионах говорили об ИИ как инструменте предпринимательства без капитала, образования без университетов, профессиональных навыков без формальных программ обучения и доступа к глобальным рынкам без физического присутствия в богатых странах.
В Северной Америке, Западной Европе и Океании профиль настроений инвертировался. Респонденты из богатых стран значительно чаще выражали обеспокоенность провалами в управлении, пробелами в регулировании, слежкой и укреплением существующих экономических иерархий. Там, где пользователи из развивающихся стран видели в ИИ мост к возможностям, пользователи из развитых стран часто опасались его как механизма дальнейшей консолидации власти теми, кто уже ею обладает.
Вопрос методологии: может ли ИИ интервьюировать людей об ИИ?
Рекурсивная методология исследования — использование ИИ-системы для интервьюирования людей об их чувствах к ИИ-системам — одновременно является его величайшей инновацией и наиболее очевидной уязвимостью. Anthropic Interviewer был разработан для проведения адаптивных разговоров на естественном языке, способных зондировать нюансированные «второстепенные» инсайты: не только что люди думают, но почему они так думают. Уровень удовлетворённости 97,6% говорит о том, что участники сочли формат комфортным и эффективным — многие, предположительно, более комфортным, чем с живым интервьюером, в силу сниженного социального давления.
Однако систематическая ошибка отбора реальна. Все 80 508 участников были существующими пользователями Claude — людьми, которые уже самостоятельно выбрали регулярное использование ИИ. Исследование фиксирует взгляды ИИ-вовлечённого населения, а не ИИ-скептиков или ИИ-наивной аудитории. Anthropic открыто это признаёт, но это критически важная оговорка при интерпретации цифры в 67% оптимизма. Вопрос о том, что чувствуют остальные семь миллиардов, остаётся во многом без ответа. Но то, что исследование фиксирует — с необычной глубиной и масштабом — это как наиболее активные пользователи ИИ в мире думают о технологии, на которой строят свои рабочие процессы.
Что это значит для индустрии
Для ИИ-компаний наиболее практически значимый результат опроса — первенство проблемы доверия. Когда ненадёжность опережает потерю работы как главное опасение на более чем четыре процентных пункта, это сигнализирует: следующее поле конкурентной битвы — не возможности, а надёжность. Пользователи уже впечатлены тем, что ИИ может делать. Им нужна уверенность, что он не будет выдумывать, галлюцинировать или молча ошибаться. Компании, которые решат проблему доверия первыми — через лучшую калибровку, прозрачную сигнализацию неопределённости и надёжные системы цитирования — скорее всего, обретут наиболее устойчивую лояльность пользователей.
Данные по развивающемуся миру содержат стратегический сигнал, который индустрия в значительной степени недооценивает. Если наиболее восторженные пользователи ИИ находятся в регионах, где технология воспринимается как выравнивание экономического поля, то ИИ-компании, инвестирующие в мультиязычность, развёртывание при низкой пропускной способности и культурно адаптивные интерфейсы, позиционируют себя на крупнейших неосвоенных рынках планеты. Опрос свидетельствует, что будущее внедрения ИИ может определяться не в Сан-Франциско или Лондоне — а в Лагосе, Сан-Паулу и Мумбаи.
Наконец, опасение когнитивной атрофии заслуживает серьёзного внимания со стороны дизайнеров продуктов и политиков. Если примерно каждый шестой активный пользователь ИИ уже опасается, что технология разрушает его способность к самостоятельному мышлению, — это не маргинальная озабоченность, а формирующийся вопрос общественного здоровья. Как проектируются ИИ-инструменты — поощряют ли они активное вовлечение или пассивное потребление ответов — может оказаться столь же важным, как и их сырые возможности.
Общая картина
Опрос Anthropic приходится на момент, когда разрыв между дискурсом об ИИ и опытом использования ИИ никогда не был шире. Публичная дискуссия об искусственном интеллекте доминируется двумя крайними позициями: утопическое обещание безграничной продуктивности и дистопическая угроза массовой безработицы. То, что раскрывают 80 508 реальных пользователей из 159 стран, — нечто куда более интересное, чем обе крайности: население, которое активно использует, реально извлекает выгоду и одновременно глубоко обеспокоено технологией, вплетшейся в ткань повседневной профессиональной жизни менее чем за три года.
То, что эта нюансированная реальность была обнаружена ИИ, интервьюирующим людей об ИИ, — либо убедительное доказательство аналитической мощи технологии, либо начальная сцена философского парадокса, с которым мы ещё не полностью разобрались. Вероятно, и то, и другое.
📚 Источники и ссылки
| # | Source | Link |
|---|---|---|
| [1] | Introducing Anthropic Interviewer |
|
| [2] | Anthropic AI Survey Analysis |
|
| [3] | Anthropic Survey: 80K Users Reveal AI Hopes and Fears |
|
| [4] | Pew Research Center: Public Attitudes Toward AI |
|