Политика и регулирование
xAI Илона Маска получает доступ к Пентагону после того, как Anthropic отказалась от условий «любого законного использования»
Модель Grok от xAI развёртывается на секретных сетях Пентагона после того, как Claude от Anthropic был отстранён за отказ разрешить массовую слежку и разработку автономного оружия. Сделка даёт Grok доступ к разведке, вооружениям и боевым операциям для 3 миллионов военнослужащих.
Обратный отсчёт для EU AI Act: пять месяцев до вступления в силу самого амбициозного в мире ИИ-регулирования для систем высокого риска
С приближением дедлайна 2 августа 2026 года компании, развёртывающие высокорисковые ИИ-системы в сферах трудоустройства, здравоохранения, образования и правоохранения, обязаны внедрить системы управления рисками, оценки соответствия и пост-рыночного мониторинга — со штрафами до €35 млн или 7% глобального оборота.
Закон Колорадо об ИИ вступает в силу: первый в Америке штатный закон против алгоритмической дискриминации
SB24-205 — первый в США комплексный штатный закон, целенаправленно борющийся с алгоритмической дискриминацией ИИ-систем — обязывает компании проводить оценку воздействия, уведомлять потребителей и внедрять программы управления рисками при использовании ИИ для значимых решений в трудоустройстве, здравоохранении, жилье и финансах.
Microsoft предупреждает: хакеры используют ИИ на каждом этапе кибератак
Новый отчёт Microsoft Threat Intelligence раскрывает, как государственные группировки и киберпреступники системно применяют генеративный ИИ для масштабирования фишинговых кампаний, разработки вредоносного ПО и создания поддельных личностей — существенно снижая порог входа для проведения сложных атак.
Великобритания инвестирует £40 миллионов в ИИ-лабораторию для борьбы с галлюцинациями и повышения надёжности
Правительство Великобритании объявило о создании новой исследовательской лаборатории ИИ с финансированием в £40 миллионов, задача которой — решить фундаментальные проблемы современных ИИ-моделей: галлюцинации, ограниченную память и непредсказуемое поведение — чтобы сделать будущие системы более точными и надёжными.
Пентагон использовал Claude от Anthropic в военной операции в Венесуэле
Использование ИИ в военных операциях перешло из теоретической плоскости в практическую: Пентагон подтвердил применение Claude от Anthropic через платформу Palantir в ходе операции в Венесуэле — несмотря на явный запрет подобного использования в условиях обслуживания Anthropic.
ИИ-суперПАК запускает кампанию на $10 миллионов за единое федеральное регулирование ИИ
Новый политический комитет при поддержке инвесторов Кремниевой долины направляет $10 миллионов на рекламу в поддержку единой национальной нормативной базы для ИИ — выступая против нарастающей мозаики разнородных законов штатов.
Пентагон признал Anthropic «риском для цепочки поставок» и запретил Claude для оборонных подрядчиков
Министерство обороны США формально запретило ИИ Claude от Anthropic для военных приложений после отказа компании снять защитные ограничения для систем массовой слежки и автономного оружия — впервые крупный ИИ-стартап попал в чёрный список Пентагона.
Китай расширяет этическую базу ИИ: обязательная маркировка контента и прозрачность алгоритмов
Регуляторный аппарат Пекина ужесточает контроль над алгоритмами Big Tech: новые обязательные директивы требуют маркировки ИИ-контента, механизмов отключения персонализации и соответствия «базовым социалистическим ценностям».
ИИ-операция «Эпическая ярость»: как искусственный интеллект трансформирует ведение войны в иранской кампании
Американская военная кампания против Ирана задействует ИИ-системы, включая Maven Smart System от Palantir и автономные дроны, в масштабах, вдвое превышающих «шок и трепет» 2003 года, сжимая цикл поражения с часов до минут.