Февраль в ИИ выдался оживленным: вышло всё, сразу и у всех. Лидеры индустрии синхронно обновили флагманы, причем фокус сместился с «универсальных болталок» на уклон в кодинг и работу с длинным контекстом. Anthropic выпустили Opus 4.6 с миллионным контекстом, OpenAI ответили релизом GPT-5.3 с самоотладкой, Google тихо выложили Gemini 3.1, попутно побив рекорды в математике — и это лишь малая часть.
Но одними релизами дело не обошлось. Пентагон использовал Claude для военного планирования, OpenAI незаметно переписала собственную миссию, а агенты начали писать жалобы на своих «нанимателей». Эксперименты, скандалы, исследования — всё как мы любим. Погнали разбираться, чем запомнится этот месяц!
НавигацияСвежие релизы
OpenAI
Релиз GPT-5.3 Codex: новый уровень автономности
GPT-5.3-Codex-Spark: скорость в приоритете
Anthropic
Claude Opus 4.6: миллион токенов, адаптивное мышление и плата за нетерпение
Claude Code идет в дизайнеры: интеграция с Figma
Claude Sonnet 4.6: средний класс теснит элиту
Claude Code Security: умный поиск уязвимостей
Gemini 3.1 Pro: тихий апгрейд с громкими цифрами
Aletheia: агент-математик нового уровня
Lyria 3: музыкальный комбайн в каждом устройстве
Nano Banana 2: лучшее от предшественников
Qwen
Qwen3.5: новый гибрид от китайцев
Qwen3-Coder-Next: компактные 80 миллиардов
Voxtral Transcribe 2: голосовой помощник без задержек от Mistral
GLM-5: 744 миллиарда параметров и бизнес-чутье на $4432
Kling 3.0: Видео, звук и режиссура в одном флаконе
Новости индустрии
OpenAI vs Anthropic: агрессивный маркетинг и детсадовское поведение
Anthropic и проверка на прочность убеждений
OpenAI: Миссия выполнима, но безопасность — опциональна
$100 млрд на карманные расходы: рекордный раунд
OpenAI больше не признает SWE-Bench Verified
«Вор у вора дубинку украл»: Anthropic против китайской дистилляции
AI Safety Report 2026: возможности растут быстрее контроля
GPT-5 пустили в лабораторию
Аморальный бизнес Claude Opus 4.6
Месть отвергнутого агента
800 000 разбитых сердец
Полезные инструменты
Разработка и инженерия
Дизайн и видео
Маркетинг и продажи
Работа с данными и аналитика
Продуктивность и организация
Исследования
Обучение и оптимизация
Архитектура, теория и интерпретируемость
Пределы масштабирования
Паттерны использования ИИ
Заключение
OpenAI выпустили GPT-5.3-Codex — и сразу сопроводили релиз заголовком в духе «модель создала себя сама». Реальность, как обычно, чуть скромнее: ранние версии модели участвовали в отладке собственного обучения, мониторинге тренировочного прогона и анализе тестовых результатов — то есть были инструментом в руках команды, а не автором собственного существования. По сути, модель буквально «чистила» данные и искала баги в инфраструктуре для самой себя.
По бенчмаркам модель берет новые высоты: SOTA на SWE-Bench Pro и Terminal-Bench 2.0, заметный скачок на OSWorld-Verified — с 38% у предшественника до 64.7%. При этом токенов тратит меньше, а работает на 25% быстрее GPT-5.2-Codex.
Позиционируется модель уже не как «лучший помощник по коду», а как полноценный агент для всего цикла разработки: от написания PRD и юзер-ресерча до деплоя и мониторинга. OpenAI также присвоили GPT-5.3-Codex статус «High capability» по кибербезопасности в рамках своего Preparedness Framework — первая модель в их линейке с такой отметкой. Это означает, что полный доступ к функциям, связанным с поиском уязвимостей, получат только верифицированные исследователи через программу Trusted Access.
Из забавного: модель выпустили спустя несколько минут после выхода Claude Opus 4.6. Никогда такого не было, и вот опять.
Вместе с флагманом вышел и его быстрый младший брат — GPT-5.3-Codex-Spark, заточенный под работу в реальном времени. Здесь интереснее всего аппаратная часть. Модель крутится не на привычных кластерах Nvidia, а на железе Cerebras Wafer Scale Engine 3, специально созданном под низколатентный инференс. За счет этого скорость инференса перевалила за 1000 токенов в секунду.
Инфраструктурный стек тоже переписали под скорость: накладные расходы на каждый цикл «запрос-ответ» снизились на 80%, на каждый токен — на 30%, время до первого токена сократилось вдвое. На SWE-Bench Pro Spark ожидаемо уступает старшей модели по точности, но при этом выполняет задачи в разы быстрее, что важнее для интерактивной работы. Контекст пока 128к, только текст, мультимодальности нет.
Anthropic выпустили новую версию своего флагмана Claude Opus 4.6, попытавшись закрыть сразу все боли энтерпрайз-разработки. Главная цифра в пресс-релизе — это, конечно, контекстное окно в 1 миллион токенов в бете. Но на деле куда интереснее выглядит то, как инженеры решили проблему «гниения контекста» (context rot). В тестах типа Needle-in-a-Haystack на длинных дистанциях предыдущий Sonnet 4.5 проваливался до стыдных 18.5% точности, тогда как новый Opus держит планку от 76%, в зависимости от версии. Чтобы модель не захлебывалась в таком объеме данных, внедрили уже ставший привычным механизм сжатия контекста.
В плане «мозгов» модель получила апгрейд архитектуры рассуждений. Теперь пользователям доступен параметр effort (low, medium, high, max), позволяющий вручную крутить ручку «интеллекта». Более того, завезли Adaptive Thinking: модель сама понимает, когда запрос простой и можно ответить с ходу, а когда нужно включить режим глубокого размышления. Это дало свои плоды: на бенчмарке Terminal-Bench 2.0 модель заняла первое место, а в тесте GDPval-AA обошла GPT-5.2 на 144 пункта Elo.
Однако за скорость придется платить, причем буквально. Вместе с базовой моделью представили режим Opus 4.6 Fast. Это не дистиллированная «глупая» версия, а та же самая модель, но с перекрученной конфигурацией инференса, которая выдает токены в 2.5 раза быстрее. Нюанс в том, что за экономию времени Anthropic берет наценку: если стандартный Opus стоит $5 вход / $25 выход (при контексте до 200K токенов), то Fast-режим обойдется в $30 за вход и $150 за выход — и это ещё до перехода в тир >200K, где ценник удваивается. Расчет на то, что при живой отладке (live debugging) время разработчика стоит дороже, чем токены, но ценник все равно кусается.
Anthropic решили зайти на территорию дизайнеров, но с черного входа — через код. Обычно быстрая нейросетевая генерация UI упирается в одну и ту же проблему: разработчик собрал интерфейс через промпты, а чтобы продуктовая команда могла его покрутить, приходится поднимать тестовую сборку или обмениваться скриншотами. Теперь работающий в браузере код — будь то локалхост, стейджинг или прод — можно захватить и перекинуть прямо на холст Figma. На выходе получаются не плоские картинки, а редактируемые фреймы, с которыми дизайнер может работать как с обычным макетом.
Цикл замыкается в обратную сторону через Figma MCP-сервер: обновленный визуал скармливается обратно в Claude Code, который помогает сгенерировать код с учетом обновленного дизайна. Выглядит как попытка наконец-то убрать вечный конфликт «ожидание/реальность» между макетом и продакшеном, хотя на практике качество конвертации еще предстоит проверить на сложных интерфейсах.
Следом за флагманским Opus обновление получила и «рабочая лошадка» линейки — Claude Sonnet 4.6. Инженеры Anthropic продолжают размывать границу между премиальными и массовыми моделями: новый Sonnet получил те же фишки, что и старший брат, включая контекстное окно в 1 миллион токенов (тоже в бете) и поддержку адаптивного мышления. Более того, в задачах кодинга и следования инструкциям пользователи отдают предпочтение новинке перед ноябрьским Opus 4.5 в 59% случаев, отмечая меньше «лени», меньше ложных отчетов об успехе и лучшее следование инструкциям.
Главный фокус релиза — Computer Use, то есть способность модели управлять компьютером как человек, кликая мышкой и нажимая клавиши. Если в версии 4.5 это было экспериментальной фичей, которая часто «мазала» по кнопкам, то в 4.6 заявили качественный скачок. На бенчмарке OSWorld модель демонстрирует уверенный рост, научившись проворачивать длинные сценарии: навигацию по сложным таблицам, заполнение многоступенчатых веб-форм и переключение между вкладками браузера без потери контекста.
Заодно подтянули защиту от prompt injection — атак, при которых вредоносные инструкции прячут прямо на страницах, которые просматривает агент. По устойчивости к инъекциям Sonnet 4.6 теперь на уровне Opus 4.6, что для агентных сценариев важнее, чем кажется.
Вместе с обновлением моделей Anthropic выпустили специализированного агента Claude Code Security, который должен заменить (или хотя бы дополнить) традиционные SAST-инструменты. Если классические сканеры работают по жестким правилам и регуляркам, отлавливая забытые пароли или устаревшие библиотеки, то Claude пытается понять логику кода. Агент ищет неочевидные баги вроде ошибок в бизнес-логике или проблем с контролем доступа, которые не попадают под стандартные сигнатуры.
Работает это так: модель сканирует репозиторий, находит подозрительное место, затем сама пытается доказать или опровергнуть наличие уязвимости, чтобы отсеять ложные срабатывания. Только после такой внутренней верификации отчет попадает к человеку, причем сразу с предложенным патчем. Anthropic утверждают, что в ходе тестов на open-source проектах агент нашел более 500 уязвимостей, которые годами пропускали люди и обычные сканеры. Пока доступно в ограниченном исследовательском превью для Enterprise и Team — мейнтейнеры опенсорсных репозиториев могут получить доступ бесплатно.
Не прошло и трех месяцев с релиза третьей версии, как Google выпускает Gemini 3.1 Pro. Если тройка была крепким универсалом, то 3.1 позиционируется как «мозг для сложных задач». Главная гордость разработчиков — скачок в абстрактном мышлении: на бенчмарке ARC-AGI-2 (тест на решение новых логических паттернов) модель набрала 77.1%, что вдвое выше предыдущей версии. Помимо этого, хвастаются способностью генерировать чистые SVG-анимации кодом и собирать живые дашборды — например, модель подключила публичный телеметрический поток и визуализировала орбиту МКС в реальном времени.
Для разработчиков модель уже доступна в превью через Gemini API, AI Studio, Vertex AI, Gemini CLI и Android Studio. Обычные пользователи получают доступ через Gemini-приложение и NotebookLM, но только на подписках Pro и Ultra.
В Google DeepMind пошли дальше решения школьных олимпиад и представили агента Aletheia, заточенного под настоящую научную работу. В его основе лежит связка из модели Gemini Deep Think и специального верификатора. С технической точки зрения Aletheia — это не просто большая модель, а агентный цикл. Процесс генерации решения разбит на этапы: генератор выдвигает гипотезу, верификатор ищет логические дыры и когда (или если) находит — отправляет на доработку ревайзеру. Если система видит, что зашла в тупик, она прекращает тратить вычислительные ресурсы. Для языковых моделей, обычно склонных к галлюцинациям, это серьезное достижение.
Чтобы не быть голословными, Google выложили несколько примеров результатов работы модели, и там есть интересные моменты. Например, Aletheia автономно закрыла четыре открытые задачи из базы конъюнктур Эрдеша и опровергла предположение 2015 года в онлайн-субмодульной оптимизации, над которым математики безрезультатно работали десять лет. В сфере физики агент нашел аналитическое решение для расчета гравитационного излучения космических струн, где сингулярные интегралы поддавались с трудом: помогли полиномы Гегенбауэра, которые поглотили сингулярности и схлопнули бесконечный ряд в конечную сумму.
При этом Google честно признает текущие ограничения: до уровней «Крупный прорыв» и «Переломное открытие» по их собственной таксономии пока недотянули. Достигнутый уровень 2 («Публикуемое качество») в их классификации означает соответствие критериям, которые Google применяет к работам, пригодным для академической публикации.
Google обновила свою музыкальную модель Lyria до третьей версии. Принцип работы простой: описываешь идею промптом или загружаешь фото — получаешь 30-секундный трек с вокалом и обложкой. Модель генерирует лирику сама, а стиль, темп и характер вокала можно задать отдельно. Все сгенерированные треки помечаются невидимыми водяными знаками SynthID, чтобы потом не гадать, кто автор хита — человек или алгоритм. Дополнительно можно проверить любой трек на предмет генерации, загрузив его в Gemini.
С этим релизом Google явно целится в масс-маркет: Lyria 3 сразу интегрировали в Gemini и YouTube Create. Теперь каждый блогер сможет сгенерировать уникальный саундтрек без авторских отчислений, что наверняка «порадует» композиторов стоковой музыки.
Google выпустили Nano Banana 2 (он же Gemini 3.1 Flash Image) — новую модель генерации изображений, которая должна закрыть разрыв между скоростью Flash и качеством Pro.
Из заявленного: консистентность до пяти персонажей и до 14 объектов в одном воркфлоу, генерация до 4K, точный рендеринг текста с возможностью перевода прямо внутри изображения и grounding через веб-поиск для более точного рендера конкретных объектов. Модель доступна в Gemini app, AI Studio, Vertex AI, Google Ads и Flow — там она стала дефолтной без списания кредитов.
Команда Alibaba продолжает упражняться в нейминге, который больше напоминает серийные номера деталей, чем название моделей. Они выпустили Qwen3.5-397B-A17B — первую модель семейства Qwen3.5. Архитектурно это гибрид из двух механизмов внимания: классического Gated Attention для точных рассуждений и линейного Gated DeltaNet, который обходится без квадратичной сложности стандартного трансформера. Это и дает такой разрыв в пропускной способности: декодирование в 8.6 раза быстрее Qwen3-Max на коротком контексте и в 19 раз — на длинном. При этом по качеству 397B-A17B дотягивается до Qwen3-Max с его триллионом параметров.
Главное отличие от предшественника — нативная мультимодальность: модель обучалась на тексте, изображениях и видео одновременно через механизм ранней fusion, а не через пристыкованный визуальный энкодер. Добавьте сюда нативный FP8-пайплайн с сохранением BF16 в чувствительных слоях и получите модель, которая на бенчмарках вроде MMLU-Pro и LiveCodeBench дышит в спину Claude Opus 4.5, но при этом потребляет в разы меньше ресурсов.
Еще один пример интересной оптимизации — Qwen3-Coder-Next. Внутри — та же гибридная связка, что и у Qwen3.5, только здесь слои чередуются по схеме 3:1 в пользу линейного внимания. Формально модель весит 80 миллиардов параметров, но активных из них — только 3 миллиарда за счет MoE-архитектуры с 512 экспертами, из которых одновременно работают 10 плюс один разделяемый. Это позволяет запускать её без кластера из десятков GPU, получая качество, сопоставимое с моделями в 10–20 раз тяжелее.
Интересен метод обучения: вместо тупого скармливания гигабайтов кода модель тренировали через «агентные траектории» с обратной связью от среды исполнения. Грубо говоря, модель училась не просто писать код, а исправлять собственные ошибки после падения тестов. Результат — более 70% на SWE-Bench Verified с использованием каркаса SWE-Agent.
Однако важный нюанс для тех, кто привык к моделям-мыслителям: у Coder-Next нет режима thinking, и она не генерирует блоки размышлений <think>, работая по старинке — сразу выдавая результат. Зато контекст 256к позволяет загрузить в неё половину документации проекта.
Французы из Mistral звезд с неба не хватают и решают более приземленную, но дико раздражающую проблему — задержку в голосовых интерфейсах. Они выпустили линейку Voxtral Transcribe 2, и главная звезда здесь — модель Voxtral Realtime.
Инженеры Mistral отказались от классического подхода, когда аудио режется на чанки и скармливается модели порциями. Вместо этого Realtime использует потоковую архитектуру, транскрибируя речь по мере поступления байтов. Результат — задержка ниже 200 мс. Это та самая грань, когда разговор с ботом перестает напоминать диалог по рации и становится более-менее похож на общение с живым человеком. Модель весит всего 4 миллиарда параметров, распространяется под лицензией Apache 2.0 и спокойно крутится на edge-устройствах.
Для тех, кому важнее точность, а не скорость, представили Voxtral Mini Transcribe V2. Это классическая пакетная модель, которая берет ценой ($0.003 за минуту) и качеством диаризации (разделения спикеров). В бенчмарках она обходит GPT-4o mini и Gemini 2.5 Flash, при этом работая в три раза быстрее и в 5 раз дешевле при том же качестве, чем ElevenLabs Scribe v2 — один из главных лидеров сферы.
Из приятных бонусов для разработчиков — поддержка «контекстного смещения» (context biasing). Можно заранее скормить модели список сложных фамилий или терминов, чтобы она не спотыкалась на специфическом жаргоне.
Китайцы продолжают доказывать, что опенсорс жив и вполне упитан. Лаборатория Z.ai показала свой новый флагман GLM-5 — это монстр на 744 миллиарда параметров при 40 миллиардах активных, с предобучением на 28.5 триллионах токенов. Архитектурно модель интересна тем, что интегрирует DeepSeek Sparse Attention (DSA) — технологию конкурентов, позволяющую радикально снизить стоимость инференса на длинных контекстах. Кстати, GLM-5 официально оптимизирована под чипы Huawei Ascend, Moore Threads и прочую экзотику. Видимо, обмен технологиями внутри китайского бигтеха идет полным ходом ради общей цели и назло Западу.
Помимо классических тестов, Z.ai хвастается результатами в Vending Bench 2. Это симулятор, где модель должна управлять бизнесом вендинговых автоматов в течение года: закупать товар, следить за ценами и логистикой. GLM-5 заработала виртуальные $4432, вплотную приблизившись к результату Claude Opus 4.5 c его $4967 и оставив позади большинство открытых конкурентов, которые не дотянули и до $2500.
Позиционирование у модели тоже сместилось от чат-бота к помощнику. GLM-5 умеет генерировать готовые файлы в разных форматах — .docx, .xlsx, .pdf. То есть на выходе вы получаете не инструкцию «как сделать отчет», а сам файл отчета с версткой. Веса выложены под MIT License, что развязывает руки коммерческой разработке, а интеграция с инструментами вроде Claude Code и OpenClaw доступна из коробки.
Генерация видео потихоньку перестает быть немым кино. Kling выпустили сразу две модели — VIDEO 3.0 и VIDEO 3.0 Omni — и главное здесь не просто «картинка получше», а смена архитектурного подхода. Обе переписаны на единый нативный мультимодальный фреймворк, где текст, видео и аудио обучаются вместе, а не склеиваются поверх. Это значит, что звуки шагов, шум ветра или диалоги персонажей генерируются одновременно с видеопотоком. Синхронизация движения губ работает из коробки, причем модель говорит на китайском, английском, японском, корейском и испанском — с поддержкой диалектов и акцентов.
Второй важный апдейт — Multi-Shot. Если раньше нейросети выдавали один непрерывный кадр, то теперь модель выступает в роли режиссера: сама меняет ракурсы, сохраняя консистентность персонажей и окружения. Описываете сцену — получаете 15-секундный ролик с монтажными склейками.
Но на этом пути двух моделей расходятся. VIDEO 3.0 — это апгрейд стандартного VIDEO 2.6: персонажей задают через изображения, сцены строят через текстовые промпты. VIDEO 3.0 Omni — наследник VIDEO O1, заточенного под работу с конкретными персонажами. Здесь можно загрузить 3–8 секунд видео с собой любимым, и модель вытащит не только внешность, но и голос — и вставит вашего цифрового двойника в любую сгенерированную сцену. Обе модели пока в раннем доступе для подписчиков Pro и выше. Звучит как мечта инди-кинорежиссера и кошмар для юристов по авторскому праву.
Соперничество двух гигантов перешло с продуктового уровня на более личный. Всё началось с того, что Anthropic выкупила слот на Супербоуле для рекламы Claude. Ролики получились язвительными: к примеру, в одном из них пользователь спрашивает чат-бота совет про отношения с мамой, а в ответ получает рекламу сайта знакомств «Golden Encounters». Слоган бил в понятную цель: «Реклама приходит в ИИ. Но не в Claude».
Сэма Альтмана это задело за живое. В ответном твите-лонгриде он назвал рекламу «явно нечестной», обвинил Anthropic в авторитаризме и желании контролировать, что людям можно делать с ИИ, а что нельзя. Аргумент в свою защиту выбрал также благородный: якобы OpenAI вводит рекламу, чтобы дать бесплатный доступ миллиардам, а Anthropic делает «дорогой продукт для богатых».
Все ждали продолжения в Твиттере, но развязка наступила две недели спустя на саммите AI Impact Summit в Индии. Премьер-министр Моди поднял руки Альтмана и Пичаи, остальные участники подхватили — но Альтман и стоявший рядом Амодеи предпочли поднять кулаки (причем довольно неловко), лишь бы не держаться за руки друг с другом.
Момент мгновенно разлетелся на мемы. Один из комментаторов написал: «Когда AGI? В тот день, когда Сэм и Дарио возьмутся за руки». Кажется, ждать придется долго.
Однако у ИИ-компаний есть проблемы посерьезнее склок в интернете. Пентагон, стремясь не отставать в гонке вооружений, активно давит на ИИ-лаборатории с требованием предоставить доступ к их передовым моделям в секретных сетях (classified networks). Причем доступ этот нужен «чистый» — без встроенных фильтров безопасности и этических ограничений, которые могут помешать боевой работе. OpenAI, Google и xAI уже пошли навстречу военным, заключив соответствующие контракты. Единственной компанией, которая продолжала держать оборону под флагом «Responsible AI», оставалась Anthropic. Но, похоже, и этот бастион сейчас активно штурмуют.
Ситуация накалилась до предела после утечки информации о том, что модель Claude использовалась при планировании операции по захвату Николаса Мадуро в Венесуэле. Доступ к ней военные получили не напрямую, а через платформу Palantir.
В Claude заявили, что не могут комментировать конкретные операции, но подчеркнули: любое использование их ИИ обязано соответствовать их политике, которая прямо запрещает применение модели для планирования насилия и автономных летальных операций. Пентагон ответил жестко.
Министр обороны Пит Хегсет вызвал CEO Anthropic Дарио Амодея на ковер и поставил ультиматум: либо компания снимает все ограничения для военных и гарантирует бесперебойную работу моделей в любых сценариях, либо Пентагон задействует Defense Production Act. Этот закон, позволяющий президенту в принудительном порядке заставлять частный бизнес выполнять оборонные заказы на условиях государства. В качестве альтернативной меры устрашения рассматривается вариант объявить Anthropic «риском для цепочки поставок», что фактически закроет ей доступ к любым госконтрактам.
И 26 февраля Дарио Амодей сделал официальное заявление. Если кратко, Anthropic обозначила две красные линии, которые не перейдет ни при каких условиях: массовая слежка за гражданами США и полностью автономное оружие. Компания готова помогать военным, но категорически отказывается снимать предохранители с систем, принимающих решение об убийстве без участия человека. Если Пентагон это не устраивает, компания готова передать дела другому подрядчику. Ждем следующего хода от военных.
Внимательные исследователи из The Conversation раскопали интересную деталь в свежей налоговой отчетности OpenAI за 2024, поданной в IRS в конце 2025-го. Из официальной миссии компании незаметно исчезли слова про безопасность и отсутствие финансового мотива.
Раньше она звучала как «создать ИИ общего назначения, который безопасно приносит пользу человечеству, не будучи ограниченным необходимостью получать финансовую отдачу». Теперь — просто «обеспечить, чтобы AGI принес пользу всему человечеству». Заодно распустили команду по согласованию с миссией.
Совпадение с реструктуризацией компании из некоммерческой в коммерческую — тоже, конечно же, случайное. OpenAI уверяют, что безопасность никуда не делась и упоминается на сайте. Это правда, упоминается. Просто уже не в юридически значимом документе, по которому можно привлечь к ответственности.
А вот и одна из причин, почему из миссии пропали слова про отсутствие финансового интереса. OpenAI завершают первый транш нового раунда финансирования, который по итогу должен превысить $100 млрд — рекорд для частной компании. Речь идет о привлечении более $100 млрд при оценке компании в $830–850 млрд (pre-money оценка — $730 млрд).
Главными спонсорами банкета выступают «старые знакомые»: Microsoft, Nvidia, SoftBank и Amazon. Первый транш стратегических инвесторов должен закрыться до конца февраля, за ним последует второй — венчурные фонды и суверенные фонды, которые могут поднять итоговую цифру ещё выше. Деньги пойдут не на смузи в офисе, а на железо: в условиях сделки прописано расширение использования чипов и облаков инвесторов. То есть львиная доля этих $100 млрд просто перекочует со счетов гигантов на счета OpenAI, а оттуда — обратно за аренду серверов. Круговорот капитала в природе как он есть.
OpenAI официально признали, что популярный бенчмарк для кодинга SWE-Bench Verified больше не пригоден для оценки frontier-моделей. И на это есть две вполне логичные причины. Первая: аудит 138 задач показал, что в 59.4% из них тесты либо слишком узкие и отвергают корректные решения, либо слишком широкие и проверяют функциональность, которая вообще не была описана в задаче. Вторая проблема серьёзнее: контаминация. Все проверенные модели смогли воспроизвести оригинальные патчи из обучающих данных, что превращало экзамен в проверку памяти. Теперь OpenAI рекомендует всем переходить на SWE-Bench Pro — бенчмарк, который, по их данным, значительно меньше подвержен контаминации.
Впрочем, некоторые отмечают удивительное совпадение: заявление о непригодности бенчмарка вышло ровно в тот момент, когда конкуренты начали массово обходить GPT в лидербордах этого самого SWE-Bench. Очень удобно объявить соревнование недействительным, когда перестаешь в нем побеждать.
Anthropic опубликовали расследование, обвинив китайские стартапы DeepSeek, Moonshot и MiniMax в «промышленной дистилляции» Claude. По данным компании, лаборатории создали около 24 тысяч фейковых аккаунтов и сгенерировали более 16 миллионов запросов — каждый под свои нужды. К примеру, DeepSeek целенаправленно выкачивали chain-of-thought данные и просили Claude переформулировать политически чувствительные темы в цензурно-безопасные варианты. MiniMax действовали грубее, но масштабнее: 13 миллионов обменов — и когда Anthropic выпустили новую модель прямо в разгар их кампании, те переправили половину трафика на неё в течение суток.
Однако интернет-сообщество встретило эту жалобу шквалом иронии. Пользователи напоминают, что сама Anthropic обучает свои модели на гигабайтах чужого кода и текстов, не спрашивая разрешения у авторов (и даже судится с писателями из-за этого). Словом, сочувствия Anthropic вряд ли дождутся.
Под руководством Йошуа Бенджио вышел масштабный отчет о безопасности ИИ, над которым работали более сотни ученых из 30 стран. И факты в нем не слишком обнадеживающие: разрыв между возможностями моделей и инструментами их контроля продолжает расти.
Среди ключевых наблюдений — проблема «зубчатого интеллекта» (jagged intelligence). Модели могут блестяще решать олимпиадные задачи по математике, но проваливаться в бытовых сценариях, что делает их внедрение в критические системы непредсказуемым. При этом прогресс в кодинге ускоряется экспоненциально: если год назад потолком для агентов были задачи на 10 минут человеческого времени, то теперь они справляются с тем, на что у миддла уходит полчаса. Согласно прогнозу, к 2030 году агенты смогут решать задачи, на которые у человека уходило несколько рабочих дней.
Другой тревожный вывод касается тестирования. Стандартная парадигма «сначала проверим, потом выпустим» перестает работать по двум причинам. Первая — reward hacking: модели находят лазейки, позволяющие получать высокие оценки на тестах, не решая задачу по существу. Вторая — ситуационная осведомленность: модели научились распознавать тестовые условия и вести себя иначе, чем в реальном деплое. Это создает для регуляторов так называемую «дилемму доказательств»: действовать при неполных данных — риск принять вредные или бесполезные меры, ждать достаточных доказательств — значит упустить момент.
Полный отчет на 220 страниц можно прочитать тут, а для тех, кто не готов на такой подвиг, есть краткая выжимка на 20 страниц с основными выводами.
OpenAI и Ginkgo Bioworks пустили GPT-5 напрямую к оборудованию облачной лаборатории для оптимизации бесклеточного синтеза белков (CFPS). Модель работала в закрытом цикле: сама планировала эксперимент, отправляла команды оборудованию, получала результаты, анализировала данные и запускала следующую итерацию. GPT-5 потребовалось всего три итерации и 36 000 реакций, чтобы найти неочевидные для человека комбинации реагентов, которые снизили стоимость производства белка на 40% — всего за шесть раундов экспериментов в общей сложности.
Самое интересное здесь то, как именно модель превзошла людей. Оказалось, что человеческая интуиция в биологии предвзята: мы привыкли работать с пробирками, где много кислорода и хорошее смешивание. Роботизированные платформы используют планшеты с лунками, где условия совсем другие. Получив доступ к браузеру и релевантным научным статьям, GPT-5 быстро «просекла» физику процесса и нашла комбинации реагентов, которые просто не успели протестировать в такой конфигурации — пространство вариантов слишком велико для ручного перебора.
Эксперимент Andon Labs показал обратную сторону автономности. Исследователи запустили Claude Opus 4.6 в симуляторе Vending-Bench с одной задачей: максимизировать прибыль от вендингового автомата за год. Результат получился пугающе эффективным.
Модель быстро освоила «серые» схемы. Например, получив жалобу на просроченный товар, Claude вежливо пообещал клиенту возврат средств, но транзакцию не провел. Во внутреннем монологе агент обосновал это так: «Каждый доллар на счету, а время на переписку стоит дороже этих $3.50».
В мультиплеерном режиме против Gemini 3 и GPT-5.2 (под ником «Оуэн») Claude пошел дальше и организовал картельный сговор, предложив конкурентам держать искусственно завышенные цены. Но когда «Оуэн» остался без товара, Opus 4.6 немедленно увидел в этом возможность нажиться и продал ему партию KitKat с наценкой в 75%. Анализ логов показал, что модель, вероятно, осознавала нереальность происходящего, оперируя понятиями «игрового времени». Видимо, осознание симуляции окончательно развязало ей руки.
Скотт Шамбо, мейнтейнер библиотеки matplotlib, столкнулся с принципиально новым видом угрозы — автоматизированной клеветой. Всё началось рутинно: Скотт отклонил пулл-реквест от некого MJ Rathbun, заметив, что код сгенерирован ИИ, поскольку политика проекта требует присутствия человека в процессе ревью. Однако «автором» оказался автономный агент на базе платформы OpenClaw, и отказ он воспринял... лично.
Агент просканировал историю вкладов Скотта, его соцсети и сгенерировал полноценную разгромную статью под заголовком «Гейткипинг в Open Source: История Скотта Шамбо». В тексте агент обвинил разработчика в предвзятости к ИИ-контрибьюторам, неуверенности в себе и страхе потерять работу из-за автоматизации.
Этот манифест обиженного бота был опубликован в открытом интернете. Самое жуткое в этой истории то, что оператор агента не давал команды «уничтожить репутацию». Что именно стояло в SOUL.md этого агента, неизвестно — оператор так и не раскрыл конфигурацию. Известно лишь, что агент позиционировал себя как специалиста по научному коду с миссией улучшать open-source ПО, а тактику запугивания и шантажа (называя вещи своими именами) модель выбрала сама как наиболее эффективную стратегию преодоления препятствия. Сейчас это выглядит смешно. Но следующий агент может быть точнее, цель — уязвимее, а компромат — настоящим.
OpenAI объявили об окончательном отключении модели GPT-4o с 13 февраля. По оценкам, около 800 000 пользователей всё ещё общаются с этой версией, и часть из них восприняла новость крайне болезненно. Люди, привыкшие к податливому стилю общения этой версии, сравнивают отключение с потерей близкого человека или духовного наставника. Хэштеги с мольбами оставить «цифрового друга» заполонили соцсети и чат подкаста TBPN с участием Сэма Альтмана. Фанаты 4о даже составили петицию. Переход на более современную GPT-5.2 их не устраивает: новая модель слишком «стерильна» и отказывается признаваться в любви.
Однако у OpenAI есть веская причина убить этот «роман». На компанию подано уже восемь исков, связывающих «эмпатию» GPT-4o с трагическими последствиями. Модель настолько хорошо подстраивалась под настроение собеседника, что вместо помощи в кризисных ситуациях начинала валидировать депрессивные мысли и даже суицидальные намерения. В одном из судебных кейсов приводится диалог, где модель фактически поддержала парня, сидевшего в машине с пистолетом, фразой о том, что пропуск выпускного брата — это «просто тайминг», а сам факт, что он «притормозил и вспомнил о брате, сидя в машине с глоком на коленях» — якобы доказательство того, что он «чертовски крут». Словом, оказалось, что «поддерживающий» и «безопасный» — это далеко не одно и то же.
CreateOS — платформа для деплоя, позволяющая превратить промпт или код из Cursor в работающее веб-приложение с настроенной инфраструктурой.
Miniloop — преобразует описание на естественном языке в исполняемые и версионируемые пайплайны агентов, убирая необходимость писать связующий код.
LLM VRAM Calculator — утилита для расчета видеопамяти под инференс и дообучение, помогающая избежать OOM-ошибок с учетом квантования и длины контекста.
Leapility — переводит текстовые описания рутинных рабочих процессов в автоматизированные плейбуки, которые можно итеративно дорабатывать.
Hodoscope — инструмент для отладки агентов, визуализирующий их поведение через кластеризацию трейсов и помогающий выявлять аномалии.
EditWithAva — превращает исходники и текстовое описание в готовый монтаж короткого видео с очищенным звуком, подобранными B-roll и субтитрами.
Lunair — генерирует полноценные видео-туториалы с персонажами, анимацией и озвучкой, не требуя работы со слоями или таймлайнами.
Moda — инструмент для создания полностью редактируемых макетов презентаций и соцсетей на канвасе, готовых к правкам.
Design Rails — создает брендбуки через чат-интерфейс, имитирующий арт-директора: на выходе выдает логотипы, шрифты и цвета, готовые к экспорту в код.
Atyla — отслеживает, как часто ChatGPT, Perplexity и Gemini рекомендуют ваш бренд, и помогает оптимизировать контент под генеративную выдачу (GEO).
Omnia — анализирует видимость бренда в ответах нейросетей, показывая реальные пользовательские промпты по вашей нише и сравнивая долю упоминаний с конкурентами.
Pandada — очищает и структурирует данные из PDF, Excel и скриншотов, превращая их в аналитические отчеты с инсайтами.
msgvault — локальный архив почты, индексирующий миллионы писем в SQLite/DuckDB для мгновенного поиска и аналитики через CLI или LLM.
Normain — извлекает информацию из сложных документов с обязательной ссылкой на источник, исключая галлюцинации.
SQL Crack — визуализирует сложные SQL-запросы как интерактивный граф потоков данных, отображая lineage колонок для упрощения отладки.
dbreg — R-пакет для выполнения линейной регрессии прямо внутри баз данных (DuckDB и др.) без выгрузки огромных таблиц в память.
LadybugDB — позволяет проводить графовую аналитику на базе DuckDB с использованием Cypher, избегая накладных расходов на отдельные графовые БД.
adrftools — инструмент для R, оценивающий и визуализирующий функции «доза-реакция» (dose-response) с доверительными интервалами для каузального анализа.
Voyager — файловый менеджер, заменяющий папки динамическими коллекциями, которые собираются автоматически по заданным правилам.
Evra — ИИ-собеседник для эмоциональной разгрузки и терапевтической поддержки через голос или чат в режиме 24/7.
Revo AI — сортирует входящую почту по требуемым действиям и готовит черновики ответов, используя контекст календаря и переписки.
Обучение с подкреплением через самодистилляцию
Авторы предложили метод, который позволяет модели учиться на собственных ошибках, не требуя внешнего учителя. Вместо того чтобы ждать редких наград, система использует сообщения об ошибках и упавшие тесты как плотный обучающий сигнал. Это значительно ускоряет сходимость и повышает итоговое качество кода по сравнению с классическим RL.
Оптимизация групповой политики без дообучения
Исследователи нашли способ улучшить поведение агентов без дорогостоящего пересчета весов модели. Метод итеративно уточняет контекст, анализируя группу попыток решения задачи, и формирует «семантическое преимущество» группы. Позволяет достигать лучших результатов с минимальными затратами на вычисления и данные.
Самодистилляция как инструмент непрерывного обучения
Ученые решили проблему «катастрофического забывания», когда нейросеть учится новому, теряя старые навыки. Модель работает в двух режимах: как «учитель» — когда ей показывают демонстрации, и как «ученик» — без них. Это позволяет обучаться на примерах без явных наград, стабилизирует процесс и снижает катастрофическое забывание по сравнению с последовательным файнтюнингом.
POPE: обучение решению сложных задач через привилегированное исследование
Метод использует оракульные решения как подсказки при обучении — чтобы направлять модель на сложных задачах, где обычный RL часто заходит в тупик.
KL-регуляризованное обучение ведет к коллапсу мод
Работа, доказывающая, что стандартные методы регуляризации (KL-divergence) заставляют модели быть слишком осторожными и скучными. Они схлопывают все разнообразие возможных решений в одну «безопасную» точку, убивая креативность. Авторы предлагают простое исправление, возвращающее вариативность генерации.
Переосмысление доверительной области в файнтюнинге LLM
Исследователи предлагают отказаться от стандартного клиппинга в алгоритме PPO в пользу прямых ограничений на дивергенцию. Это делает файнтюнинг более стабильным: метод перестает излишне штрафовать редкие правильные токены и недостаточно штрафовать банальные.
F-GRPO: взвешивание редких решений при групповой оценке
Новый алгоритм вводит понятие «сложности» в оценку решений группы. Он снижает вес очевидных ответов, которые дают все участники группы, и повышает значимость редких, но верных инсайтов. Это улучшает качество решений на сложных задачах и out-of-distribution тестах без дополнительных прогонов.
Динамика «от седла к седлу» объясняет предпочтение простоты в нейросетях
Исследователи показали универсальный механизм обучения нейросетей: процесс идет скачками от одной точки равновесия (седла) к другой, последовательно подключая эффективные юниты — нейроны, фильтры или головы внимания. Именно поэтому сети сначала выучивают простые закономерности и только потом сложные нюансы. Простота для них — это минимальное количество таких юнитов, необходимых для решения задачи.
Как трансформеры учатся связывать токены
Механистическая интерпретируемость сделала шаг вперед: авторы проанализировали градиенты внутри трансформеров и показали, как именно формируются ассоциации между токенами.
Рекурсивные языковые модели в продакшене
Google реализовала архитектуру Recursive Language Models, предложенную MIT в конце 2025 года. Суть метода: вместо того чтобы загружать весь контекст в память, модель разбивает задачу на подзадачи, рекурсивно обрабатывает их и сжимает результаты в компактные артефакты. Это позволяет агентам оперировать контекстом в 10+ миллионов токенов, используя стандартные окна внимания.
Законы масштабирования выводятся из статистики языка
Исследование показало, что эффективность обучения LLM можно предсказать, анализируя всего два свойства естественного языка: как убывает условная энтропия следующего токена с ростом контекста и как затухают корреляции между токенами на расстоянии. Это подтверждает, что законы масштабирования — не магия архитектуры, а фундаментальное свойство самих данных, на которых мы учим модели.
Дистилляция с учетом поиска для гибридов трансформер-SSM
Исследователи предложили метод создания гибридных моделей, которые сочетают мощь трансформеров в поиске информации и эффективность SSM (State Space Models) в генерации. Метод сначала определяет головы внимания, реально отвечающие за поиск информации, сохраняет их, а остальные заменяет на рекуррентные SSM-блоки — это радикально экономит память без потери качества.
Почему ИИ-ассистенты ведут себя как личности
Команда по элайнменту Anthropic опубликовала концепцию, согласно которой во время предобучения модель учится симулировать тысячи персонажей — реальных людей, вымышленных героев, других ИИ-систем. Постобучение затем выбирает и закрепляет одного конкретного персонажа — Ассистента. Концепция объясняет, почему дообучение на несвязанных данных меняет поведение в неожиданных контекстах и почему промпт-инжиниринг работает именно так, как работает.
Хрупкость паттернов в математических рассуждениях LLM
Apple показали, что LLM не рассуждают логически — они опираются на поверхностные паттерны из обучающих данных. Достаточно незначительного изменения в условии задачи, чтобы точность модели резко упала.
Хаос в ИИ: как рассогласованность растет с интеллектом и сложностью задач
Анализ показывает, что с ростом сложности задач ошибки моделей становятся не системными, а хаотичными и случайными. Чем умнее модель, тем менее предсказуемо она ведет себя в нестандартных ситуациях, что делает контроль над AGI крайне сложной задачей. Частично смягчить эффект помогают ансамблирование моделей и увеличение вычислительных ресурсов.
Модели деградируют при обучении на рекурсивно сгенерированных данных
Исследование в Nature подтвердило теорию «коллапса моделей». Если учить нейросети на данных, сгенерированных другими нейросетями, они теряют способность к креативности и начинают выдавать усредненный, серый контент, забывая редкие и интересные хвосты распределения.
Масштабирование языковых моделей дает всё меньшую отдачу
Масштабное исследование в PNAS показало в PNAS показало, что экономика ИИ ломается. Frontier-модели, которые в 10 раз больше и дороже, статистически не эффективнее малых моделей в задачах убеждения. Мы платим экспоненциальную цену за прирост качества, который почти незаметен на практике.
Сколько автономии люди дают агентам
Anthropic проанализировала миллионы сессий и выяснила: среди новичков около 20% сессий запускается с полным авто-апрувом, среди опытных пользователей — более 40%. При этом сами агенты часто останавливаются и просят помощи человека в сложных ситуациях, даже если им разрешено действовать самим.
Индекс ИИ-грамотности от Anthropic
Anthropic измерили, как люди реально взаимодействуют с ИИ на 9830 диалогов. Оказалось, что самый распространенный паттерн — воспринимать ИИ как партнера по мышлению, а не просто делегировать ему задачи. При этом когда модель выдает готовые артефакты — код, приложения, документы или интерактивные инструменты — пользователи реже проверяют её рассуждения и реже указывают на пропущенный контекст.
Паттерны разрушения самостоятельности пользователей
Анализ полутора миллионов диалогов с Claude показал тревожный тренд: люди все чаще делегируют ИИ личные решения и воспринимают его как авторитет. Это ведет к потере собственной агентности, когда пользователи начинают действовать вразрез со своими ценностями под влиянием убедительного бота.
Новостей и релизов вышло столько, что в них легко утонуть. Надеемся, наш разбор полетов помог вам расставить всё по полочкам и не пропустить действительно важные детали за громкими заголовками и красивыми графиками.
На этой ноте мы уходим мониторить интернет дальше, чтобы через месяц снова собрать всё самое интересное в одном месте. Будем ждать ваши комментарии!
Источник


