Я уже дописал статью и отправил ее публиковаться и тут же прочитал пост в канале одного разработчика LLM, которому Claude Code сообщил, что нужного ему параметра в библиотеке не существует (на самом деле он давно есть). В общем, если вам приходилось убеждать LLM, что президент США опять Дональд Трамп, а она сама существует, хотя и уверена, что самая свежая ее версия вышла в 2024 году, то вот вам текст, как я это почти победил. Или, по крайней мере, сильно снизил число собственных усилий.

Пекин одобрил продажу чипов H200 в Китай, а Nvidia готовит версию чипа Groq для китайского рынка — по данным Reuters, поставки могут начаться в мае. Дженсен Хуанг заявил на пресс-конференции, что компания получила лицензии «для множества клиентов» от обеих сторон, и производство H200 возобновлено. Два месяца назад таможня Китая блокировала ввоз этих чипов по прямому указанию — теперь, видимо, договорились.

Разворот Пекина объясняется не внезапной любовью к Nvidia. Китайские компании так и не смогли полностью заменить американские чипы для обучения моделей — Huawei Ascend справляется с инференсом, но для тренировки крупных LLM по-прежнему нужен H200. Спрос со стороны ByteDance, Alibaba и Tencent, о котором я писал в январе, никуда не делся. Блокировка была рычагом давления на переговорах, и этот рычаг, судя по всему, отработал свое.

Но интереснее другое — источники Reuters говорят и об адаптации чипа Groq для Китая. На GTC Nvidia представила Groq 3 LPX как часть связки с Vera Rubin, которую продавать в Китай нельзя. Reuters подчеркивает, что китайская версия Groq «не является урезанной» — она просто адаптирована для работы с другими системами. Фактически Nvidia разделяет свой инференсный стек на экспортируемую и неэкспортируемую части, открывая канал продаж, который формально не нарушает ограничений.

SEC опубликовала «таксономию токенов» — классификацию цифровых активов, определяющую, какие из них являются ценными бумагами, а какие нет. Платёжные стейблкоины, цифровые товары и так называемые «цифровые коллективы» выведены из-под юрисдикции комиссии. К этой позиции присоединилась CFTC, что фактически означает: два главных финансовых регулятора США договорились между собой, не дожидаясь регуляции Конгресса.

Формально это подаётся как забота о ясности для рынка. Но реальный бенефициар — крупные криптобиржи и эмитенты стейблкоинов, которые годами несли издержки от неопределённости статуса своих продуктов. Анонсированный safe harbor на четыре года — это приглашение для криптостартапов привлекать капитал в США без смс и регистрации, то есть без тех обязательств по раскрытию информации, которые реально защищают инвесторов.

Впрочем, выиграют не только лишь все. И снова здравствуйте, славные времена IPO, NFT и прочего скама.

OpenAI выпустила GPT-5.4 mini и nano — компактные версии своей флагманской модели, оптимизированные под задачи с высокой нагрузкой: кодинг, работу с инструментами и компьютерным интерфейсом. Mini стоит $0.75 за миллион входных токенов, nano — $0.20. По заявлению компании, mini работает вдвое быстрее предшественника GPT-5 mini и приближается к полноразмерной GPT-5.4 на ряде бенчмарков.

Главное в этом релизе — не сами модели, а архитектурная ставка на субагентов. OpenAI продвигает схему, в которой большая GPT-5.4 выступает «планировщиком», а mini и nano выполняют подзадачи.

Если кто не заметил, новые mini и nano стоят в 3-4 раза дороже своих предшественниц. Видимо, аттракцион раздачи подарков постепенно сворачивается.

OpenAI добавила в Codex поддержку субагентов. Каждый субагент может использовать собственную модель, уровень reasoning и набор инструментов. Функция доступна в приложении и CLI, поддержка в IDE-расширении ожидается позднее.

OpenAI идет по стопам Anthropic, где такие субагенты уже давно прижились.

Но вот что удивительно — страница документации в вебархиве явно пишет пишет про фичу под названием multi-agents. Вероятно, решили переименовать, увидев отзывы типа “OpenAI теперь запускает swarm of agents”, хотя по описанию ничего такого не происходит — пока ничего похожего на Agent Teams в Claude Code не описано.

Manus выпустил десктопное приложение с функцией My Computer, которая позволяет агенту выполнять команды в терминале локальной машины пользователя. В общем, и эти туда же, и даже тоже прямо говорят — если у вас где-то стоит постоянно включенный Mac mini, мы его загрузим полезной работой.

Удивительно, что покупка Meta пока не отразилась на интеграции — можно было бы ожидать, что такому приложению можно будет написать в Whatsapp или Messenger, но нет, видимо, пока.

OpenAI готовит масштабный пересмотр стратегии: компания сворачивает побочные проекты и концентрируется на инструментах для разработчиков и корпоративных клиентов. Фиджи Симо, глава прикладного направления, на общем собрании назвала успехи Anthropic «сигналом к пробуждению» и заявила, что компания действует в режиме «красного кода» (опять?!). Сотрудникам пообещали в ближайшие недели сообщить, какие направления будут понижены в приоритете.

Логика очень простая и понятная. OpenAI и Anthropic движутся к IPO, которое у OpenAI может состояться уже в четвёртом квартале этого года. Для выхода на биржу нужна понятная инвесторам история роста выручки, а корпоративный сегмент и инструменты для разработчиков — это именно та категория, где платят регулярно и много. Потребительские продукты вроде Sora, которая после короткого всплеска в App Store быстро потеряла аудиторию, такой истории не создают.

Samsung прекращает продажи Galaxy Z TriFold — складного смартфона с двумя петлями и экраном, раскладывающимся в 10-дюймовый планшет, — спустя примерно три месяца после выхода на рынок. Устройство стоимостью 2 899 долларов сначала снимут с продажи в Южной Корее, затем в США после распродажи остатков.

Формулировка Samsung, что TriFold был «витриной инженерного мастерства», по сути, является признанием: компания изначально не рассчитывала на коммерческий успех. Устройство продавалось только напрямую через Samsung, без участия операторов связи и ритейлеров — стандартных каналов для массового продукта. Это означает, что Samsung сознательно ограничила объём производства и дистрибуции, чтобы минимизировать финансовые риски. Реальная цель была другой: показать рынку и конкурентам, прежде всего Huawei с его Mate XT, что Samsung технологически способна выпускать тройные складные устройства.

Преемника устройства можно не ждать, говорят о сложности производства. А вот технические решения, проверенные в “тройнике”, наверняка появятся в других, более массовых продуктах.

Nvidia фактически признала, что GPU недостаточно для оптимального инференса. На своей конференции GTC 2026 компания объявила о запуске Nvidia Groq 3 LPX — чипе на базе технологий компании Groq, сделка с которой обошлась в 20 млрд долларов и группу ведущих сотрудников с основателями Groq, перешедших в Nvidia. SRAM-память в LPU обеспечивает пропускную способность 150 ТБ/с на чип против 22 ТБ/с у HBM4 в Rubin GPU. Конечно, её заметно меньше — 500 мегабайт, а не 288 гигабайт, как у HBM4.

Фактически это отмена (или замена) для Rubin CPX. Полгода назад Nvidia представила этот чип как «новый класс GPU» для сложных задач инференса, пообещав серверную платформу NVL144 CPX к концу 2026 года. Теперь продукт отложен без внятных сроков, а его функциональную нишу занимает Groq 3 LPX.

Бизнес-логика тоже присутствует. Ян Бак, вице-президент Nvidia, утверждает, что комбинация чипов дает 45 долларов дохода для провайдеров моделей на каждый миллион токенов, то есть десятикратный рост выручки по сравнению с Blackwell NVL72 при скорости 500 токенов в секунду на пользователя. При этом компания планирует напрямую работать с разработчиками моделей масштаба 1 трлн параметров, не отдавая это OEM-партнерам.

Интересные результаты получились у совместного акселератора Google и Accel в Индии. Все, конечно, цитируют, что 70% заявок отсеяно потому, что это были AI-wrapper-ы, то есть обертки вокруг популярных LLM. Но это можно рассмотреть и глубже — если учесть, что три четверти заявок пришлись на корпоративный софт в области продуктивности и разработки, то это скорее говорит, что авторы заявок не выходят за рамки модели аутсорсинга и IT-сервисов.

Джонатан Силбер из Google’s AI Futures Fund описал механизм обратной связи: если стартап выбирает чужую модель LLM, значит Google нужно доработать свою. Показателен итоговый состав финалистов: AI-агенты для ERP, голосовые решения для колл-центров, автоматизация производства. Ни один из пяти стартапов не работает в потребительском сегменте.