Ставки повышаются — Safe Superintelligence, стартап Ильи Суцкевера, ведет переговоры о привлечении $1 млрд при оценке в $30 млрд. Лид-инвестором может стать Greenoaks Capital Partners.

Это будет второй миллиардный раунд для компании — в сентябре она уже привлекла $1 млрд от Andreessen Horowitz, Sequoia Capital, DST Global и других инвесторов при оценке в $5 млрд. Еще 10 дней назад слухи, о которых я здесь писал, давали оценку компании в 20 млрд долларов. И если вы считаете, что что-то пропустили, то нет — никаких других новостей о стартапе не было, как и приблизительных намеков на наличие какого-либо продукта.

xAI Илона Маска выпустила Grok 3 — новую версию своей флагманской модели ИИ. Компания заявляет, что модель превосходит GPT-4o от OpenAI по ряду тестов, включая математические задачи AIME и задачи уровня PhD по физике, биологии и химии.

Для обучения Grok 3 использовался огромный дата-центр в Мемфисе с 200 тысячами GPU. По словам Маска, на обучение было затрачено в 10 раз больше вычислительной мощности, чем на предыдущую версию.

Grok 3 — это семейство моделей, включающее облегченную версию Grok 3 mini и модели с рассуждениями (reasoning) — Grok 3 Reasoning и Grok 3 mini Reasoning. Последние могут “обдумывать” проблемы подобно моделям o3-mini от OpenAI и R1 от DeepSeek.

Доступ к Grok 3 получат сначала подписчики X Premium+, а дополнительные функции будут доступны по подписке SuperGrok, вероятно, за $30/месяц. xAI также планирует открыть исходный код Grok 2, когда Grok 3 станет стабильной, то есть через несколько месяцев.

Пока доступа к Grok 3 нет — желающие могут сходить на lmarena.ai, где попробовать пообщаться с версией early grok-3. Такая доступность немного объясняет, как модель уже возглавила хит-парад на lmarena, а на презентации активно показывались слайды про безусловное лидерство модели во всех категориях (правда, без наличия на слайдах o3-mini).

В целом, пока не видно, чтобы ажиотажный запуск доказал, что проблемы развития AI можно решить, закидав задачи железом.

Си Цзиньпин собрал на встречу руководителей крупнейших технологических компаний — от производителей чипов и электромобилей до разработчиков AI, включая создателя Huawei Жэнь Чжэнфэя и основателя DeepSeek Лян Вэньфэна.

Си пообещал устранить необоснованные сборы и штрафы для частных компаний и обеспечить равные условия конкуренции — частая жалоба предпринимателей в системе с доминированием госсектора. Парламент Китая также объявил о планах пересмотреть законодательство для поддержки частной экономики.

Особенно символично присутствие Джека Ма, который стал самой заметной жертвой кампании по “закручиванию гаек” в технологическом секторе в 2020 году. Помните, после его критики в адрес финансовых регуляторов последовала отмена IPO Ant Group, а он сам практически исчез из публичного пространства. Теперь же его компания Alibaba становится одним из лидеров в сфере AI — ее модель Qwen показывает хорошие результаты в официальных тестах, а Apple интегрирует технологии Alibaba в китайские iPhone.

Впрочем, вряд ли это свидетельствует о развороте КПК ко всемерной поддержке частного предпринимательства. Но, как понятно, предприниматели этого и не ждут.

X (бывший Twitter) блокирует ссылки на “Signal.me” — домен, который используется мессенджером Signal для быстрого добавления контактов. Пользователи не могут разместить такие ссылки ни в личных сообщениях, ни в публичных постах, ни даже в профиле.

При попытке размещения ссылки появляются различные сообщения об ошибке: от “эта ссылка потенциально вредоносна” до “описание считается вредоносным ПО”. X также блокирует возможность перехода по уже опубликованным ссылкам Signal.me, показывая предупреждение о небезопасности (хотя его можно проигнорировать).

Интересно, что блокировка касается только домена Signal.me — ссылки на Signal.org по-прежнему работают. Также работают ссылки на другие мессенджеры, например, Telegram.

Ввиду своей защищенности, Signal часто используется журналистами для контакта со своими источниками, и это стало особенно актуально в США в последние недели, когда сотрудники федеральных ведомств хотят связаться с журналистами для информирования о деятельности команды молодых специалистов Маска. Но поскольку новая администрация теперь учит весь мир свободе слова и демократии, неудивительно, что размещать ссылки на контакты в таком мессенджере не благословляется.

В Европе запускается амбициозный проект OpenEuroLLM по созданию действительно открытых языковых моделей для всех 24 официальных языков ЕС, а также языков стран-кандидатов. Бюджет проекта составляет 37,4 млн евро, из которых 20 млн выделяет ЕС.

Консорциум из 20 организаций во главе с чешским лингвистом Яном Гайичем и руководителем финской AI-лаборатории Silo AI Петером Сарлином обещает первые результаты к середине 2026 года. Правда, французский AI-единорог Mistral AI отказался от участия, несмотря на попытки привлечь его к проекту.

Финальные результаты планируется получить к 2028 году. Проект использует наработки предыдущей инициативы HPLT, включая датасет объемом 4,5 петабайта. Основной фокус — на качестве моделей и сохранении лингвистического и культурного разнообразия.

Критики указывают на сложность координации такого количества участников и относительно небольшой бюджет по сравнению с корпоративными гигантами. Кроме того, существует параллельный проект EuroLLM с похожими целями. Однако руководители проекта уверены, что сочетание академической экспертизы и бизнес-фокуса, а также доступ к суперкомпьютерам EuroHPC позволят создать качественные модели.

Интересный вопрос — как создатели будут балансировать между открытостью и качеством. По словам Гайича, для достижения максимального качества придется использовать данные, которые нельзя будет открыто распространять. Хотя аудиторы смогут получить к ним доступ в соответствии с требованиями европейского AI Act.

Ну, посмотрим, практика — критерий истины. В итоге может получиться не самая мощная, но полностью европейская модель. И это выглядит как главная цель проекта — обеспечить цифровой суверенитет ЕС по части AI.

Южная Корея приостановила новые загрузки приложения DeepSeek после того, как китайский стартап признал, что не учел некоторые требования местного регулятора по защите персональных данных.

Это уже второй случай блокировки DeepSeek в феврале — ранее итальянский регулятор запретил работу чатбота в стране из-за проблем с политикой конфиденциальности.

МИД Китая в ответ заявил, что правительство уделяет большое внимание защите данных и никогда не будет требовать от компаний нарушать законы других стран. Впрочем, китайский стартап уже назначил юридических представителей в Южной Корее, и, вероятно, будет пробовать как-то решить проблему.

Веб-версия DeepSeek в Южной Корее доступна. Вероятно, опция блокировки сайтов используется регулятором гораздо реже, чем простое указание аппсторам.

Бастионы немного рушатся — The New York Times разрешает своим сотрудникам использовать AI-инструменты, включая собственную разработку Echo для создания кратких версий статей. Компания одобрила использование GitHub Copilot, Google Vertex AI, NotebookLM и API OpenAI (но не ChatGPT) для разработки продуктов и редакционных задач.

Журналистам разрешено применять AI для создания SEO-заголовков, анонсов для соцсетей, генерации вопросов для интервью и исследовательской работы. При этом есть четкие ограничения — нельзя использовать AI для написания или существенной переработки статей, работы с материалами третьих лиц, особенно конфиденциальной информацией источников, или публикации сгенерированных изображений.

Вы же помните, что это NYT обвиняет OpenAI в нарушениях авторских прав при обучении моделей на доступных материалах, в том числе и самой NY Times? Я не очень понимаю, как это работает — то есть обучаться на нас нельзя, но мы результатами ваших нарушений будем пользоваться?

Конечно, “некоторые” сотрудники NYT скептически относятся к использованию AI, опасаясь, что это может привести к “ленивым” заголовкам и неточной информации.

Пока третье лицо в США — вицепрезидент Вэнс, — критикует Европу за излишнее регулирование AI, на которое никогда не пойдет администрация Трампа, как минимум 12 американских штатов рассматривают законопроекты, удивительно похожие на европейский AI Act.

Законопроекты фокусируются на предотвращении “алгоритмической дискриминации” и требуют от компаний, использующих ИИ для “значимых решений”, проводить оценку рисков и готовить планы управления ими. При этом определения “значимых решений” и “существенного фактора” настолько размыты, что под регулирование может попасть как использование ChatGPT для первичного отбора резюме, так и использование социальных сетей для размещения объявления о вакансии — ведь там алгоритмически определяется, кому показать это объявление.

Лоббирование этих законопроектов осуществляет некоммерческая организация Future of Privacy Forum, финансируемая крупными технологическими компаниями. Фактически, как пишет автор обзора, FPF способствует экспорту европейского подхода к регулированию технологий в американские штаты.

Затраты на соблюдение этих законов могут составить 5-15% от расходов компаний на ИИ. При этом доказательств того, что алгоритмическая дискриминация является настолько серьезной проблемой, чтобы оправдать такие затраты, нет. Например, за всю историю использования систем распознавания лиц полицией было зафиксировано всего восемь случаев ошибочного ареста, во всех случаях обвинения были сняты после обнаружения ошибки.

Автор всерьез опасается, что повторится история с GDPR, когда более агрессивное регулирование в сфере конфиденциальности в Европе заметно повлияло на регулирование в США. Впрочем, достаточно только двух штатов — Калифорнии и Техаса, где находятся штаб-квартиры большинства tech-компаний, — и оба штата есть в списке 12-ти.

Perplexity запустила Deep Research — инструмент, который генерирует комплексные исследовательские отчеты за считанные минуты, исследуя источники в интернете. Компания хочет позиционировать эту возможность как конкурента одноименной функции OpenAI, запущенной на этой неделе. Правда, у OpenAI она доступна только на Pro-подписке за 200 долларов в месяц, а Perplexity предлагает пять бесплатных запросов в день всем пользователям, Pro-подписка за $20 в месяц дает 500 запросов ежедневно.

Но, скажем честно, никаким конкурентом для OpenAI этот запуск не является. Да, как и заявлено, функция отрабатывает в течение нескольких минут против минут 15-30 у OpenAI, она точно так же ходит в интернет, делает запросы и обрабатывает результаты, но результат отличается разительно.

Я попросил подготовить аналитический обзор абсолютно одинаковым промптом оба сервиса. Perplexity за минуту исследовал 59 источников и выдал примерно три страницы текста (включая список источников). OpenAI задал уточняющие вопросы — какие страны меня интересуют, какие сегменты рынка, надо ли включать кейсы и о каких технологиях из вообще “AI/ML” идет речь. После чего проработал около 8 минут, изучил 48 источников и выдал 19(!) страниц текста, написанного очень связным языком, с кейсами и примерами. Согласитесь, сравнивать такое просто нелепо.

Но хайп с одноименной функцией Perplexity, конечно, словят.

OpenAI официально отвергла предложение Маска о покупке некоммерческой материнской компании за $97.4 млрд. Председатель совета директоров OpenAI Брет Тейлор заявил, что “компания не продается”, а любая реорганизация только усилит некоммерческую миссию по развитию AGI на благо человечества.

Маск, бывший соучредитель OpenAI, настаивал на возвращении компании к открытым исследованиям в области безопасного ИИ. В ответ Альтман иронично предложил купить Twitter за $9.74 млрд, на что Маск назвал его мошенником.

Маск, который судится с OpenAI и пытается помешать ее переходу в коммерческую структуру, вчера заявил, что отзовет предложение, если компания откажется от планов стать коммерческой. Впрочем, юристы отмечают, что совет директоров некоммерческой организации имеет полное право отклонить предложение о поглощении без каких-либо юридических последствий.

---