Вы же в курсе про acquihiring — когда большая компания покупает небольшую, обычно даже без бизнес-перспектив, потому что на самом деле так решается вопрос найма её сотрудников? В подавляющем большинстве случаев сам проект покупаемой компании никакого будущего иметь не будет — он нишевый, он не имеет смысла на аудитории сервисов большой компании, у него нет интересной аудитории, в общем, смысл сделки один — нанять конкретных людей, а оформление таким образом просто позволяет им избавиться от обязательств в проекте.

Так вот, счастье таким образом случается нечасто. Как видно из статистики, в среднем 77% нанятых таким образом основателей проектов покидают компанию в течение трех лет. Среднее время удержания основателей в компании — 3,7 года. Основатели, у которых за плечами уже несколько проектов, уходят в три с лишним раза чаще новичков. Если нанимается таким образом автор сольного проекта, вероятность ухода выше — команда держится дольше. Правда, она тоже может разрушиться — уход одного повышает вероятность ухода всей команды, и даже повышение одного из команды увеличивает вероятность ухода остальных.

Вероятность сохранения нанятых людей в команде увеличивается, если им предоставляются высокие позиции и/или технологии покупаемой компании находят применение в новой. Впрочем, за пределами окна в 3 года эти факторы влияют меньше.

Если что, авторы исследования изучили 241 сделку по покупкам компаний Google и Facebook, в результате которых было нанято 454 основателя, с момента первых сделок до 2019 года. Так что в этой статистике должен быть, например, Деннис Кроули, которого купили с сервисом DodgeBall (сервис позволял отмечать посещение заведений), а потом он ушел и сделал ровно то же самое под названием Foursquare. Равно как и Ян Кум, купленный с Whatsapp, и Кевин Систром с Instagram.

Это было быстро — Digg закрылся спустя два месяца после открытого бета-запуска. Причина — массовый спам от AI-ботов, с которым команда не справилась.

Год назад основатель Digg Кевин Роуз и сооснователь Reddit Алексис Оганян объявили о перезапуске платформы с лозунгом «социальные открытия, созданные сообществами, а не алгоритмами». Роуз тогда говорил, что AI сможет «снять с модераторов рутинную работу». Получилось ровно наоборот — AI-боты оказались главной угрозой, а не помощником.

Впрочем, основатели не унывают и уже планируют перезагрузку. Как именно она будет выглядеть, узнаем позже. Наверное.

Cerebras выходит на платформу AWS. Системы CS-3 будут доступны через AWS Bedrock и смогут обслуживать как открытые модели, так и Amazon Nova.

Главное в сделке — не сам факт размещения в облаке, а совместная архитектура «disaggregated inference». Идея в том, чтобы разделить две фазы генерации ответа между разными чипами. Trainium от Amazon берёт на себя фазу prefill — обработку входного запроса, где нужна вычислительная мощность. Cerebras WSE занимается decode — генерацией токенов, где критична пропускная способность памяти. Связка работает через Amazon EFA. По заявлению компаний, это даёт пятикратный рост объёма высокоскоростных токенов на том же оборудовании.

Это выглядит очень интересно — не просто как-то впихнуть ограниченную модель в чип, как это сделали OpenAI с Codex Spark, а использовать сильные стороны разных чипов. Для AWS это хорошо еще и созданием уникального предложения, отличаясь от Google Cloud и Microsoft Azure.

Вот тебе и пятница, 13-е, — всем 1М контекста в Claude Code и пусть никто не уйдет из-за компьютера.

Нет, реально, всем подписчикам на Max, Team и Enterprise планах — я перезапустил Claude и реально показывает 1M контекста и какие-то жалкие 10% использованных (в уже работающей сессии). Вот теперь и проверим — как оно будет справляться с таким объемом.

xAI переманила двух топ-менеджеров из Cursor — Эндрю Милича и Джейсона Гинсберга. Оба будут подчиняться напрямую Илону Маску. Сам Маск на конференции на этой неделе публично признал, что Grok «сейчас отстаёт в кодинге», и пообещал догнать и перегнать конкурентов к середине 2026 года.

Это, видимо, какой-то другой Илон Маск, не тот, который каждый месяц репостит статистику про то, что его модели номер 1 в каком-то очередном тесте или на openrouter. Как с такими успехами можно в итоге отставать — непонятно.

Но Cursor тоже в интересном положении — компания оценивается в 60 млрд и вроде бы привлекает еще финансирование, при этом конкуренция только усиливается.

Австралийцы с канала Tech Re-Nu разобрали MacBook Neo и обнаружили, что Apple, похоже, впервые за долгое время сделала ноутбук, который действительно можно чинить. Шесть минут на полную разборку, стандартные винты Torx, батарея на 18 винтах без клея, модульные порты, динамики и разъём для наушников. Ни одной полоски скотча во всём корпусе, ничего не приклеено.

В комментариях люди удивляются, Apple ли это.

Немного печальна цена, с которой ноутбуки доедут в Украину — модель с TouchID обойдется почти в тысячу долларов вместо 699 в США, но это не местная накрутка, так оно и выходит с пошлинами и налогами.

Meta откладывает выпуск новой базовой AI-модели под кодовым названием Avocado как минимум до мая. По данным The New York Times, модель уступает Gemini 3.0 от Google и разработкам OpenAI и Anthropic в тестах на рассуждение, кодинг и генерацию текста. Руководство AI-подразделения Meta обсуждало даже временное лицензирование Gemini для своих продуктов, хотя решение пока не принято.

Мы, конечно, подождем с ехидством, но пока непохоже, чтобы поливание проблемы деньгами способствовало её решению.

Отдельно стоит отметить, что Meta до сих пор не решила, будет ли новая модель открытой. Закерберг и Ванг летом прошлого года склонялись к закрытой модели. Открытая Llama была главным козырем компании в конкуренции с OpenAI и Google — аргументом, почему разработчикам стоит строить на платформе Meta. Отказ от этого подхода лишит компанию единственного заметного преимущества на рынке, можно даже сказать — единственного шанса присутствовать на рынке сколько-нибудь массово.

В целом, небольшое тестирование qmd — это не совсем про AI, то есть не про разработку с AI. Но в принципе это совершенно стандартный RAG, модели присутствуют и используются и скорость, к сожалению, тоже соответствующая. В общем, вот мой небольшой опыт.

Atlassian сокращает 10% сотрудников — около 1600 человек — чтобы, по словам CEO Майка Кэннон-Брукса, «самостоятельно профинансировать» инвестиции в AI и продажи для корпоративного сегмента. Акции компании потеряли больше половины стоимости с начала года и 84% от пика 2021-го на фоне распродажи в секторе софтверных компаний, вызванной конкуренцией со стороны генеративных AI-инструментов вроде Claude Cowork от Anthropic.

Формулировка «self-fund» здесь ключевая. Atlassian не была прибыльной (по GAAP) ни одного финансового года начиная с 2017-го. Привлекать внешнее финансирование при акциях, упавших на 84%, — занятие дорогое. Остаётся единственный доступный ресурс — зарплата. Расходы на сокращение составят $225-236 млн, но дальше экономия пойдёт в AI-разработку.

P.S. Поскольку сейчас начнется удивление по поводу убыточности Atlassian, поясню — GAAP это стандарты бухучета. Они требуют жесткого определения расходов и в них, в том числе, включаются опционы сотрудников (stock-based compensation). В 2025 финансовом году компания раздала опционов/RSU/прочего на четверть своей выручки, то есть на 1,36 млрд долларов при общей выручке в 5,2 млрд. Это дало, как говорят отечественные бухгалтеры “балансовый убыток”, но физически деньги остались в компании — ведь часть зарплаты оплачена “стоками”, которые не были реализованы.

Плюс такого подхода — можно везде говорить про non-GAAP показатели, по которым прибыльность компании заоблачная. Минус — когда курс акций перестает расти, а том и падает, это начинает сказываться, а когда еще и сотрудники уходят, эти опционы становятся физическими деньгами, уходящими из компании. Но это ж когда будет, думают почти все. Немногие лишь так не думают.

NVIDIA выпустила Nemotron 3 Super — открытую модель на 120 млрд параметров, из которых при инференсе активны только 12 млрд. Гибридная архитектура сочетает слои Mamba для эффективной работы с памятью и трансформерные слои для рассуждений. Заявлено пятикратное увеличение пропускной способности по сравнению с предыдущей версией.

Модель позиционируется именно под агентные системы — она позволяет справляться с большим объемом контекста. Правда, локально ее будет не очень просто запустить — возможно, влезет в MacBook Pro со 128 гигабайтами памяти, версии с Q4 уже есть.

Отдельно стоит отметить открытость: как и с младшей Nano, NVIDIA публикует не только веса, но и полную методологию обучения, включая более 10 трлн токенов данных и 15 сред для обучения с подкреплением. Я уже знаю про некоторые проекты, использующие эти возможности, хотя для Super финансирование нужно посерьезнее.