С вечера пятницы циркулирует тема показаний Ильи Суцкевера о событиях 2023 года, связанных с увольнением Альтмана из OpenAI. Материал TheInformation сконцентрировался на громкой теме — оказывается, в тот момент обсуждалось слияние с Anthropic. Впрочем, вот вам полное изложение показаний, которые Илья дал в рамках иска Илона Маска к Альтману. Процесс продолжался почти 10 часов в офисе юридической компании Cooley в Сан-Франциско в присутствии представителей всех сторон конфликта: адвокаты истцов из команды Илона Маска, защитники OpenAI, представители Microsoft и собственные юристы Суцкевера.

В центре внимания оказался меморандум на пятьдесят две страницы, который Суцкевер составил осенью 2023 года для независимых директоров правления OpenAI. Этот документ начинался с жесткого обвинения: Сэм демонстрирует последовательную модель лжи, подрыва своих руководителей и стравливания руководителей друг против друга. Суцкевер подтвердил, что это была его точка зрения на тот момент, и он направил документ только трём независимым директорам — Адаму Д’Анджело, Хелен Тонер и Таше Маколи.

Суцкевер объяснил, что использовал исчезающую электронную почту для отправки меморандума, поскольку опасался утечки. На вопрос, почему он не отправил документ всему правлению, включая самого Альтмана, Суцкевер ответил прямо: он чувствовал, что если Альтман узнает об этих обсуждениях, то просто найдет способ заставить их исчезнуть. Адам Д’Анджело попросил его подготовить документ, предварительно спросив, есть ли у Суцкевера скриншоты в поддержку его опасений относительно поведения Альтмана.

Меморандум содержал множество конкретных обвинений. Одно из них касалось истории Альтмана в Y Combinator. Согласно документу, Сэма вытолкнули из YC за схожее поведение — он создавал хаос, начинал множество новых проектов, стравливал людей друг против друга и плохо управлял компанией. Однако при детальном расспросе выяснилось, что эта информация пришла к Суцкеверу не напрямую: её передала Мира Мурати со ссылкой на разговор с Брэдом Лайткэпом. Суцкевер признал, что сам не говорил с Лайткэпом, чтобы проверить эти сведения. Аналогичная ситуация сложилась и с утверждениями о Греге Брокмане. В меморандуме говорилось, что Грег был по сути уволен из Stripe. Источником опять была Мира Мурати. Суцкевер подтвердил, что никогда не обращался к самому Брокману, чтобы проверить эту информацию. На вопрос, почему он не сделал этого, Суцкевер дал простой ответ: ему это не пришло в голову. Он полностью верил информации, которую давала ему Мира.

Меморандум включал целый раздел под названием “Стравливание людей друг против друга”. Там приводились примеры якобы манипулятивного поведения Альтмана: Даниэла против Миры, имея в виду Даниэлу Амодей и Миру Мурати, и Дарио против Грега и Ильи, где речь шла о Дарио Амодей. Суцкевер критиковал Альтмана за то, что тот не занял твердую позицию, когда Дарио хотел возглавить все исследования в OpenAI и добиться увольнения Грега. При этом Суцкевер признал, что не имеет точного знания об условиях Дарио, но его общее ощущение было таково, что они были несправедливыми и Сэм должен был отвергнуть их сразу.

Ещё один эпизод касался истории с GPT-4 Turbo и советом по безопасности развертывания. Меморандум обвинял Альтмана во лжи Мире относительно мнения Джейсона — по всей видимости, Джейсона Квона, который на тот момент, возможно, занимал должность генерального юрисконсульта. Суцкевер не говорил с Квоном об этой ситуации. Более того, он признал, что задним числом осознал критическую важность информации из первых рук для таких вопросов. На вопрос, была ли ошибкой полагаться на информацию из вторых рук, Суцкевер ответил философски: информация из вторых рук может быть очень полезной, но она является приглашением для дальнейшего расследования. В меморандуме Суцкевер предлагал директорам поговорить с определенными людьми для проверки информации, включая Боба МакГрю и Ника Райдера. Однако сам он не знает, последовали ли директора этим рекомендациям, и не обсуждал с ними продолжение этих предложений. Он также не говорил с Дианой Юн или другими свидетелями, упомянутыми в документе. Большинство скриншотов и информации для меморандума Суцкевер получил от Миры Мурати, включая скриншоты текстовых сообщений между Грегом и Сэмом и даже служебной оценки Миры в отношении Сэма.

Затем разговор перешёл к событиям ноября 2023 года. Суцкевер признал, что считал увольнение правильным действием. Адвокат истцов процитировал статью из Wall Street Journal, где говорилось, что Суцкевер ждал момента, когда динамика правления позволит заменить Альтмана на посту генерального директора. Суцкевер подтвердил правильность этого утверждения. Он объяснил, что ждал, пока большинство правления не будет очевидно дружественным с Сэмом. Это произошло после серии быстрых уходов из правления по разным причинам. На прямой вопрос, как долго он рассматривал возможность увольнения Альтмана, Суцкевер ответил: по крайней мере год. Он уточнил, что слово “планирование” было бы неправильным, потому что до определенного момента это не казалось осуществимым. Ранее это было невозможно, поэтому он не планировал. Но он рассматривал эту возможность минимум в течение года до событий ноября.

События после увольнения Альтмана развивались стремительно. Суцкевер признал, что был поражен реакцией сотрудников OpenAI. Та же статья в Wall Street Journal утверждала, что он ожидал, что сотрудники обрадуются. Суцкевер уточнил: он не ожидал, что они обрадуются, но и не ожидал, что они будут иметь сильные чувства в любую сторону. Это было его убеждение на тот момент.

Одним из самых драматических моментов показаний стало обсуждение предложения о слиянии с Anthropic. В субботу после увольнения Альтмана состоялся звонок правления, на котором Хелен Тонер рассказала о контакте с Anthropic. Суцкевер не был уверен, кто инициировал контакт — Хелен обратилась к Anthropic или Anthropic связались с Хелен. Но суть предложения была ясна: Anthropic хотела слиться с OpenAI и взять на себя её руководство.

Затем состоялся отдельный звонок с руководством Anthropic. На нём присутствовали Дарио Амодеи, Даниэла Амодеи и как минимум ещё один человек, которого Суцкевер не запомнил. Anthropic выразила энтузиазм по поводу слияния, но также упомянула практические трудности, которые у них возникнут. Суцкевер был крайне недоволен этим предложением. На вопрос, почему, он дал краткий ответ: он просто не хотел этого. Другие члены правления были намного более поддерживающими, и Суцкевер вспомнил, что Хелен Тонер была наиболее заинтересована в слиянии. Предложение не было реализовано из-за тех самых практических препятствий, о которых говорила Anthropic, но обсуждения были крайне короткими.

Контекст этого предложения приобретал дополнительные измерения при рассмотрении связей Хелен Тонер. Она была связана с Open Philanthropy, которая в свою очередь связана с Холденом Карнофски. Холден женат на Даниэле Амодеи, сестре Дарио Амодеи, которые оба работают в Anthropic. Суцкевер подтвердил знание об этих связях, хотя отметил, что его знание носило расплывчатый характер. Ещё одна история касалась статьи Хелен Тонер, опубликованной в октябре 2023 года. Суцкевер вспомнил, что она критиковала OpenAI и хвалила Anthropic. Он не помнил конкретного содержания критики, но запомнил, что статья хвалила Anthropic. Его реакцией было: он нашел статью странной. Он счёл странным, что она вообще это сделала. На вопрос, считал ли он это уместным для члена правления OpenAI, Суцкевер ответил, что счёл это не сильно далёким от очевидно неуместного. Он обсуждал с Сэмом возможность попросить Хелен покинуть правление, хотя не помнил деталей этого разговора.

Позднее на той же неделе правление согласилось уйти в отставку и восстановить Сэма Альтмана. Адвокат OpenAI спросила Суцкевера об оценке процесса, который предшествовал увольнению. Суцкевер сказал одну вещь, которую может утверждать определенно: процесс был поспешным. Причиной поспешности было то, что правление было неопытным в вопросах управления советом директоров.

На встрече с членами правления и исполнительной командой после увольнения Альтмана руководители заявили, что если Сэм не вернется, OpenAI будет уничтожена, и это несовместимо с миссией компании. Хелен Тонер ответила, что это совместимо, причём сказала это даже более прямо, чем передал сам Суцкевер. На вопрос о его реакции на это заявление, Суцкевер сказал, что не помнит своей реакции в тот момент. Позже его спросили, считал ли он, что уничтожение компании было бы совместимо с миссией. Суцкевер ответил, что может представить гипотетические экстремальные обстоятельства, в которых ответ был бы положительным, но в тот конкретный момент времени ответ для него определенно был отрицательным.

После этих событий был сформирован специальный комитет правления для расследования. Его возглавили Брет Тейлор и Ларри Саммерс, которые наняли юридическую фирму WilmerHale. Они проводили интервью, включая беседу с самим Суцкевером. На вопрос, есть ли у него основания сомневаться в независимости Тейлора и Саммерса, Суцкевер ответил отрицательно. Однако на вопрос о целостности расследования он заметил, что к тому моменту был слишком отстранен от этих процедур, чтобы давать оценку.

Суцкевер покинул OpenAI в мае 2024 года, хотя точную дату не помнил. Причиной ухода стало большое новое видение, которое казалось более подходящим для новой компании. В 2024 году он объявил о создании Safe Superintelligence. Цель новой компании — заниматься новым и другим видом исследований. У него появилась новая идея, как делать вещи, и он хотел попробовать их реализовать.

Значительная часть допроса была посвящена финансовым вопросам. Суцкевер подтвердил, что в момент ухода из OpenAI у него была доля в капитале компании. Эта доля у него сохраняется до сих пор, и её стоимость увеличилась с момента его ухода. Однако когда адвокат истцов попытался узнать конкретную стоимость этой доли, адвокат Суцкевера дал указание не отвечать на вопрос о сумме, сославшись на право клиента на конфиденциальность финансовой информации. Суцкевер мог подтвердить наличие финансовой заинтересованности, но не мог её количественно определить.

Это привело к напряженному обмену репликами между адвокатами. Представитель истцов настаивал, что вопрос о финансовой заинтересованности свидетеля в ответчике по делу, где ответчик обвиняется в многомиллионных исках, несомненно релевантен и касается вопросов интереса и предвзятости. Адвокат Суцкевера сохранил свою позицию, разрешив подтвердить наличие интереса, но не его размер. Вопрос об оплате юридических услуг также вызвал интерес. Суцкевер сказал, что, вероятно, его юридические услуги оплачивает OpenAI, потому что не знает, кто ещё это мог бы делать. Он не получал счетов за юридическую помощь. Его спросили, как он пришёл к этим адвокатам. Первоначально адвокат дал указание не отвечать, но затем разрешил ответить конкретно на вопрос о найме в связи с этим судебным делом. Суцкевер рассказал, что его воспоминания не вполне точны, но он считает, что начал работать с другим адвокатом в фирме Willkie, а потом его тогдашняя подруга нашла Симону Агнолуччи, и он сам связался с ней.

Суцкевер подтвердил, что никогда не обсуждал это судебное дело с кем-либо в OpenAI и не обсуждал свои показания с кем-либо, кроме своих адвокатов. Он последний раз разговаривал с Сэмом Альтманом около десяти месяцев или года назад — примерно в январе 2025 года. С Грегом Брокманом он говорил последний раз около года с четвертью назад. Он никогда не обсуждал судебное дело ни с Альтманом, ни с Брокманом. В ходе допроса выяснилось, что существует ещё один документ — меморандум о Греге Брокмане, аналогичный тому, что был составлен об Альтмане. Суцкевер подтвердил, что составил такой документ и отправил его правлению. На вопрос, существует ли версия этого документа где-либо в какой-либо форме, его адвокат возразила и дала указание не отвечать относительно документов, которые он мог предоставить своим собственным адвокатам. Суцкевер сказал, что знает, что его адвокаты имеют копию, но затем получил указание не отвечать на вопрос о том, что он узнал от своих адвокатов о том, кто ещё может иметь копию.

Это привело к ещё одному напряженному обмену. Адвокат истцов настаивал, что узнал о существовании меморандума о Брокмане впервые во время этих показаний, что документ не был предоставлен, хотя на него есть ссылка в общедоступных источниках и в одном из использованных экспонатов. Адвокат Суцкевера возражала, что документ был упомянут в экспонате, который использовали сами истцы, что они знали о его существовании, что были обширные обсуждения о том, какие документы будут и не будут предоставлены, и что меморандум никогда не запрашивался и не подпадает под запросы о предоставлении документов. Она настаивала, что если они хотели меморандум, они должны были запросить его до этого дня. Представитель истцов не согласился и заявил, что они намерены обратиться в суд по этому вопросу. Адвокат Суцкевера сделала заявление для протокола, что они не согласны вызывать свидетеля повторно.

В самом конце показаний, уже около восьми вечера, адвокат OpenAI задала философский вопрос о том, кто, по мнению Суцкевера, должен руководить искусственным общим интеллектом. Суцкевер дал пространный ответ. Его текущее мнение состоит в том, что за очень редкими исключениями человек, который будет руководить, скорее всего, будет очень хорош в обращении с властью. И это будет очень похоже на выбор между разными политиками. Он считает, что очень трудно для кого-то, кого можно назвать святым, добиться этого. Он думает, что это стоит попытки, но это будет как выбор между разными политиками — кто будет главой государства.

По завершении допроса адвокат истцов заявил для протокола, что считает показания незавершенными из-за непредоставленных документов, включая меморандум о Брокмане, и из-за отказа отвечать на вопросы о финансовых интересах свидетеля. Адвокат OpenAI сделала отдельное заявление о том, что многие экспонаты, показанные свидетелю, были предварительно выделены маркером, хотя защите передавались невыделенные копии, и что никакое выделение в документах не является оригинальным для этих документов. Она зарезервировала все права по этому поводу, и к этому возражению присоединился адвокат Microsoft.

Продолжаются новости про новые мощности под AI — OpenAI договорилась с Amazon о покупке вычислительных мощностей на $38 млрд в течение семи лет.

Контракт выглядит скромно на фоне предыдущих от OpenAI — $300 млрд с Oracle и $250 млрд с Microsoft. Но для Amazon это принципиально важная сделка.

По данным WSJ, теперь у OpenAI около $600 млрд облачных обязательств суммарно между всеми провайдерами. Впрочем, нынешняя выручка в 13 млрд никого не смущает, а Альтман уже дал прогноз на 100 млрд долларов.

Чтобы два раза не вставать — аналогичная новость от Microsoft, которая заключила пятилетний контракт с компанией IREN на 9,7 млрд долларов, что даёт возможность мелкомягким использовать Nvidia GB300, которые уже работают в техасском датацентре. Еще 7,9 млрд они планируют вложить в датацентры в Эмиратах, что доведет общую сумму инвестиций компании в ОАЭ до 15+ млрд долларов к 2029 году.

Google удалила модель Gemma из своего AI Studio после того, как сенатор-республиканка Марша Блэкберн обвинила её в клевете. Модель выдумала целую историю про обвинения в сексуальных домогательствах во время кампании по выборам в сенат штата в 1987 году с участием несуществующего полицейского, хотя кампания Блэкберн проходила в 1998-м. Ссылки на якобы подтверждающие статьи вели на страницы с ошибками и несвязанные материалы.

Компания заявила, что AI Studio “никогда не был задуман как потребительский инструмент”, хотя именно там непрофессионалы и получили доступ к модели. Gemma теперь доступна только через API. Вице-президент Google на слушаниях объяснял подобные случаи как “известную проблему галлюцинаций”, над которой компания работает. Блэкберн возразила, что это не безобидная галлюцинация, а клевета.

Вообще, ничего удивительного — Gemma реально маленькая модель, которую можно даже запустить локально. При этом доступность её не назовешь широкой — либо через AI Studio, либо локально, либо через API, в общем, обычные люди так не ходят. Поэтому история напоминает еще и анекдот иск в суд, по поводу того, что пара в доме напротив занимается непотребствами и оскорбляет мораль истца. “Так у них же шторы плотно задернуты! — Да, а вы на шкаф залезьте и чуть вбок посмотрите, всё и видно”.

На посмотреть вечером в воскресенье — Halloween Special, совместное интервью Сатья Наделлы и Сэма Альтмана Брэду Герстнеру. Поводом для интервью стало, конечно, случившееся наконец оформление нового партнерства между компаниями вместе с официальным переустройством OpenAI.

Альтман назвал партнерство с Microsoft одним из крупнейших партнерств в истории.

Оба много говорили о том, какую роль для экономики в целом сыграют инвестиции в AI. Это действительно так — даже просто масштаб этих инвестиций (4 трлн долларов, если сложить все планы Big Tech), которые Герстнер сравнил с Манхеттенским проектом (точнее, сказал, что это в 10 раз больше) поражает воображение. Кстати, помните, год с лишним назад Сэм говорил о 7 триллионах долларов? Наделла отдельно остановился на том, что датацентр — это не просто здание, типа автоматизированного склада, это создание supply chain, развитие местной экономики, энергетики (ну да, мы уже видим). При этом, как добавил он, американские инвесторы вкладываются не только в американскую экономику, строя датацентры и в других странах.

Когда Брэд спросил Сэма о сроках достижения AGI, тот дал уклончивый, но показательный ответ: если сказать 2027 год, это будет казаться далеко, если сказать 2026 — слишком близко. Но это где-то там, в этом диапазоне.

Сатья приводил примеры внедрения AI — как одна сотрудница Microsoft, которая управляет сетевыми операциями компании и работает с 400 операторами оптоволокна по всему миру, столкнулась с невозможностью нанять достаточно людей для обслуживания инфраструктуры. Вместо этого она создала целый набор агентов для автоматизации DevOps-пайплайнов.

Сатья Наделла дал свой прогноз — через 5 лет Microsoft удвоит свою выручку, но количество сотрудников вырастет заметно меньше. Вот так, мол, и будет выглядеть прирост производительности в каждой компании и в целом в экономике.

Герстнер, подводя итог, сообщил, что взаимопонимание между правительством и Big Tech позволит реально развернуть реиндустриализацию Америки и довести рост ВВП до 4%. Это, вообще-то, дофига и признаков пока нет (спасибо пошлинам), но в целом уровень координации действительно неплохой.

Если вам нужен почти классический пример полезного вайб-кодинга (на самом деле нет, не такой уж вайб), то вот вам очередной кейс от меня — в очередной раз подумав про громадное количество ненужной рутины при постинге заметок в блог на Hugo, я пришел к написанию собственного десктопного приложения под MacOS в духе блог-клиентов середины 2000-х. Времени ушло часов 8, сложность — честно говоря, на порядок проще и быстрее, чем большая часть предыдущей работы из-за отсутствия необходимости в деплое на сервер, в общем, я доволен, зачистил очередную занозу в своей жизни.

https://blognot.co/priatnyj-seans-vajbkodinga/

Anthropic опубликовала исследование о способности LLM к интроспекции — возможности модели анализировать собственные внутренние состояния. Методика любопытная: они записывали паттерны нейронной активности модели при обработке определенных концептов (например, текста заглавными буквами), а затем искусственно вводили эти паттерны в несвязанном контексте. Claude Opus 4.1 в 20% случаев обнаруживала инъекцию и корректно идентифицировала концепт.

Ключевое отличие от предыдущих экспериментов с активационным стирингом — модель сообщает об обнаружении аномалии до того, как начинает говорить о самом концепте. В случае с “Golden Gate Claude” модель осознавала свою одержимость мостом только постфактум, видя собственные ответы. Здесь распознавание происходит на внутреннем уровне обработки.

Неожиданная деталь — “helpful-only” версии моделей показывали лучшие результаты интроспекции, чем продакшн-варианты. Это указывает, что процесс файн-тюнинга для безопасности может подавлять эти способности. Anthropic также обнаружила, что модели реагируют на инсентивы (“если подумаешь о X, получишь награду”) так же, как на прямые инструкции — возможно, это общая система управления вниманием.

Конечно, 20% — это совсем мало и ненадежно, но, как принято говорить, мы в самом начале пути. Если вам интересно, к чему, то уточню, что интроспекция считается важной (хотя и недостаточной) чертой собственного сознания. По крайней мере, у людей это так.

Universal Music Group и Udio урегулировали судебный спор и объявляют о стратегическом партнерстве. Компании запустят в 2026 году новую лицензированную платформу для создания музыки с помощью AI. Модели будут обучены на авторизованном и лицензированном контенте, а существующий сервис Udio продолжит работать с добавлением fingerprinting и фильтрации.

Похожая схема — сначала судебный иск, потом коммерческое соглашение, — уже встречалась не раз. Так было с Napster, потом со Spotify и YouTube. Интересно еще, что похожим образом развиваются разнообразные попытки disruption - начиная с Uber, например, сначала все делают, что хотят, делая основой бизнес-модели отказ от соблюдения существующих норм, а потом начинают встраиваться в регулирование, которое немного меняется в процессе.

Дания, как текущий председатель Совета ЕС, отступает от идеи обязательной проверки на наличие CSAM в мессенджерах. Вместо этого предлагают оставить сканирование добровольным.

Дания фактически капитулировала после того, как несколько стран, включая Германию, выступили против. Министр юстиции Германии на этой неделе жестко раскритиковал “неоправданный мониторинг чатов”. Критики писали, что это открывает дверь для массовой слежки и противоречит существующим законам ЕС о защите данных и приватности коммуникаций. Была даже запущена публичная петиция с требованием отзыва такой инициативы полностью.

В итоге датчане побаиваются, что, если не прийти к согласию на этот счет до апреля 2026 года, то закончится действие нынешнего компромисса, в рамках которого провайдеры имеют основания на добровольную проверку сообщений. В общем, как же так, детей защитить не удастся, а они взывают о помощи. Мы должны протянуть руку помощи, и мы ее протянем ©.

Ну, вы поняли…

Amazon не очень отстает от конкурентов — AWS показал рост выручки на 20% в третьем квартале до $33 млрд, превысив ожидания аналитиков. Операционная прибыль подросла всего на 9% до $11,4 млрд, но это все равно больше половины всей операционной прибыли Amazon. Вся выручка Amazon составила 180,2 млрд долларов со средним (по регионам и бизнесам) ростом в 12% к прошлому году, если не считать курсовую разницу.

Заметьте, что Google Cloud за тот же период вырос на 34%, Azure — на 40%. AWS остается крупнейшим облачным провайдером, но темпы роста заметно отстают от конкурентов. Вероятно, это как-то связано с отсутствием у Amazon собственной модели AI, ориентированной на массовое использование.

И уже традиционно говорится, что в следующем году вложения в инфраструктуру заметно возрастут.

Теперь очередь Apple. Результаты за четвертый квартал фискального 2025 года — $102.47 млрд выручки против ожидаемых $102.24 млрд, прибыль на акцию $1.85 против прогноза в $1.77. Продажи iPhone составили $49.03 млрд, что на $1.16 млрд ниже ожиданий аналитиков. Но при этом на квартал пришлась всего неделя продаж линейки iPhone 17, который вышел 19 сентября.

Тим Кук объясняет результаты дефицитом предложения на старте продаж новой линейки. Зато Services выросли на 15% до $28.75 млрд — это самый быстрорастущий и маржинальный сегмент компании.

Впрочем, продажи Mac выросли даже больше — на 13% к прошлому году. Это явный успех линейки всех компьютеров с M4. И, возможно, еще и этим объясняется замедленный старт M5 — зачем торопиться обновлять то, что и так заслуженно прекрасно продается?

А вот продажи iPad, Wearables, Home и аксессуаров не выросли совсем. Что, опять-таки, совершенно понятно — серьезных апгрейдов в этих секторах не было, например, единственный в этом год апдейт iPad случился в марте, когда iPad Air получил M3 (вместо M2).

На текущий квартал Тим Кук обещает рост выручки на 10-12% и называет это “лучшим кварталом в истории компании”. Вполне возможно — продажи iPhone и нового MacBook Pro M5 могут это обеспечить.

---