Сегодня урожайный день на новые модели и сервисы — ElevenLabs добавили генерацию музыки в свою AI-платформу. Компания методично строит полный стек для работы со звуком — сначала клонирование голосов, потом озвучка, звуковые эффекты, теперь вот музыка.

Примечательное, что они заранее договорились с правообладателями. По информации компании, Eleven Music создавалась в сотрудничестве с лейблами, издателями и артистами. После того, как RIAA подала в суд на Suno и Udio за нарушение авторских прав, это выглядит довольно дальновидно.

Качество генерации пока неоднозначное. Я попробовал сгенерировать одну песню — оно бодро написало текст, мужской голос красиво спел один куплет, но вот со вторым как-то не так вступил и вообще впечатление такое, что изменил мелодию (собственно, да, изменил).

Впрочем, для первого релиза все равно неплохо, тем более, что они вряд ли прямо сразу замахиваются на лавры Suno. А вот сгенерировать джингл к уже озвученному ролику рекламы — это вполне себе хорошее применение.

А пока мы ждали OpenAI, Anthropic решил бахнуть в ответ — и выкатил Opus 4.1 вместо предыдущего Opus 4. Теперь он еще круче и лучше по всем метрикам. И доступен везде, где вы использовали Opus 4. То есть вообще везде, если вы, как я, даже рецепты иногда у него спрашивали.

Мы ждали и дождались — OpenAI выпускает целых две open-weight модели — gpt-oss-120b и gpt-oss-20b под лицензией Apache 2.0.

Технически это mixture-of-experts модели, где активируется лишь малая часть параметров. У 120-миллиардной версии работает только 5.1B на токен, что позволяет запускать её на одной 80GB GPU. Младшая 20-миллиардная модель вообще помещается в 16GB памяти.

По производительности модели приближаются к проприетарным аналогам OpenAI — o4-mini и o3-mini соответственно, а на некоторых обе модели обходят o1 и GPT-4o.

OpenAI намеренно попыталась “сломать” собственные модели, дообучив их на опасных данных по биологии и кибербезопасности. Затем протестировала, насколько опасными они могут стать. Вывод: даже после агрессивного fine-tuning модели не достигают критического уровня capabilities по их Preparedness Framework. Методологию проверяли три независимые группы экспертов.

Это заодно объясняет, чем занимались разработчики примерно последний месяц, пока Сэм Альтман объяснял, почему модель задерживается.

Chain-of-thought специально оставили без supervision — чтобы можно было отслеживать потенциально вредное поведение модели. Правда, это означает, что в рассуждениях могут быть галлюцинации и небезопасный контент.

Вообще, это интересно не только с точки зрения использования моделей on-premise, что важно для компаний, но и с точки зрения возможного fine-tune — на данный момент последняя модель, которую можно дообучить, это GPT-4o, если новые модели лучше, это уже прогресс.

TheInformation описывает интересный феномен — рекламодатели продолжают увеличивать расходы на Google, хотя постоянно на него жалуются. Из-за этого рост выручки от поисковой рекламы составил 11,7% во втором квартале — даже больше, чем в первом.

По данным рекламного агентства Warschawski, сейчас только 60% объявлений показываются там, где нужно, при 80-90% еще год назад.

Кельвин Николс из Wpromote говорит, что больше половины его клиентов видели двузначное падение трафика в этом году. И как минимум половина из них ответила увеличением расходов на рекламу. “Это не значит, что они счастливы”, — добавляет он.

При этом меняется сама структура поиска. Люди используют ChatGPT для общих вопросов, а в Google приходят уже с конкретными брендами. Из-за этого доля общих продуктовых запросов падает, зато растут брендовые и при этом они дорожают — на 16% за полгода. Рекламодатели в итоге вынуждены больше платить за собственные бренды.

Даже при всех недостатках Google остается единственным рабочим вариантом. “Реклама в Bing хуже (suck more), чем в Google. В ChatGPT рекламы пока нет”, — резюмирует Сэм Томлинсон, VP агентства Warschawski.

Белый дом готовит указ президента, который позволит штрафовать банки за отказ обслуживать клиентов по политическим мотивам (т.н. debanking). По информации WSJ, регуляторам поручат проверить, не нарушают ли финансовые институты законы о равном доступе к кредитам и защите прав потребителей.

Криптокомпании годами жаловались, что банки отказывают им в обслуживании. При администрации Байдена ситуация только ухудшилась, причем многие считали, что в этом виновато давление регуляторов.

Bank of America уже отреагировал довольно дипломатично — заявил, что “приветствует усилия администрации” и готов работать над улучшением регуляторной среды. Другие банки тоже не сидели сложа руки — последние месяцы активно встречались с республиканскими генпрокурорами и обновляли внутренние политики.

Самое интересное — указ требует от регуляторов отменить любые политики, которые могли способствовать отказам клиентам. И еще поручает Small Business Administration проверить банки, где агентство гарантирует кредиты.

С одной стороны, для крипторынка это хорошие новости. С другой — банки-то отказывали не просто так, а опасаясь нарушить законы о противодействии отмыванию денег. Которые, вроде бы, никто не отменяет. Международные соглашения, конечно, можно не упоминать.

Alibaba представила новую модель для генерации изображений Qwen-Image. В ней используются 20 миллиардов параметров, использует архитектура MMDiT. Особенность, которую компания позиционирует как ключевую — нормальная генерация текста на изображениях, причем даже иероглифы.

Западные модели до сих пор не справляются с азиатскими языками — DALL-E рисует какие-то каракули вместо иероглифов. Qwen-Image правильно генерирует и смешанный текст, и рукописный и даже презентацию о самой себе.

На бенчмарках, по их словам, обходят всех. Доступ пока только через веб-интерфейс. Но лицензия Apache 2.0, так что, когда выложат, будет интересно посмотреть на работу комьюнити. Тем более, что западные модели и с европейскими языками пока не на 100% справились.

Google договорился с энергетическими компаниями приостанавливать AI-нагрузки при пиках потребления электроэнергии. Соглашение подписано с Indiana Michigan Power и Tennessee Valley Authority как раз перед волной жары, когда все включают кондиционеры.

Google уже делает так для обработки YouTube-видео, перенося эти операции в зависимости от пиков потребления. Теперь это же будет распространяться на некритическую работу AI.

Совет директоров Tesla одобрил новый компенсационный пакет для Маска — 96 млн акций стоимостью $30 млрд. Это предсказуемо, после его угроз покинуть компанию, если не получит больше контроля.

Для оформления этого собрали специальный комитет, который состоял всего из двух человек — председателя Робин Денхолм и директора Кэтлин Уилсон-Томпсон. Доля Маска вырастет с менее чем 13% до примерно 16%.

По условиям, Маск должен оставаться на руководящей должности минимум два года и не может продавать акции в течение пяти лет. Ему придется заплатить $23.34 за акцию при получении — это цена исполнения для уровня 2018 года. С учетом всех ограничений реальная стоимость для бухучета — $23.7 млрд.

“Удержание Илона важнее, чем когда-либо”, — пишет компания акционерам. Совет директоров считает его критически важным для перехода Tesla к AI, автономному вождению и роботам. Впрочем, они предупреждают, что это только первый шаг — работают над долгосрочной стратегией компенсации.

Акции Tesla выросли на 2.2%.

После жалоб клиентов Cloudflare провела расследование и выяснила, что Perplexity нарушает стандарты индексирования, общепринятые уже много лет в интернете. Даже когда сайты явно запрещают сканирование в robots.txt и блокируют официальные боты Perplexity, компания все равно достает контент через краулеры, маскирующиеся под обычный браузер Chrome.

Методика выглядит так — сначала приходит официальный PerplexityBot. Если его блокируют — включается план Б с user agent “Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7)”. Кроме того, используется постоянная ротация IP из разных сетей и даже автономных систем.

Всё это явно нарушает Robots Exclusion Protocol, описанный в RFC, и до сих пор считавшийся практически незыблемым — по крайней мере, до сих пор компании, замеченные в его нарушении, краснели, извинялись и прекращали подобную практику. Но Perplexity явно нацелилась на лавры enfant terrible среди AI и поисковиков.

Cloudflare уже исключила Perplexity из списка верифицированных ботов и добавила блокировку в свои правила. Это доступно всем клиентам, включая бесплатные аккаунты. Впрочем, как пишут сами Cloudflare, после публикации этого поста поведение Perplexity наверняка изменится. И начнется новый раунд игры в кошки-мышки.

Anthropic заблокировала OpenAI доступ к API своих моделей Claude. Причина — нарушение условий использования: сотрудники OpenAI использовали Claude Code для внутренней разработки перед запуском GPT-5.

По данным источников WIRED, OpenAI не просто пользовалась чатом, а интегрировали Claude через API в свои внутренние инструменты, запускали автоматизированные тесты и сравнивали результаты со своими моделями в задачах кодирования и генерации текста.

Формулировка от Anthropic интересная: они продолжат предоставлять доступ для “бенчмаркинга и оценки безопасности, как принято в индустрии”. Но текущие ограничения остаются. Как одно сочетается с другим — не поясняют.

Глава пресс-службы OpenAI сообщила, что общей практикой индустрии является взаимное тестирование систем относительно друг друга и несколько разочаровывает решение Anthropic, хотя их собственный API остается открытым для Anthropic.

Интересно, что у OpenAI есть собственный агент Codex CLI, который запускался, чтобы уметь то же, что и Claude Code. Но как-то отстал в развитии даже для OpenAI.

---