Продолжается разбирательство по вопросу продажи Apple Watch Series 9 и Ultra 2 в США — таможенная служба США решила, что импорт в США часов Apple, не содержащих функции пульсоксиметрии (или таких, в которых эта функция выключена), не подпадает под решение комиссии по международной торговле, которая запретила импорт часов в прошлом году.

Правда, часы продолжают продаваться, поскольку пока в силе решение апелляционного суда, остановившего действие решения ITC. В ближайшее время суд должен решить, оставлять ли ситуацию в таком состоянии на время полного рассмотрения апелляции или удовлетворить встречное ходатайство Masimo, где адвокаты требуют отмены такой обеспечительной меры.

Скорее всего, американским новым покупателям стоит заранее смириться с тем, что такая функция в их устройствах будет отсутствовать до выхода новых версий часов.

Кевин Систром, основатель Instagram, объявил о закрытии своего проекта Artifact News — это приложение, которое подбирало новости для пользователя на основании его профиля и интересов. Как сообщает Кевин в заключительном посте, рыночные перспективы оказались недостаточны, чтобы оправдать дальнейшие инвестиции в развитие продукта, хотя, как он отмечает, команда добилась многого.

Честно сказать, мне кажутся сомнительными перспективы большинства таких приложений, не встроенных в чью-либо экосистему. То есть, как мне кажется, дополнительным сервисом это может быть, а вот отдельно стоящим — увы, нет. Или не сейчас.

На CES, который проходит в эти дни, показывают много разного, но вот внимание TechCrunch привлекло устройство, которое обеспечивает eye contact при видеозвонках. eyeQ использует конструкцию из камеры и зеркальной поверхности, которая обеспечивает этот контакт физически.

Если внимательно посмотреть на картинки, то станет понятно, что зумеры (или миллениалы) придумали телепромптер, только, вместо проецирования на зеркало изображения, они проецируют изображение с зеркала в камеру. Впрочем, громоздкость конструкции гарантирует её непопулярность.

Год начался с темы увольнений — я уже писал про увольнения в Google, Discord увольняет 17% сотрудников, Amazon увольняет сотни человек в контент подразделениях — от Prime Video до MGM Studios, Meta реорганизует структуру в Instagram и примерно 60 “технических программных менеджеров” могут пройти интервью для трудоустройства на другие роли в компании, — и это еще не все примеры.

В принципе, это очевидно — тот персонал, который был набран с момента пандемии (Discord, например, увеличился в пять раз с 2020 года) теперь выглядит излишним. Поэтому уже два года, с момента, когда тренд развернулся и рост перестал быть таким бурным, идут сокращения и реорганизации. А то, что все эти сообщения сошлись на одной неделе, объясняется праздниками — были, конечно, компании, заработавшие себе сильно отрицательную карму сокращениями в декабре, перед Рождеством, но большинство решило подождать нового года и вот он наступил.

Platformer — одна из самых популярных новостных рассылок о новостях в tech, — уходит с Substack на Ghost. Причина простая — Substack не понял, что уже является не просто технической платформой для рассылок, но и контент-платформой, и не проводит никакой модераторской политики, предоставляя свою платформу авторам с ультраправыми и откровенно пронацистскими взглядами.

Дискуссия про способность Substack что-то с этим сделать ведется с прошлого года, и Кейси Ньютон, автор Platformer, пытался с этим помочь — его команда отобрала несколько примеров рассылок, нарушающих даже существующие правила Substack, и передала их сервису. И, хотя в большинстве случаев меры были приняты, компания приложила все усилия для создания впечатления, что проблема искусственно раздута и вообще вот эти несколько случаев — это всё, что смогли найти, да и те практически не имеют подписчиков и не приносят денег.

В общем, Кейси взял паузу и начал переезд на Ghost. Нынешним подписчикам не надо ничего делать, их аккаунты будут перенесены на новую платформу. А я, признаться, подумаю — у меня и подкаст на Substack, и не хотелось бы в очередной раз переезжать.

Brave (компания, делающая одноименный браузер) добавила в свой поиск собственную LLM — CodeLLM, — которая будет подключаться при ответах на запросы, связанные с разработкой и написанием кода.

Для создания своей LLM разработчики использовали Mixtral, open-source модель французов Mistral, которая по большинству тестов не уступает Llama 2 и GPT-3.5. Она вышла как раз месяц назад и, если кто помнит, вызвала комментарии как раз в духе того, что открытость модели позволит создавать на её основе специализированные решения. Вот одно из первых и подоспело.

SEC одобрила запуск первых ETF на базе биткоина. Общий список фондов “первой очереди” включает в себя 11 позиций, включая фонды от Fidelity и Grayscale.

Одобрению ETF (о которых, кстати, говорилось еще лет пять назад) предшествовали месяцы дискуссий и даже взлом Twitter-аккаунта SEC, где хакеры на пару дней раньше сообщили о запуске ETF.

Правда, далеко не все участники процесса в восторге — некоторые заявляют, что это трагическая ошибка, которая приведет к ущербу для инвесторов, а глава SEC подчеркнул, что одобрение ETF на базе биткоина не означает признания собственно биткоина.

Google сокращает сотни человек, работающих в подразделении, занимающемся разработкой Google Assistant. Ранее компания объявляла, что планирует развивать Assistant на основе AI-агента Bard.

Кроме того, реорганизации подвергнутся подразделения, разрабатывающие устройства — Pixel, Nest и Fitbit. До сих пор они представляли собой отдельные команды — поскольку фактически Google купил Nest, а потом Fitbit и так и поглотил их команды, — а теперь планируется объединить их в единую структуру, сократив попутно тоже сотни сотрудников. В частности, основатели Fitbit покинут Google.

Я бы не стал из этого выводить заключения о кризисе — нет, просто компания оптимизируется, чтобы приносить больше прибыли. Или, чтобы сократить убытки — кажется, далеко не все девайсы Google обходятся без таковых.

Ученые университета Мичигана провели исследование с целью определить, как назначение ролей в общении с LLM влияет на эффективность и качество ответов модели. Оказалось удивительное — хотя разница между качеством ответом мужских и женских ролей слегка отличается в пользу мужских (исследователи считают, что разница укладывается в пределы погрешности), заметно лучше оказались ответы, когда LLM назначали гендер-нейтральную роль. То есть, если модели говорили “Представь, что ты мать”, ответы были чуть хуже варианта “Представь, что ты отец”, но оба они сильно проигрывали варианту “Представь, что ты родитель”.

Что еще более удивительно и даже иронично — если модель просили представить себя программистом, она начинала давать ответы на вопросы относительно программирования хуже, чем когда никакой роли не назначалось.

Мне это напоминает ситуацию с лунатиком, которого нельзя будить. А вам нет?

OpenAI опубликовали публичный ответ на иск New York Times.

Вкратце — OpenAI считает, что они и сами заинтересованы в развитии журналистики. Но при этом обучение моделей на текстах журналистов — это добросовестное использование, хотя каждый может запретить это в отношении его контента, это его право.

Приводимые в иске примеры, когда ChatGPT начинает писать большими цитатами из материалов New York Times — это баг и разработчики стараются его ликвидировать. Вместе с тем, New York Times, по мнению OpenAI, скрывает часть деталей — они отказывались поделиться подробной информацией для расследования бага, и напротив — кажется, манипулировали промптами, включая большие цитаты из своих материалов, чтобы заставить модель ошибаться. Все примеры в иске относятся к старым текстам, много раз перепечатанными или пересказанными другими изданиями, что усиливало вероятность возникновения ошибки. Причем в инструкциях явно были указания повторять оригинальный контент или New York Times отбирала нужный результат после многих попыток.

Иск New York Times был неприятным сюрпризом, поскольку компании вели вроде бы вполне конструктивные переговоры относительно сотрудничества. OpenAI до сих пор настроена на такое сотрудничество, хотя и считает иск безосновательным.

---