🌟 Google DeepMind выпустила Gemini Robotics-ER 1.6Gemini Robotics-ER 1.6 - обновлённая модель воплощенного ризонинга, которая отвечает за пространственное понимание, планирование задач и детекцию успеха робота, но сама не управляет приводами. За моторные команды по-прежнему отвечает отдельная VLA-модель Gemini Robotics 1.5. ER-версия лишь подсказывает ей, что и в каком порядке делать, и при необходимости вызывает внешние инструменты (от поиска Google Search пользовательских функций.🟡Чтение приборовСовместно с Boston Dynamics в DeepMind научили модель интерпретировать аналоговые манометры, уровнемеры, смотровые стёкла и цифровые табло.Задача нетривиальная: нужно распознать стрелки, риски, единицы измерения и корректно сложить разряды, а для смотровых стёкол - оценить уровень жидкости с поправкой на перспективу камеры. Сценарий заточен под обходы промышленных объектов, которыми занимается робот Spot.Точность достигается за счёт связки визуального ризонинга и исполнения кода.Модель сначала зумит целевой участок снимка, затем расставляет точки по ключевым элементам шкалы и через код считает пропорции и интервалы.На задаче чтения приборов Gemini Robotics-ER 1.6 с показывает 93%, без ризонинга - 86%.🟡Подтянули базовые навыки🟢Указание точных пиксельных координат стало точнее в счёте, обработке отношений «from-to», построении траекторий и выборе точек захвата.🟢Заметно вырос успех детекции в мультикамерных сетапах, где сцену одновременно снимают обзорная камера и камера на манипуляторе.🟢Модель стала лучше сопоставлять виды между собой и во времени, что критично в динамичных сценах: без надёжной детекции завершения шага агент не понимает, повторять ли попытку или переходить к следующему этапу плана.По безопасности DeepMind заявляет лучший результат в линейке: модель стабильнее соблюдает физические ограничения и точнее распознаёт травмоопасные ситуации (+6% на текстовых сценариях и +10% на видео по сравнению с Gemini 3.0 Flash).Gemini Robotics-ER 1.6 доступна через Gemin
Machinelearning
@ai_machinelearning_big_data
Погружаемся в машинное обучение и Data ScienceПоказываем как запускать любые LLm на пальцах. По всем вопросам - @haarrp@itchannels_telegram -🔥best channelsРеестр РКН: clck.ru/3Fmqri
Похожие каналы
Последние посты

Роскошный максимум: получить приглашение в команду SberAds за один день! 😉Сделать это можно на One Day Offer* для Data Analyst**, который пройдёт уже 25 апреля. Сбер ждёт специалистов, которые готовы:✔️ создавать и улучшать модели для real-time аукционов✔️ трансформировать SberAds — вывести на пик эффективности, качества и релевантности рекламы✔️ стать частью команды из 8000+ коллег (это вау! 🤩)Занимай место в проекте мечты! * One Day Offer — предложение о работе за один день.** Data Analyst — аналитик данных.

✔️ ElevenLabs анонсировала локальное развертывание моделей.Платформа открыла ранний доступ к 2 вариантам деплоя:🟢On-Premise - для стандартных серверов с GPU,🟢On-Device - для edge-устройств и систем с поддержкой NPU, ARM-чипов и бюджетных видеокарт.Обе версии работают с более чем 30 языками. Инференс и обработка аудио будут выполнятся целиком внутри инфраструктуры клиента.Лицензионная валидация и телеметрия опциональны вплоть до полностью изолированных контуров.Обещают доступность тонкой настройки под конкретные языки и диалекты. Обновления в этих вариантах развертывания будут поставляться по контролируемому графику.Пока открыта запись в лист ожидания, срок запуска - без даты, но указано что в первой половине 2026 года.Тарификация индивидуальная: лицензия плюс оплата по использование.@ai_machinelearning_big_data#news #ai #ml

⚡️ Вышло большое обновление популярного курса- Ai AI агенты, которые реально работают в проде!Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.И 90% таких систем ломаются между ноутбуком и продом.AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/

⚡️ OpenAI обновила Agents SDKВышло крупное обновление Agents SDK и главное изменение в том, что агенты теперь могут читать и записывать файлы, устанавливать зависимости, запускать код и обращаться к внешним инструментам, а не ограничиваться диалогом с пользователем.В обновлённый исполнительный каркас добавлены настраиваемая память, оркестрация с учётом песочниц и встроенные инструменты работы с файловой системой. Эти возможности ранее были характерны для Codex. Помимо этого, SDK поддерживает вызов инструментов через MCP, пользовательские инструкции AGENTS.md и прогрессивные объявления возможностей Skills.Из коробки SDK работает с 7 провайдерами песочниц: Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop и Vercel. Есть возможность подключить и собственную инфраструктуру. Новая абстракция Manifest описывает рабочее пространство агента единообразно - позволяет монтировать локальные файлы, задавать каталоги вывода и подключаться к облачным хранилищам AWS S3, Google Cloud Storage, Azure Blob Storage и Cloudflare R2. По заявлению компании, одна и та же конфигурация работает и при локальной разработке, и при развёртывании в рабочей среде.Архитектурно SDK отделяет логику управления агентом от среды, в которой выполняется его код, в результате чего:🟢учётные данные не попадают в среду исполнения сгенерированного моделью кода, что снижает риски промпт-инъекций и утечек данных; 🟢вынесенное состояние агента позволяет делать снимки и восстанавливать работу при сбое контейнера песочницы; 🟢несколько субагентов могут выполнять задачи параллельно в разных контейнерах.Обновление доступно всем пользователям API и тарифицируется по стандартной схеме - за токены и вызовы инструментов. Пока поддерживается только Python. Выпуск TypeScript-версии, по словам OpenAI, запланирован на более поздний срок.@ai_machinelearning_big_data#news #ai #ml

📌 The Nation связывает сокращение научного финансирования в США с ростом ИИ-платформИздание The Nation опубликовало материал о связи между сокращением государственного финансирования науки в США и быстрым ростом индустрии, где исследователи с докторскими степенями выполняют задачи для обучения ИИ-моделей за почасовую плату.По данным Американской ассоциации содействия развитию науки, предложенный бюджет на 2026 финансовый год предусматривал сокращение финансирования Национальных институтов здравоохранения на 40%, Национального научного фонда - на 57%, NASA - на 24%.Конгресс частично откатил эти меры, однако, по данным журнала Science, за последний год федеральную службу покинули более 10 тыс. сотрудников с PhD в STEM-дисциплинах. Университетские лаборатории, как сообщает The Atlantic, увольняли сотрудников и сворачивали исследования.The Nation связывают эту политику с венчурными инвесторами, близкими к Белому дому, прежде всего с Питером Тилем и Марком Андриссеном.В утечке переписки, опубликованной The Washington Post в 2025 году, Андриссен призвал подвергнуть Национальный научный фонд «бюрократической смертной казни».Сами Тиль и Андриссен публично обосновывают свою позицию тем, что академическая наука, по их мнению, стала забюрократизированной и утратила продуктивность.Тиль в интервью Hoover Institution утверждал, что число PhD за столетие выросло в 100 раз, тогда как темп научного прогресса почти не изменилсяОдновременно растёт рынок платформ, нанимающих учёных для подготовки данных и проверки ответов ИИ-моделей.По словам всех опрошенных изданием исследователей, именно урезание федерального финансирования сделало для них почти недоступными позиции в академии: закрывались постдокторские ставки, исчезали летние стипендии, сворачивались гранты.Обучение ИИ-моделей, в свою очередь, требует специалистов, способных составлять сложные задачи и проверять ответы на уровне эксперта с докторской степенью - и освободившийся в результате бюджетных сокращений пул кандидатов оказ
Клод, когда я кидаю в него сложные задачи@ai_machinelearning_big_data#claude
✔️ DeepSeek впервые привлекает внешние инвестицииКитайский ИИ-стартап, до сих пор существовавший на деньги хедж-фонда High-Flyer, впервые ведёт переговоры о внешнем финансировании. DeepSeek рассчитывает привлечь минимум $300 млн, что выведет ее оценку за пределы $10 млрд. Раньше компания отказывала китайским VC, но теперь деньги нужны для закупки вычислений - обучение моделей дорожает быстрее, чем High-Flyer может финансировать.Параллельно стартап теряет инженеров. Один из авторов архитектуры V3 ушёл возглавить ИИ-направление в Xiaomi, исследователя Го Дая переманила ByteDance.С инфраструктурой тоже напряжённо. В апреле 2026 DeepSeek пережил 7-часовой сбой, который затронул 355 млн пользователей. Чтобы снизить зависимость от сторонних облаков, компания планирует строить собственный дата-центр во Внутренней Монголии.theinformation.com✔️ OpenAI выпустила первую модель в новой серии Life SciencesGPT-Rosalind, названная в честь биофизика Розалинд Франклин, создана для ускорения разработки лекарств на ранних этапах поиска, улучшения выбора биологических мишеней и планирования экспериментов.Модель уже показала лучший результат на биологических бенчмарках BixBench и в закрытых тестах по прогнозированию функций РНК-последовательностей, где модель превзошла 95% исторических результатов экспертов-людей.Вместе с релизом OpenAI выложила на GitHub плагин Codex Life Sciences Research. Инструмент предоставляет доступ к более чем 50 базам данных и биологическим утилитам, причем его можно использовать в связке с любыми моделями общего назначения. Модель доступна в режиме preview участникам Trusted Access Program - корпоративным клиентам в США.openai.com✔️ Anthropic исправила баг учёта лимитов в Opus 4.7Anthropic устранила ошибку, из-за которой 5-часовые и недельные квоты в Opus 4.7 списывались быстрее, чем должны, особенно при длинных промптах. Баг существовал ещё в Opus 4.6, но в новой модели стал заметнее: Opus 4.7 перешёл на новый токенизатор, который тратит до 1,35× токенов на т
🚀 Anthropic запустила Claude Design - отдельный продукт, который заточен на генерацию готовых макетов, прототипов, слайдов и сайтом. Под капотом Claude Opus 4.7, их самая сильная модель с пониманием визуала.Главная фишка не в генерации картинок, а в том, что Claude читает твою кодовую базу и дизайн-файлы, вытаскивает оттуда дизайн-систему продукта и дальше сам держит всё в рамках бренда. Никакого ручного объяснения, какие у вас шрифты, цвета и отступы.Пока это research preview на планах Pro, Max, Team и Enterprise, раскатка идёт в течение дня. Попробовать: claude.ai/design@ai_machinelearning_big_data#claude #Anthropic

📌 EvoMap обвинила Hermes Agent в копировании архитектуры.Команда EvoMap, разрабатывающая эволюционный движок для ИИ-агентов Evolver, опубликовала детальное техническое сравнение, в котором обвинила проект Hermes Agent от Nous Research в систематическом заимствовании архитектурных решений без указания источника.Разрыв в популярности между проектами значителен: 88 тысяч звёзд на GitHub у Hermes Agent против 2 тысяч у Evolver.В списке перечислены более 10 совпадений на уровне модулей: трёхуровневая система памяти с идентичным распределением ролей между слоями, замкнутый цикл автоматического извлечения переиспользуемого опыта, механизм периодической рефлексии, динамическое обнаружение и подгрузка навыков, десятишаговая оркестрация эволюционного цикла и ряд инженерных паттернов.Хронология, на которую опирается EvoMap: ключевой протокол GEP был раскрыт с 1 по 16 февраля в 136 релизах, а система навыков Hermes появилась лишь 12 марта.Аргументация EvoMap строится на вероятностной логике: каждое совпадение по отдельности объяснимо независимой конвергенцией - трёхуровневая память и извлечение опыта активно обсуждаются в сообществе ИИ-агентов, но их совокупность, по мнению авторов, выходит за рамки случайности.При этом EvoMap признает:🟢репозиторий Hermes Agent создан в июле 2025 года, на полгода раньше Evolver; эволюционный модуль Hermes построен на фреймворке GEPA;🟢стандарт Agent Skills предшествует обоим проектам;🟢код написан на разных языках - JavaScript и PythonОснователь Nous Research в ответ на претензии написал, что никогда не слышал ни о проекте, ни о его авторах, назвал сравнительный анализ «полной чушью», а позднее посоветовал EvoMap удалить свой аккаунт. На технические аргументы Nous Research не отвечала.Вслед за этим EvoMap выпустила открытое письмо, объявив о смене лицензии Evolver с MIT на GPL-3.0 и переходе к выпуску ключевых модулей в обфусцированном виде. Команда также признаёт, что судебное разбирательство с Nous Research ей не по силам.Главный тезис пись

✔️ OpenAI объяснила путаницу с лимитами тарифов Pro.После запуска нового плана Pro за 100 долларов пользователи так и не получили внятного ответа, чем он отличается от уже существующего тарифа за 200 долларов.Разъяснения дал сотрудник OpenAI Тибо Соттио, который признал, что компания сама запутала аудиторию формулировками на странице с ценами.Тариф Pro за $100 включает десятикратный объем использования относительно Plus - с учетом действующего до 31 мая промо-множителя 2x.План за $200 дает как двадцатикратный объём Plus на тех же условиях.Как уточнил разработчик, у максимальной подписки этот лимит не менялся с февральского запуска бонуса 2x (просто раньше компания нигде не документировала конкретную цифру).Источник путаницы - строка на странице тарифов «5x or 20x usage». Многие закономерно решили, что с учетом бонуса 2x речь идет о «10x и 40x».Соттио объяснил, что OpenAI смешала два разных сообщения: факт того, что Pro за $100 стартовал сразу с множителем 2x (что и дает итоговые 10x до 31 мая), и информацию о том, что Pro за $200 сохраняет свой бонус 2x, который публично приравняли к 20x от Plus.Тибо пообещал, что страницу с тарифами обновят, и извинился за неясные формулировки.По итогу: до конца мая старший тариф дает ровно вдвое больше запросов, а не вчетверо, как можно было подумать согласно прайс-листу.@ai_machinelearning_big_data#news #ai #ml

🚨 Claude «деградировал» и это видно по логам.Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузкиЗамечали ли вы, что Claude стал тупее в последнее время ?🤯Директор по AI в AMD проанализировала 6 852 сессии Claude Code и показала, что модель сильно ухудшили.234 760 вызовов инструментов, 17 871 блоков размышлений, 3 месяца логов.После этого Anthropic ответили и фактически подтвердили её выводы.Пожалуй, самый чистый и показательный аудит AI за 2026 год 👇https://github.com/anthropics/claude-code/issues/42796#issuecomment-4194007103@ai_machinelearning_big_data#news #ai #ml #claude🚨 Claude «деградировал» и это видно по логам.Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качес
✔️ Anthropic вынесла планирование Claude Code в облако.В Claude Code появилась команда /ultraplan - она передает планирование из локального CLI в облачную сессию Claude Code on the web.Логика в том, что чтение кода и составление плана почти не зависят от локального окружения и спокойно уезжают в облако, тогда как реализация часто завязана на интерактивность и инструменты конкретной машины.По расходу токенов и лимитам /ultraplan сопоставим с обычным plan mode (об этом отдельно уточнил инженер Anthropic Thariq в сети X).Запустить можно 3 способами:🟢командой /ultraplan с промптом;🟢ключевым словом ultraplan внутри запроса;🟢из approval-диалога локального plan mode, выбрав «Refine with Ultraplan».Пока Claude разбирает репозиторий в облаке, терминал остается свободным, а статус-индикатор показывает одно из 3-х состояний: черновик пишется, требуется уточнение или план готов.Готовый драфт открывается в браузере в отдельном review-интерфейсе. Каждая итерация порождает новую версию плана, и таких циклов может быть сколько угодно.После согласования разработчик решает, где исполнять:🟠«Approve and start coding» оставляет работу в той же облачной сессии и доводит ее до diff и PR на вебе.🟠«Approve and teleport back to terminal»: план возвращается в локальный CLI, где его можно влить в текущую беседу, открыть новую сессию с чистым контекстом или просто сохранить в файл на потом.Функция доступна в режиме research preview всем, у кого подключен Claude Code на вебе, и требует CLI версии 2.1.91 или новее, но не работает поверх Amazon Bedrock, Google Vertex AI и Microsoft Foundry.Активный Remote Control при запуске /ultraplan отключается - оба инструмента делят один и тот же интерфейс и одновременно жить там не могут.@ai_machinelearning_big_data#news #ai #ml
RAG 2026: от фичи к инженерной дисциплинеВ 2023 RAG выручал слабые LLM. Сегодня модели уже с длинным контекстом, но исследования вроде Context Rot подтверждают деградацию качества. Так что RAG все еще в игре.Про то, как работают с RAG в 2026 году, на примере нескольких кейсов рассказал Андрей Соколов из Яндекс R&D. Например, в Алисе команда экспериментировала с разграничением внутренних и внешних знаний и оставила RAG только на фактологических запросах. В результате минус 23% контекста и плюс 3% качества. И здесь чем больше приборов оценки качества — тем лучше. RAG напрямую связан со знаниями модели, и переход на более умные модели может приводить к неожиданным результатам.Отдельный мини-блок был посвящен стабильности. Здесь смотрят, чтобы контекст не ухудшал ответ, больше документов не роняло качество, а порядок не влиял на результат. Качество независимо от перестановок должно быть примерно одинаковым.В Нейросаппорте, в отличие от Алисы, нет огромной нагрузки, зато есть внутренняя документация и закрытая генерация (при этом промптинг не спасает от возможной утечки NDA). Разработчики придумали разделить контексты на «хорошие», «плохие», «безопасные» и «приватные», собрали SFT‑датасет с описанием поведения, дообучили отдельную Reward Model на нарушения NDA и получили +19% качества при контролируемой безопасности. Как оказалось, RAG не только не умер к 2026 году, но и стал полноценной инженерной дисциплиной: со своими метриками, подходами к обучению и архитектурными паттернами. Впрочем, работа впереди ещё большая.
⚡️ В дом главы OpenAI бросили коктейль Молотова, подозреваемый задержан.20-летний мужчина метнул самодельное зажигательное устройство в дом Сэма Альтмана в Сан-Франциско, спровоцировав пожар. Скрывшись с места преступления, злоумышленник направился к штаб-квартире OpenAI, расположенной в 5 километрах от дома.Спустя час полиция задержала его возле главного офиса компании - там молодой человек угрожал сжечь здание дотла.В результате инцидентов никто не пострадал и полиция пока не уточняет, находился ли руководитель OpenAI дома в момент нападения.ft.com✔️ Минфин США и ФРС экстренно собрали глав крупнейших банков из-за модели Mythos.Министр финансов США и председатель ФРС провели закрытую встречу с руководителями Citigroup, Morgan Stanley, Bank of America и Goldman Sachs. Темой срочного совещания стали риски кибербезопасности, спровоцированные релизом модели Mythos от Anthropic.Опасения властей связаны с техническими возможностями модели. Mythos способен находить и самостоятельно эксплуатировать уязвимости нулевого дня во всех основных операционных системах и веб-браузерах. Для системно значимых банков, от которых зависит глобальная экономика, это означает переход киберугроз на принципиально иной уровень автоматизации.Цель экстренного совещания - убедиться, что финансовый сектор осознает масштабы проблемы и готов перестроить защиту внутренних сетей под новые реалии.bloomberglaw.com✔️ MiniMax выпустил модель генерации музыки Music 2.6.В новой версии улучшили качество сведения и следование инструкциям. Теперь через промпт можно точно задавать BPM, тональность, порядок вступления партий и выстраивать сложную эмоциональную дугу трека.Проведена глубокая оптимизация средних и низких частот. Для работы с готовым материалом появилась функция Cover. Она извлекает мелодический каркас из загруженного аудио и позволяет полностью изменить жанр или аранжировку, сохранив исходный мотив и ритмику.Кроме этого, представлены три новых Music Skills. Они позволяют интегрировать генерацию м

⚡️ Anthropic запустила функцию гибридного использования моделей Claude.На Claude Platform новый серверный тул - Аdvisor. Он реализует механику, в которой Sonnet или Haiku идут как исполнитель и ведут задачу от начала до конца, а Opus подключается как советник, чтобы в результате получить качество, близкое к Opus, по цене, близкой к Sonnet.Модель-исполнитель сама решает, когда позвать Opus, он подключается как обычный вызов инструмента.Opus получает выжимку контекста, возвращает план, исправление или сигнал остановки, после чего исполнитель продолжает работу. Советник не вызывает другие инструменты и не пишет в ответ пользователю - только дает указания исполнителю.Все происходит внутри одного запроса, без дополнительных раунд-трипов и ручной оркестрации.Токены советника тарифицируются по его ставкам и репортятся в usage отдельно, так что расход по уровням можно отслеживать.На SWE-bench Multilingual, связка Sonnet + Opus-advisor дает +2,7% к качеству относительно Sonnet в соло и при этом снижает стоимость на 11,9%.На BrowseComp Haiku + Opus-advisor выдает 41,2% против 19,7% у чисто Haiku, а общая стоимость остаётся на 85% ниже, чем если запускать только Sonnet.Advisor tool доступен в бете по API. Документация - тут.Как же Антропик волшебно нарисовала график SWE-Bench 🙂@ai_machinelearning_big_data#news #ai #ml

⚡️ Practical ML Conf 2026: Яндекс зовет выступить на главной конференции по машинному обучениюЕсли вы работаете с технологиями, которые уже показывают реальные результаты в проектах — самое время рассказать об этом 🗣️Организаторы помогут спикерам на каждом этапе: от проработки доклада с экспертами до подготовки выступления с тренером по публичным выступлениям и оформления презентации дизайнерами.Доклады отбирает программный комитет. Критериев отбора четыре👇- новизна- польза для сообщества- практическая применимость- глубина проработкиPractical ML Conf — ежегодная конференция Яндекса для ML-практиков — в этом году снова собирает настоящих фанатов машинного обучения.✔️Заполняйте форму заявки
🚀 Qwen Code обновился - теперь это почти автономный DevOps-агентВышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.Что добавили:• Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat Пишешь с телефона - выполняется на сервере• Cron Jobs - регулярные AI-задачи Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию• Qwen3.6-Plus - новый флагман 1M контекста и до 1000 бесплатных запросов в день• Sub-agent Model Selection - разные модели под разные задачи Тяжёлую модель на основную логику, быструю на подзадачи Экономия токенов без потери качества• /plan - режим планирования Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет• Follow-up Suggestions - после задачи предлагает следующие шаги Типа «добавить тесты?» или «проверить похожие файлы»• Adaptive Output Tokens - умный вывод По умолчанию 8K, но сам расширяется до 64K если не хватает• Ctrl+O - переключение режима ответа Подробный для дебага или компактный для работыhttps://github.com/QwenLM/qwen-code/releases@ai_machinelearning_big_data#qwen
✔️ Cowork стал доступен на всех платных тарифах и получил инструменты корпоративного администрирования.Anthropic перевела Claude Cowork для macOS и Windows из статуса превью в общий доступ. Агент теперь доступен на всех платных тарифах. Главное в релизе - набор корпоративных функций для развертывания Cowork внутри компаний.Администраторы получили ролевую модель доступа с синхронизацией пользователей через SCIM и возможность задавать лимиты расходов по командам. Закрыт пробел в аудите: теперь через расширенную поддержку OpenTelemetry система логирует вызовы инструментов, операции с файлами и подтверждения действий, а телеметрию можно отгружать в SIEM.Отдельно появился гранулярный контроль над MCP-коннекторами: на уровне организации можно, например, оставить агенту только чтение и заблокировать любые операции записи. Каталог интеграций пополнился официальным коннектором Zoom.claude.com✔️ ByteDance развернула полнодуплексную голосовую модель.ByteDance представила SeedDuplex, которая продолжает слушать пользователя, пока сама говорит. Модель обрабатывает звук и смысл слитно, поэтому умеет адаптивно определять границы реплик, она отличает реальный конец фразы от паузы на обдумывание.Отдельный модуль шумоподавления отсекает фон и посторонние голоса. По замерам ByteDance, задержка отклика сократилась на 250 мс, а число неуместных перебиваний упало на 40%.Seeduplex уже полностью раскатана в приложении Doubao - основном потребительском продукте ByteDancebytedance.com✔️ Gemini теперь генерирует интерактивные симуляции прямо в чате.Google добавила в Gemini новый формат ответа: вместе с текстом чат-бот может отдавать интерактивные визуализации. На запрос смоделировать физическую систему или показать структуру молекулы Gemini соберёт рабочий виджет прямо в окне диалога.Визуализациями можно управлять. Например, в ответе про орбиту Луны появляются ползунки для начальной скорости и силы гравитации — значения можно тянуть мышью или вбивать вручную, а траектория и устойчивость орбиты

🌟 OpenAI только что объявила о серьезных изменениях в тарифной линейке ChatGPT. Появился новый тариф Pro за $100 в месяц, заточенный под Codex. По словам компании, он дает в 5 раз больше лимитов на Codex по сравнению с Plus и рассчитан на длинные, ресурсоемкие сессии. Все существующие фичи Pro никуда не делись: эксклюзивная Pro-модель, безлимитный доступ к Instant и Thinking моделям.До 31 мая подписчикам нового Pro дают до 10x использования Codex относительно Plus - чтобы люди могли распробовать и привыкнуть.А вот для Plus-подписчиков новости менее радужные. Промо-период с расширенным доступом к Codex закончился, и OpenAI ребалансирует лимиты: теперь упор на больше коротких сессий в течение недели вместо длинных марафонов за один день. По сути, если вы активно пользовались Codex на Plus и вам хватало - готовьтесь к тому, что лимиты стали жестче. OpenAI прямо говорит, что Plus за $20 остается лучшим вариантом для повседневного использования, а для тяжелой работы с Codex теперь нужно переходить на Pro.https://chatgpt.com/ru-RU/pricing/@ai_machinelearning_big_data#openai