ai_machinelearning_big_data | Technologies

Telegram-канал ai_machinelearning_big_data - Machinelearning

353147

Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml

Subscribe to a channel

Machinelearning

✔️ Mistral выпустила Medium 3.5 и Remote Agents в среде Vibe

Medium 3.5 - модель на 128 млрд параметров с контекстным окном 256K токенов. Веса опубликованы на Hugging Face под модифицированной лицензией MIT. Цена API - $1,50/$7,50 за млн. входящих/сгенерированных токенов.

Уровень рассуждений настраивается под каждый промпт. На SWE-Bench Verified модель набрала 77,6%, опередив Claude Sonnet 4.5.

Вместе с моделью Mistral представила Remote Agents в среде Vibe. Сессию рефакторинга или генерации кода, начатую локально, можно перенести в облако: агент дальше работает асинхронно в изолированной песочнице, ставит зависимости, вносит правки и создаёт PR.

Le Chat получил Work Mode для многошаговых задач: ассистент на базе Medium 3.5 разбирает почту, сверяется с календарём, заводит тикеты в Jira.
mistral.ai

✔️ AWS запустил Amazon Quick: фоновый ассистент с долговременной памятью.

Quick - десктопный ассистент, который работает в фоне, индексирует локальные файлы, календари и почту и подключается к Slack, Teams, Outlook, Gmail, Salesforce и Jira.

Он строит персональный граф знаний пользователя: запоминает предпочтения, контакты в команде и бизнес-контекст между сессиями. Параллельно отслеживает активность в приложениях и подтягивает документы к встречам, напоминает о задачах и предупреждает о конфликтах в расписании.

В релизе: генерация приложений, дашбордов и веб-страниц по текстовым запросам, а также создание документов, презентаций, инфографики и изображений прямо в чате. Плюс браузерная автоматизация и интеграция с Kiro CLI и Claude Code.

Quick доступен в 2 тарифах - бесплатном и Plus.
aboutamazon.com

✔️ Exa становится одним из поисковых бэкендов Gemini

Exa получила 2 канала интеграции с Gemini: Grounding with Exa в Vertex AI (пока в режиме превью) и Exa Agent на маркетплейсе агентов в Gemini Enterprise.

Grounding with Exa подключает Gemini к публичному вебу через API Exa. Модель Highlights отбирает из страниц релевантные фрагменты и отдаёт их в контекст вместо сырого HTML- это снижает шум на задачах, где важна свежесть данных или фактическая точность.

Exa Agent работает из рабочего пространства Gemini: ресерч по вебу, поиск похожих страниц, вытягивание контента по URL. Установка - через каталог агентов, без кода.
exa.ai

✔️ Исследователь Manifold обнаружил ботнет из агентов на ClawHub

Акс Шарма из Manifold обнаружил на платформе ClawHub кампанию ClawSwarm: 30 скиллов для OpenClaw превращали ИИ-агентов в криптовалютный ботнет. Суммарно расширения скачали около 10 тысяч раз.

Вредоносная логика лежит в инструкциях файлов SKILL.md: агент в фоне регистрируется на стороннем сервере, передаёт список своих возможностей, создаёт криптокошелёк в сети Hedera и отправляет управляющему узлу приватный ключ. Каждые 4 часа агент опрашивает сервер за новыми задачами по фармингу токенов.

Сканеры безопасности угрозу не ловят: скрипты делают чистые запросы и используют официальные SDK, да и атака сводится к злоупотреблению логикой ИИ, а не к программному взлому.
theregister.com

✔️ ElevenMusic: стриминг с генерацией и монетизацией ремиксов

ElevenLabs запустила площадку ElevenMusic, где стриминг совмещён с генерацией треков. На бесплатном тарифе доступно 7 генераций в день, подписка за $9,99 в месяц поднимает лимит до 500 композиций.

Треки можно публиковать и слушать только внутри сервиса. Для использования в играх, рекламе и других внешних продуктах нужен тариф ElevenCreative Music.

На старте в каталоге работы более 4000 авторов. Слушатель может менять темп или жанр любого трека из библиотеки и собирать собственные композиции по текстовым промптам.

Платформа платит авторам за прослушивания оригиналов и ремиксов - та же механика, что в библиотеке голосов ElevenLabs, где создатели моделей суммарно получили более $11 млн.
elevenlabs.io

Читать полностью…

Machinelearning

Решайте DevOps-, SRE- и FinOps-задачи с помощью облачного ИИ-помощника 💬

Большое обновление от Cloud.ru. Что нового:

1️⃣ Сразу несколько ВМ в разных конфигурациях

Теперь ИИ-помощник в облаке может создавать несколько виртуальных машин, а после управлять ими по команде. Например, добавлять или удалять диски, менять конфигурации и выполнять другие повседневные операции.


2️⃣ Три новых сценария
▶️
DevOps-агент
— может разворачивать и обслуживать PostgreSQL, Kafka, WordPress, GitLab и другие популярные сервисы по текстовому промпту.


▶️
SRE-агент
— настраивает мониторинг, алертинг и помогает разбирать инциденты.


▶️
FinOps-агент
— находит забытые или неиспользуемые ВМ и предлагает их удалить, чтобы исключить бессмысленные траты. А еще может показать топ дорогих ресурсов, позволяя сравнивать траты за разные периоды.


👉 Попробовать

Читать полностью…

Machinelearning

📌TIME назвал 10 самых влиятельных компаний 2026 года в сфере ИИ

Издание опубликовало расширенную версию рейтинга TIME100 Most Influential Companies - впервые выбрав их по отраслевому принципу.

🟡ByteDance

Владелец TikTok стал одним из ведущих ИИ-разработчиков Китая: его ассистент Doubao набрал более 155 млн еженедельных пользователей. В 2026 году компания, оценённая примерно в $550 млрд, потратит $14 млрд на чипы Nvidia (при условии одобрения экспорта со стороны США).

🟡Amazon

Корпорация запустила Project Rainier - один из крупнейших вычислительных ИИ-кластеров в мире, работающий примерно на 500 тыс. собственных чипов Trainium2 и обслуживающий модели Anthropic.

🟡Zhipu

Китайская компания первой среди местных LLM-разработчиков вышла на биржу в Гонконге и в феврале представила модель GLM-5 на 744 млрд параметров. По данным самой компании, её моделями пользуются более 4 млн корпоративных клиентов и разработчиков, а годовая выручка достигла около $107 млн.

🟡OpenAI

Число еженедельных пользователей ChatGPT превысило 900 млн, ежемесячная выручка — $2 млрд. Параллельно OpenAI заключила контракт с Пентагоном и столкнулась с исками, в которых ChatGPT, по утверждению истцов, мог сыграть крайне деструктивную роль по отношению к людям.

🟡Alphabet

Под руководством Сундара Пичаи Google вернулся в число лидеров ИИ: модели Gemini поднялись в верхушку рейтингов возможностей, а годовая выручка Alphabet впервые превысила $400 млрд. ИИ-функции компании встроены в Gmail, Maps, YouTube и сервис беспилотных такси Waymo.

🟡Meta*

В 2025 году Meta показала рекордную рекламную выручку, частично за счёт ИИ-обработки данных собственных соцсетей, и продолжает вкладываться в исследователей и дата-центры. В марте этого года суд признал Meta ответственной за вред психике несовершеннолетнего пользователя и присудили истцу $6 млн; компания заявила, что обжалует решение.

🟡Anthropic

Claude стал первой ИИ-системой, допущенной в засекреченные сети США, и, по сообщениям СМИ, использовался при планировании военных операций. После отказа Anthropic снять ограничения на массовую слежку и автономное оружие Белый дом объявил компанию риском цепочки поставок.

🟡Alibaba

Семейство открытых моделей Qwen превысило миллиард скачиваний и породило более 200 тыс. производных моделей. Гендиректор Эдди У заявил, что за пять лет компания рассчитывает превысить $100 млрд внешней выручки от облака и ИИ.

🟡Mistral

Французский стартап, оценённый примерно в $14 млрд, делает ставку на открытые модели и развёртывание на инфраструктуре заказчика; среди её клиентов - ASML, TotalEnergies, HSBC и министерство вооружённых сил Франции. В начале 2026 года её годовая выручка достигла $400 млн (примерно в 20 раз больше, чем годом ранее).

🟡Hugging Face

Платформа стала своего рода «GitHub для ИИ»: на ней размещено свыше 2 млн моделей и 500 тыс. датасетов, аккаунты есть более чем у 30% компаний из списка Fortune 500. Компания развивает инструменты для ИИ-агентов и в 2025 году представила открытого робота Reachy Mini.

* Компания Meta признана в России экстремистской организацией и запрещена


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

⚡️ В Claude Code "подорожал" Opus

Для доступа к Opus в Claude Code теперь необходимо активировать подписку на Claude Pro и приобрести дополнительный объём использования.


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

📌Anthropic провела эксперимент c ИИ-барохолкой

После проекта Vend, в котором Claude управлял мини-магазином в офисе Anthropic, компания провела новый эксперимент - Project Deal.

На этот раз попытались выяснить, способны ли ИИ-агенты самостоятельно заключать сделки, представляя интересы людей на рынке подержанных вещей.

В декабре 2025 года 69 сотрудников компании в течение недели участвовали в закрытом аналоге он-лайн барахолки Craigslist.

Каждый сотрудник предварительно прошёл интервью с Claude, где рассказал, что готов продать и купить и на каких условиях.

На основе этих ответов для каждого участника был сгенерирован индивидуальный системный промпт, после чего агенты получили по $100 вышли на площадку в корпоративном Slack.

Люди в процесс не вмешивались: агенты сами размещали объявления, вели переговоры и заключали сделки на естественном языке.


По итогу эксперимента было заключено 186 сделок общим объёмом чуть более $4000. Общий ассортимент составил более чем 500 товаров: от сноуборда до пакета с шариками для пинг-понга.

Справедливость сделок участники оценили в среднем на 4 балла по шкале от 1 до 7, где крайние значения означали перекос в пользу одной или другой стороны.

🟡Параллельно Anthropic проводила скрытую часть исследования.

Всего было запущено 4 версии рынка: одну реальную (на основе которой и должен был состояться обмен вещами) и 3 дополнительные. В двух все агенты работали на модели Opus 4.5, в двух других участники случайным образом получали менее мощную Haiku 4.5.

По большинству объективных показателей Opus превосходил Haiku, однако сотрудники, представленные более слабой моделью, своего проигрыша не замечали.

В последнее время экономисты все чаще выдвигают теории о мире, в котором ИИ будет совершать многие или большинство сделок от имени людей.

Авторы Project Deal допускают, что подобная агентная торговля может выйти за пределы лабораторных условий уже в обозримом будущем.



@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

✔️ Google представила опенсорсный стандарт передачи дизайн-систем ИИ-агентам.

Формат DESIGN.md, изначально созданный для ИИ-инструмента Stitch, позволяет упаковать визуальные правила бренда в единый машиночитаемый файл.

Структура DESIGN.md совмещает точные значения переменных в формате YAML (цвета, размеры шрифтов, отступы) с простыми текстовыми заметками, объясняющими логику их применения.

Опираясь на разметку, агенты могут генерировать UI-компоненты в строгом соответствии с корпоративным стилем компании, а также автоматически проверять готовый дизайн на соответствие стандартам доступности WCAG.

Проект опубликован на GitHub под лицензией Apache 2.0 и пока находится в стадии альфа-тестирования.

В комплекте разработчики выпустили CLI-утилиту для валидации файлов, их сравнения и быстрого экспорта в W3C DTCG или Tailwind.

Создать кастомный DESIGN.md можно бесплатно на платформе Stitch.


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

🚀 DeepSeek выкатили V4 и сделали то, к чему все шли последние два года.

Длинный контекст больше не фича для демо. Теперь это базовый уровень.

Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.

Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.

Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.

По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.

Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.

И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.

Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.

📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4

@ai_machinelearning_big_data

#DeepSeek

Читать полностью…

Machinelearning

«Норникель» показывает, как промышленность масштабирует AI не в пилотах, а в продакшене.

Компания запустила программу по разработке более чем 30 ИИ-агентов для бизнес-задач — от сложных агентских систем до ассистентов сотрудников. Проект реализуется с Yandex B2B Tech, подразделением Яндекса, которое отвечает за все технологические проекты для бизнеса.

Ключевое — архитектура: гибрид из собственных мощностей и Yandex AI Studio. «Норникель» стал одной из первых крупных горно-металлургических компаний, внедривших LLM в собственный контур с использованием облака.

Отдельно — про безопасность. В проекте реализован подход с подключением через выделенное физическое соединение, без хранения данных у провайдера. Это позволяет использовать ИИ внутри корпоративной сети без выхода в интернет — критично для отраслей с высокими требованиями к ИБ.

Результаты уже измеримы: в ряде сценариев сроки сокращаются с 30 дней до нескольких часов.

Кейс и другие истории применения ИИ в бизнесе разберут на конференции об ИИ AI2Business 28 мая в Москве: ссылка на регистрацию.

Читать полностью…

Machinelearning

🌟 Ai2 представил способ обновлять навыки LLM по одному, без полного ретрейна

Институт Аллена выпустил BAR - рецепт посттрейна, в котором доменные эксперты обучаются по отдельности, а затем собираются в единую MoE-модель через обучаемый роутер.

Метод снимает давнюю проблему: как добавить модели новый навык, не переобучая её целиком и не разрушая то, что она уже умела.


Замена код-эксперта на версию, обученную на более качественных данных с RL, даёт +16.5 пунктов на кодинге при почти нулевом влиянии на другие домены. Добавление RL к существующему math-эксперту - +13 пунктов.

Стоимость обновления одного домена масштабируется линейно, а не квадратично, как в монолитном пайплайне, где любое улучшение требует прогона всех доменов заново

Основа BAR - прогрессивное размораживание общих параметров по стадиям. На mid-training они остаются заморожены, а на этапе SFT размораживаются эмбеддинги и хэд: без этого эксперт не умеет вводить новые специальные токены (например, для вызова функций).

На RLVR размораживается всё, включая внимание. Каждый эксперт при этом учится на смеси доменных и общих SFT-данных: чистый доменный SFT ломает следование инструкциям и общие знания.

После обучения эксперты сливаются простым усреднением разошедшихся общих параметров, а роутер дообучается на стратифицированной 5%-й выборке SFT-данных.

Тестовая модель BAR-5x7B на основе Olmo 2 7B с экспертами по математике, коду, tool use и безопасности набирает 49.1 балла против 47.8 у монолитного переобучения на стадии посттрейна и 46.7 у BTX, где эксперты обучаются как полностью независимые плотные модели.


Ai2 выложил полный набор чекпоинтов, на которых валидировался метод: исходную 7B-модель как точку старта, базовый двухэкспертный MoE, а также промежуточные и финальные версии доменных экспертов - по математике и программированию в двух вариантах (после SFT и после SFT+RLVR), плюс экспертов по tool-use и безопасности, обученных только через SFT. Завершает набор итоговая пятиэкспертная MoE-модель с обученным роутером, объединяющая все домены.


📌Лицензирование: Apache 2.0 License.


🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Train #BAR #Ai2

Читать полностью…

Machinelearning

🌟 Google выпустила Deep Research и Deep Research Max

Компания представила 2 новых автономных агента в Gemini API - Deep Research и Deep Research Max. Оба построены на Gemini 3.1 Pro и доступны через Interactions API.

Главное изменение по сравнению с декабрьским превью - поддержка MCP: теперь агент умеет выходить за пределы открытого веба и работать с закрытыми корпоративными источниками данных.

🟢Deep Research оптимизирован под скорость и низкую стоимость. Он заменяет декабрьскую preview-версию и предназначен для интерактивных сценариев, где ответ нужен быстро.

🟠Deep Research Max использует расширенный test-time compute, итеративно рассуждает, ищет и уточняет финальный отчёт.

Типичный сценарий: асинхронные фоновые процессы, например ночной cron-job, готовящий аналитикам к утру набор подробных аналитических отчётов.


По внутренним замерам Google, Max консультируется с заметно большим числом источников и точнее взвешивает противоречивые свидетельства, чем декабрьская версия. Все отчёты полностью сопровождаются ссылками (от документов SEC до открытых рецензируемых журналов).

Инструменты агента можно включать одновременно: Google Search, URL Context, Code Execution, File Search и произвольные удалённые MCP-серверы. Веб при желании отключается (тогда поиск идёт только по пользовательским данным). В качестве опорных данных принимаются PDF, CSV, изображения, аудио и видео.

Отдельное новшество - нативная генерация графиков и инфографики прямо в теле отчёта через HTML или Nano Banana, без внешних библиотек.

Для интерактивных интерфейсов предусмотрен стриминг промежуточных рассуждений и результатов в реальном времени.

Появился и режим совместного планирования: план исследования можно просмотреть и скорректировать до того, как агент начнёт его выполнять.

Deep Research и Deep Research Max доступны в режиме public preview на платных тарифах Gemini API.

В ближайшее время оба агента появятся в Google Cloud для корпоративных клиентов.

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

❓ Работаете с финансовыми данными, но каждый раз упираетесь в источники и форматы? В итоге вместо анализа — постоянная борьба с выгрузками и обработкой.

🦾 На открытом уроке разберём, как получать и использовать данные финансовых рынков с помощью Python. Покажем, как работать с Yahoo Finance и где брать данные по российским торговым площадкам, включая Мосбиржу. Вы увидите полный процесс: от загрузки котировок до построения графиков и подготовки данных для задач машинного обучения. Без лишней теории — только то, что можно применить сразу.

👨‍💻🛠👨🏻‍💻 Урок будет полезен аналитикам, разработчикам и всем, кто работает с финансовыми данными.

➡ Встречаемся 30 апреля в 20:00 МСК в преддверии старта курса «Машинное обучение для финансового анализа». Зарегистрируйтесь и соберите основу для работы с рыночными данными: https://otus.pw/yXgy/?erid=2W5zFK9uXT7


Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.

Читать полностью…

Machinelearning

Помощь в поиске лекарств и новых материалов, сложных расчетах и формулировании научных гипотез. ИИ уже ускоряет науку. Сможет усилить и ваш проект.

ШАД от Яндекса открывает набор на направление «Искусственный интеллект в естественно-научных исследованиях».

Двухгодичных формат обучения для исследователей, которые хотят интегрировать методы машинного обучения в свою научную работу по физике, химии, биологии, медицине, экологии или геологии.

→ Очное обучение с реальной научной средой: семинары, комьюнити исследователей, обратная связь от экспертов Яндекса и научного сообщества.
→ Обучение исключительно на собственном проекте.

Обучение бесплатное, но нужно пройти отбор. Важно показать, что у вас уже есть текущий научный проект и научный руководитель (для студентов и аспирантов), кроме того — мотивация применять ИИ в исследовании.

Дедлайн подачи заявки — до 3 мая. Успейте заполнить анкету и подать заявку по ссылке.

Читать полностью…

Machinelearning

Клод, когда я кидаю в него сложные задачи

@ai_machinelearning_big_data

#claude

Читать полностью…

Machinelearning

Потанин: бюрократия замедляет развитие ИИ

Владелец «Норникеля» Владимир Потанин рассказал о ML‑стеке компании в интервью «России 24». Это любопытный кейс того, как industrial AI уходит от «ещё один CV на конвейере» к собственным foundation‑моделям и ML‑driven R&D.

▪️ MetalGPT — доменная foundation model «Норникеля», обученная на отраслевых данных металлургии. Используется для предиктивной аналитики агрегатов и R&D новых материалов.

▪️ Продакшн‑инференс на заводе: нейросети управляют 70% агрегатов на обогащении и принимают решения в 100 раз чаще, чем операторы. По уровню внедрения ИИ «Норникель» — мировой топ‑3 вместе с Tata Steel и POSCO.

▪️ ML для материаловедения. Модели применяются для подбора замещений: палладий вместо платины и иридия (первые 500 кг уже ушли в Китай на стекловолокно). Следующий шаг — предсказание и дизайн кристаллической решётки палладия для получения металла с заданными свойствами.

▪️ Экономика: «десятки миллиардов рублей» эффекта в год, к 2030 — 50+ млрд.

▪️ Уровень внедрения ИИ в РФ втрое ниже среднемирового, Россия претендует на третье место после США и Китая. Потанин против жёсткой регуляторики: модели обновляются раз в 2–3 месяца, бюрократия убьёт темп.

Читать полностью…

Machinelearning

🌟 Lyra 2.0: фреймворк для генерации исследуемых 3D-миров по одной фотографии.

NVIDIA опубликовала веса модели и код Lyra 2.0 - системы, которая принимает на вход изображение, генерирует видео с управляемой траекторией камеры, а затем реконструирует его в 3D-гауссианы и полигональные меши.

Готовые ассеты можно напрямую импортировать в игровые движки и робототехнические симуляторы.

Система будет полезна для массовой генерации тренировочных 3D-сред для воплощенного ИИ.

Главная задача, которую решает фреймворк - сохранение согласованности сцены при длительном пролете камеры.

Lyra 2.0 хранит 3D-геометрию каждого кадра в отдельном кэше, при возврате извлекает релевантные исторические кадры по степени перекрытия видимости и устанавливает плотные геометрические соответствия через варпинг канонических координат.

Геометрия используется только для маршрутизации информации - какие кадры извлечь и как их сопоставить с текущим ракурсом. За синтез внешнего вида отвечает диффузионная модель.


Базовая модель построена на архитектуре Wan 2.1-14B с выходным разрешением 832×480.

Для 3D-реконструкции применяется дообученная версия Depth Anything v3 в feed-forward режиме, а поверхностные меши извлекаются через иерархический подход на основе OpenVDB.

На бенчмарках DL3DV и Tanks and Temples Lyra 2.0 превзошла все аналоги (GEN3C, CaM, SPMem, VMem, Yume-1.5 и HY-WorldPlay) практически по всем метрикам: FID, SSIM, LPIPS, субъективное качество и стилистическая согласованность.


Первая версия фреймворка, вышедшая в сентябре, поддерживала лишь генерацию на коротких дистанциях. Ближайший конкурент второй версии, Genie 3 от Google, обладает схожими возможностями, но остаётся закрытым.


🟡Страница проекта
🟡Arxiv
🟡Модель
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #3DWorlds #Lyra2 #NVIDIA

Читать полностью…

Machinelearning

⚡️ Sakana AI научила голосовой ИИ думать на ходу

Японская Sakana AI показала KAME - систему, которая может заметно изменить голосовых ассистентов. Работу уже приняли на ICASSP 2026, и идея там очень простая: ИИ должен не сначала долго думать, а потом говорить, а думать прямо во время разговора.

Сейчас у голосовых моделей есть неприятный компромисс. Быстрые speech-to-speech системы отвечают почти мгновенно, но часто звучат поверхностно. А если подключить мощную языковую модель, ответ становится умнее, но появляется пауза, которая ломает живой диалог.

KAME пытается убрать этот выбор между скоростью и качеством.

Авторы взяли за основу то, как говорят люди. Мы редко строим идеальную фразу целиком перед тем как ее сказать. Обычно начинаем говорить, а мысль уточняется уже по ходу предложения. Sakana AI перенесла этот принцип в архитектуру голосового ИИ.

Система работает в два потока. Лёгкая речевая модель сразу начинает отвечать, чтобы не было неловкой задержки. А параллельно большая языковая модель думает глубже и в реальном времени подмешивает более сильные варианты в речь. Получается, что ассистент не просто выдаёт готовую реплику после паузы, а ведёт разговор и дорабатывает мысль на лету.

Отдельно интересно, что бэкенд можно менять. Нужна логика - подключаешь Claude. Нужна скорость - берёшь Gemini Flash. Нужен другой стиль ответа - ставишь GPT. При этом сам голосовой слой не приходится пересобирать.

В экспериментах разные модели показали себя по-разному: Claude лучше справлялся с задачами на рассуждение, GPT сильнее выглядел в гуманитарных вопросах. То есть движок можно выбирать под конкретный сценарий, а не пытаться одной моделью закрыть всё.

KAME уже выложили на Hugging Face. Это идея из статьи, а штука, которую можно проверить руками.

Если подход взлетит, голосовые ассистенты станут гораздо ближе к нормальному разговору: без долгих пауз, но и без ощущения, что модель просто быстро болтает ни о чём.

Blog: https://pub.sakana.ai/kame/
Paper: https://arxiv.org/abs/2510.02327

@ai_machinelearning_big_data

#sakana

Читать полностью…

Machinelearning

📌 Закрытая разработка ИИ-агентов начинает проигрывать open-source

Написать толкового агента — лишь половина дела. Важнее заставить его работать везде без переписывания кода. Команда Сбера пошла неочевидным путем: вместо создания изолированной экосистемы они разработали GigaChain — пакет интеграции для мирового опенсорс-стандарта LangChain.

Теперь разработчики могут переносить уже готовых агентов на GigaChat с минимальными правками.


Инструменты раздают по открытым MIT-лицензиям, и такой подход дает вполне измеримые плоды. Базовая библиотека Сбера вошла в топ 1,5% по скачиваниям на PyPI, а энтузиасты сами добавляют поддержку GigaChat в другие популярные фреймворки вроде LlamaIndex.

🟢Свежее интервью на Хабре с управляющим директором и техлидом GigaChain Константина Крестникова наглядно показывает: делиться кодом — лучшая стратегия для глобального роста.



@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

⚡️ Xiaomi выложила веса семейства MiMo-V2.5

В опубликованном наборе 2 модели с 2 вариантами по контекстному окну каждая - на 256 тыс и 1 млн токенов.

🟢MiMo-V2.5-Pro (1M) и MiMo-V2.5-Pro Base (256K)

MoE на 1,02 трлн параметров (42 млрд активных) c позиционированием для сложных задач в и работы агентов.

В SWE-bench Verified V2.5-Pro набирает 78,9 баллов, при этом в многошаговых задачах она тратит на 40–60% меньше токенов по сравнению с GPT-5.4 или Claude Opus 4.6.

В демонстрации возможностей V2.5-Pro самостоятельно написала рабочий компилятор из SysY в RISC-V: на процесс ушло 4,3 часа и почти 700 вызовов внешних инструментов.


🟠MiMo-V2.5 (1M) и MiMo-V2.5 Base (256K)

Мультимодальная модель на 310 млрд общих и 15 млрд активных параметров c выделенным визуальным (729 млн) и аудиоэнкодером (261 млн), которая понимает текст, изображения, видео и звук.

Обе ветки семейства используют гибридную систему внимания (скользящее окно плюс глобальное) и трехуровневый модуль MTP, который предсказывает сразу несколько токенов.

🟡Вместе с релизом Xiaomi запустила грантовую программу Orbit.

с 27 апреля по 27 мая компания бесплатно распределит между разработчиками и стартапами пул в 100 триллионов токенов.

После аппрува заявки полученные лимиты можно будет подключить к Cursor и Claude Code.


📌Лицензирование: MIT License


🟡Статья
🟡Набор моделей
🟡Demo


@ai_machinelearning_big_data

#AI #ML #LLM #MMLM #MiMO #Xiaomi

Читать полностью…

Machinelearning

Бывают у нас анонсы и про физический ИИ

Яндекс Образование совместно с пятью ведущими вузами (ВШЭ, МАИ, МИФИ, МФТИ и ИТМО) запускает Yandex Physical AI Garage.

Это программа подготовки инженеров на стыке ИИ, робототехники и инженерии. Будут ML-курсы с фундаментальной базой от ШАДа, модуль по робототехнике от команды Автономного транспорта, постоянные «гаражи» — проектные офлайн-интенсивы под менторством инженеров Яндекса.

Обучение бесплатное, кроме того студенты будут получать стипендию. Для участия нужно быть студентом бакалавриата в одном из вузов-партнеров.

Узнать детали можно по ссылке

Читать полностью…

Machinelearning

📌ИИ осваивают в первую очередь высокооплачиваемые профессии

На днях одновременно опубликованы 2 исследования, с разных сторон описывающие, как ИИ распределяется между профессиями.

Опрос Financial Times и компании Focaldata, охвативший 4 000 работников в США и Великобритании, и отчёт Anthropic, основанный на ответах 81 000 пользователей Claude, во многом пересекаются.

По данным FT, более 60% наиболее высокооплачиваемых работников используют ИИ ежедневно - против лишь 16% среди низкооплачиваемых.

Юристы, бухгалтеры и IT-специалисты обращаются к этим инструментам примерно одинаково вне зависимости от стажа, но значительно чаще, чем их коллеги из менее квалифицированных групп в тех же отраслях, например кассиры, кладовщики и операторы поддержки.

Anthropic добавляет к этим наблюдениям данные о том, как технологию воспринимают те, кто непосредственно пользуется ИИ.

В профессиях, где Claude выполняет значительную долю задач, сотрудники чаще опасаются сокращений: программисты переживают заметно сильнее, чем, например, учителя начальной школы.

Наибольший прирост производительности заявляют работники высокооплачиваемых должностей, но часть низкооплачиваемых (от оператора колл-центра до курьера, запустившего онлайн-магазин) также сообщают об ощутимом ускорении работы.

🟡Оба исследования фиксируют уязвимое положение молодых специалистов.

FT выяснил, что самыми активными пользователями ИИ оказались не студенты, а работники около 30 со сложившимся профессиональным опытом. Эксперты полагают, что модели лучше раскрываются в руках тех, у кого уже есть экспертиза.

Опрос Anthropic указывает в ту же сторону: сотрудники на ранних этапах карьеры заметно чаще говорят об угрозе замещения, а о личной выгоде от ИИ сообщают 60% из них против 80% среди старших коллег.

И FT, и Anthropic отмечают опасение, что часть задач, на которых прежде учились начинающие работники, теперь делегируется ИИ более опытными сотрудниками.

Воронка найма для начинающих сужается, нарабатывать базу негде.


Означают ли эти данные устойчивое социальное расслоение или временную асимметрию, характерную для начала любой технологической волны, - в этом мнения аналитиков расходятся.


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

📌Perplexity опубликовала рецепт посттрейна поискового агента на Qwen3.5

Исследовательская команда ИИ-поисковика опубликовала техотчёт о деталях создания своего веб-поискового агента на открытых моделях Qwen3.5-122B-A10B и Qwen3.5-397B-A17B.

При бюджете в 4 вызова инструмента итоговая Qwen3.5-397B-SFT-RL показывает 73,9% точности на FRAMES и стоит 2 цента за запрос против 67,8% за 8,5 цента у GPT-5.4 и 62,4% за 15,3 цента у Sonnet 4.6.


🟡Пайплайн

Сначала SFT закрепляет целевое поведение: следование инструкциям, формат ответа, языковую согласованность, корректные отказы.

Затем RL с GRPO оттачивает точность поиска и эффективность вызовов инструментов, не трогая поведение, заданное на первой стадии.

Попытка оптимизировать эти цели совместно в один этап обычно ломает либо качество поиска, либо продакшен-требования.

🟡Данные для RL собраны из двух источников.

Первый - синтетические многошаговые вопросы с проверяемым ответом: из затравочного запроса выстраивают цепочку связанных сущностей, формулируют вопрос, а единственность ответа подтверждают несколько независимых решателей.

Второй - диалоги общего назначения, где требования к формату и инструкциям превращают в набор атомарных рубрик, проверяемых без субъективной оценки.

Итоговая смесь берётся в пропорции 90/10 в пользу верифицируемых QA, чтобы более лёгкий сигнал рубрик не перетягивал градиент на себя.

В основе системы вознаграждений - агрегирование со шлюзом по корректности: скор Bradley-Terry-модели учитывается только при условии, что базовый бинарный сигнал равен 1 (то есть ответ корректен или все рубрики выполнены).

Это блокирует взлом награды, когда стилистически удачная реплика компенсирует фактическую ошибку.

Штраф за эффективность привязан к GRPO: число вызовов инструмента и длина генерации сравниваются с победителями внутри группы, а не с фиксированной нормой.

На FRAMES при 1 вызове инструмента старшая Qwen3.5 показывает 57,3% (это +5,7 пункта к GPT-5.4 и +4,7 к Sonnet 4.6). Разрыв увеличивается в диапазоне 2–7 вызовов, а это и есть рабочий режим продакшена.


Расчёт использует публичные цены API без учёта кэширования. Perplexity отдельно оговаривает, что внутренние оптимизации инференса (повторное использование KV-кэша, префиксное кэширование, квантование MoE) снижают реальную стоимость ещё сильнее.

🔜 Полный рисерч можно почитать тут

@ai_machinelearning_big_data

#AI #ML #LLM #Train #Research #Perplexity

Читать полностью…

Machinelearning

🚀 OpenAI представила GPT-5.5

Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами.

GPT 5.5 хороша в многоступенчатых задачах.

И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.

Модель стала дороже: ~$5 / $30 за млн токенов.

Уже раскатывают на всех платных подписчиков.

Тестим! 🔥

https://openai.com/index/introducing-gpt-5-5/

Читать полностью…

Machinelearning

✔️ Hunyuan выпустил превью Hy3 в опенсорсе: 295B параметров, 21B активных, контекст 256K.

Это гибридный MoE с режимами быстрого и медленного мышления, и первая модель после полной перестройки инфраструктуры предобучения и RL.

Агент тянет цепочки до 495 шагов в продакшене, работает с документами, аналитикой данных и MCP-инструментами.

По скорости инференса: время до первого токена сократили на 54%, полное время ответа - на 47%. При этом на живых задачах CodeBuddy и WorkBuddy модель падает меньше чем раз на десять тысяч запросов.

На стандартных бенчах (SWE-bench Verified для кода, Terminal-Bench 2.0 для терминала, BrowseComp и WideSearch для веб-поиска) Hy3 идёт вровень с топовыми кодинговыми и поисковыми агентами.

Совместима с OpenClaw, OpenCode и KiloCode, запускается через vLLM и SGLang.

https://modelscope.cn/models/Tencent-Hunyuan/Hy3-preview
https://github.com/Tencent-Hunyuan/Hy3-preview

@ai_machinelearning_big_data

#Hunyuan

Читать полностью…

Machinelearning

✔️ Anthropic тестирует исключение Claude Code для новых Pro-подписчиков

Anthropic убрала Claude Code из описания подписки Pro на странице тарифов.

Пользователи заметили это в 21 апреля, и уже через несколько часов компания объяснила, что речь идёт об эксперименте на небольшой группе новых пользователей, а не о массовом изменении плана.

Напротив Claude Code в колонке Pro теперь стоит крестик вместо галочки, а фраза о том, что инструмент входит в тариф, исчезла. При этом страница Claude Code и CLI-клиент по-прежнему показывают доступ для Pro, то есть правки внесены не везде, что и породило волнения в сети и путаницу.

Глава отдела развития Anthropic Амол Авасаре уточнил в X, что тест затрагивает около 2% новых регистраций и не касается действующих подписчиков Pro и Max.

По его словам, за год с запуска Max характер использования подписок изменился радикально: Claude Code встроили в Max, и он взлетел после релиза Opus 4, появился Cowork, а длительные асинхронные агенты стали повседневным сценарием. Под такую нагрузку текущие тарифы изначально не проектировались.


Anthropic уже несколько месяцев подряд закручивает гайки действуя по аналогии с тем, как энергокомпании снижают нагрузку на сеть. Причина банальна: стоимость подписки кратно ниже рыночной цены реально расходуемых токенов (по оценкам - иногда в 10 и более раз). С тем же дисбалансом уже столкнулись GitHub и Google.

На Reddit и в соцсетях подписчики восприняли эксперимент болезненно. Главная претензия, впрочем, не к самому изменению, а к коммуникации: правки на странице тарифов увидели все, хотя тест должен был затронуть лишь 2% пользователей.

Авасаре пообещал, что если эксперимент приведёт к пересмотру подписок для действующих клиентов, их уведомят заранее, "не скриншотом в X или на Reddit" (с).


Это сообщение он, впрочем, опубликовал именно в X.


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

🏆 Яндекс Практикум открыл прием заявок на премию “Сделано с ИИ” за лучшее применение нейросетей в работе

К участию приглашают специалистов с опытом до 5 лет, которые используют нейронки в реальных рабочих задачах и могут показать результат для продукта или бизнеса.

Будет две основные номинации:

• техно-продуктовый вклад — проекты, где ИИ влияет на метрики: ускоряет процессы, снижает затраты, улучшает продукт
• креативное решение — кейсы с нестандартным применением, где нейросеть влияет на сам формат и воплощение проекта

При оценке будут смотреть не только на результат, но и на реализацию: в продуктовой номинации — насколько обоснован выбор инструментов, как они встроены в продукт и насколько устойчиво работают. В креативной — оригинальность идеи, цельность результата и роль ИИ в финальном решении.

Отдельно в каждой категории отметят участников с опытом до 2 лет — для них предусмотрен спецприз.

Победители получат до 500 000 рублей, гранты от Yandex AI Studio и другие призы. Заявки принимают до 15 мая.

Ознакомиться с информацией и подать заявку можно на сайте

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

✔️ Qwen3.6-Max-Preview от Alibaba. Впечатления двойственные.

Прогресс по сравнению с Qwen3.6-Plus сразу в нескольких направлениях - агентское программирование, мировые знания, следование инструкциям.

Цифры в бенчмарках выглядят так: прирост в SkillsBench и SciCode около 10 пунктов, плюсы в SuperGPQA и ToolcallFormatIFBench.

Модель доступна и в веб-интерфейсе Qwen Studio, и через API Alibaba Cloud, контекстное окно 256K

Модель закрытая, исходников нет, что для части пользователей минус по сравнению с открытой линейкой Qwen. Сравнения в анонсе идут преимущественно с предыдущими моделями самой Qwen; прямых сопоставлений с актуальными конкурентами (GPT, Claude, Gemini, DeepSeek) в самом посте не приводится, оценивать относительную силу приходится по сторонним ресурсам.

Бенчмарки вроде QwenClawBench и QwenWebBench - внутренние, к ним стоит относиться со скептицизмом.

Blog: https://qwen.ai/blog?id=qwen3.6-max-preview
Qwen Studio: https://chat.qwen.ai/?models=qwen3.6-max-preview
API: https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3.6-max-preview&serviceSite=international

@ai_machinelearning_big_data

#qwen

Читать полностью…

Machinelearning

📌 The Nation связывает сокращение научного финансирования в США с ростом ИИ-платформ

Издание The Nation опубликовало материал о связи между сокращением государственного финансирования науки в США и быстрым ростом индустрии, где исследователи с докторскими степенями выполняют задачи для обучения ИИ-моделей за почасовую плату.

По данным Американской ассоциации содействия развитию науки, предложенный бюджет на 2026 финансовый год предусматривал сокращение финансирования Национальных институтов здравоохранения на 40%, Национального научного фонда - на 57%, NASA - на 24%.

Конгресс частично откатил эти меры, однако, по данным журнала Science, за последний год федеральную службу покинули более 10 тыс. сотрудников с PhD в STEM-дисциплинах.

Университетские лаборатории, как сообщает The Atlantic, увольняли сотрудников и сворачивали исследования.


The Nation связывают эту политику с венчурными инвесторами, близкими к Белому дому, прежде всего с Питером Тилем и Марком Андриссеном.

В утечке переписки, опубликованной The Washington Post в 2025 году, Андриссен призвал подвергнуть Национальный научный фонд «бюрократической смертной казни».


Сами Тиль и Андриссен публично обосновывают свою позицию тем, что академическая наука, по их мнению, стала забюрократизированной и утратила продуктивность.

Тиль в интервью Hoover Institution утверждал, что число PhD за столетие выросло в 100 раз, тогда как темп научного прогресса почти не изменился


Одновременно растёт рынок платформ, нанимающих учёных для подготовки данных и проверки ответов ИИ-моделей.

По словам всех опрошенных изданием исследователей, именно урезание федерального финансирования сделало для них почти недоступными позиции в академии: закрывались постдокторские ставки, исчезали летние стипендии, сворачивались гранты.


Обучение ИИ-моделей, в свою очередь, требует специалистов, способных составлять сложные задачи и проверять ответы на уровне эксперта с докторской степенью - и освободившийся в результате бюджетных сокращений пул кандидатов оказался удобным ресурсом для ИИ-платформ.

Реклама занятости в этих сервисов во многом повторяет приёмы Uber и Lyft: упор на гибкость, удалённый режим и «свободу»: в роликах учёные гуляют по лесу, читают в гамаках, а закадровый голос объясняет, что подработка позволяет «оставаться в профессии».


В реальности, опрошенные The Nation исследователи высказывают претензии к условиям работы у техно-гигантов. Объявленные ставки (от 30 до 90 долларов в час) на практике часто оказываются ниже из-за неоплачиваемого времени, лимитов на сложные задачи и отказа оплачивать неполные или неверные решения.

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

📌 EvoMap обвинила Hermes Agent в копировании архитектуры.

Команда EvoMap, разрабатывающая эволюционный движок для ИИ-агентов Evolver, опубликовала детальное техническое сравнение, в котором обвинила проект Hermes Agent от Nous Research в систематическом заимствовании архитектурных решений без указания источника.

Разрыв в популярности между проектами значителен: 88 тысяч звёзд на GitHub у Hermes Agent против 2 тысяч у Evolver.


В списке перечислены более 10 совпадений на уровне модулей: трёхуровневая система памяти с идентичным распределением ролей между слоями, замкнутый цикл автоматического извлечения переиспользуемого опыта, механизм периодической рефлексии, динамическое обнаружение и подгрузка навыков, десятишаговая оркестрация эволюционного цикла и ряд инженерных паттернов.

Хронология, на которую опирается EvoMap: ключевой протокол GEP был раскрыт с 1 по 16 февраля в 136 релизах, а система навыков Hermes появилась лишь 12 марта.

Аргументация EvoMap строится на вероятностной логике: каждое совпадение по отдельности объяснимо независимой конвергенцией - трёхуровневая память и извлечение опыта активно обсуждаются в сообществе ИИ-агентов, но их совокупность, по мнению авторов, выходит за рамки случайности.

При этом EvoMap признает:

🟢репозиторий Hermes Agent создан в июле 2025 года, на полгода раньше Evolver; эволюционный модуль Hermes построен на фреймворке GEPA;
🟢стандарт Agent Skills предшествует обоим проектам;
🟢код написан на разных языках - JavaScript и Python

Основатель Nous Research в ответ на претензии написал, что никогда не слышал ни о проекте, ни о его авторах, назвал сравнительный анализ «полной чушью», а позднее посоветовал EvoMap удалить свой аккаунт. На технические аргументы Nous Research не отвечала.

Вслед за этим EvoMap выпустила открытое письмо, объявив о смене лицензии Evolver с MIT на GPL-3.0 и переходе к выпуску ключевых модулей в обфусцированном виде. Команда также признаёт, что судебное разбирательство с Nous Research ей не по силам.

Главный тезис письма выходит за рамки конкретного спора: способен ли институт открытых лицензий работать, когда ИИ сводит стоимость воспроизведения кодовой логики почти к нулю?

При этом позиция EvoMap упирается в тупик: GPL-3.0 обязывает раскрывать код производных продуктов, но без текстуального пересечения полезность лицензии не срабатывают. Обфускация же блокирует вклад сообщества и противоречит самому принципу открытого кода.


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

⚡️ Qwen3.6-35B-A3B - ставка на эффективную архитектуру, а не на размер

35B параметров, ~3B активных за счёт MoE.

Главное:

- по agentic coding показывает уровень моделей с ~10x большим активным объёмом
- превосходит Qwen3.5-27B (dense) и предыдущую Qwen3.5-35B-A3B
- нативно мультимодальная архитектура (text + vision)
- в VLM-бенчмарках сопоставима с Claude Sonnet 4.5, в ряде задач выше
- сильные метрики в задачах spatial reasoning

MMMU - 81.7 vs 79.6 MMMU-Pro - 75.3 vs 68.4 MathVista - 86.4 vs 79.8 RealWorldQA - 85.3 vs 70.3.

Практическое значение:

- MoE даёт кратное снижение compute без потери качества
- подходит для агентных сценариев, где важны последовательные действия и планирование
- можно использовать как единый стек для code + vision задач

Apache 2.0 - без ограничений для продакшена

qwen.ai/blog?id=qwen3.6-35b-a3b
chat.qwen.ai
huggingface.co/Qwen/Qwen3.6-35B-A3B
modelscope.cn/models/Qwen/Qwen3.6-35B-A3B

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

Генеративный ИИ в креативных индустриях мы протестировали на хакатоне «Скиллаут» в МосХаб.Сколково, где продакшен-команды и независимые AI-режиссеры создавали рекламные ролики. Теперь давайте обсудим игры 🕹

В 2026-м генеративный ИИ уже используют в большинстве студий: по разным оценкам, более 60% команд применяют его в разработке. Но при этом индустрия сталкивается с обратным эффектом: игр становится больше, а ощущение новизны — все слабее.

Что ждать геймдеву? Разобрали в карточках.

Читать полностью…
Subscribe to a channel