data_secrets | Unsorted

Telegram-канал data_secrets - Data Secrets

55444

Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n

Subscribe to a channel

Data Secrets

А еще сегодня, возможно, будет что-то новенькое от Anthropic

В 18:30 МСК они проведут стрим под названием «Code with Claude». По некоторым неподтвержденным утечкам, на нем покажут как раз те самые обновленные Opus и Sonnet с глубоким агентским ризонингом.

Смотрим здесь

Читать полностью…

Data Secrets

О, вы такое любите: в NotebookLM скоро добавят видео-обзоры

То есть модель будет генерировать презентацию + рассказ по любому вашему источнику: видео, ссылке, гитхабу, статье, документу и тд.

Пример того, как это будет выглядеть – наверху. Это Google сгенерировали видео-обзор на вчерашнюю Google I/O. Ну симпатично же, да?

Говорят, что юзерам фича станет доступна уже очень скоро, правда первое время – только на английском.

Читать полностью…

Data Secrets

Еще один очень занятный релиз от Google – диффузионная языковая модель Gemini Diffusion

Кратко, в чем суть: вместо генерации токенов один за одним здесь они генерируются в произвольном порядке. То есть берется исходная последовательность текста, затем токены в ней маскируются с определенной веростностью, а модель пытается их угадать (расшумляет, как в диффузии).

Это, во-первых, помогает существенно ускорять процесс. Такая Gemini может генерировать до 2000 токенов в секунду. Это раз в 10-15 быстрее, чем в среднем генерируют хорошо оптимизированные модели.

Во-вторых, в задачах типа математики такой подход к генерации может помочь модели быстро перебирать несколько вариантов решений и двигаться не обязательно последовательно, а в «удобном» порядке. Так что метрики сравнимы с предыдущим поколением моделей Google.

Попробовать пока можно только по запросу, но сам факт таких релизов от Google впечатляет

Читать полностью…

Data Secrets

Google показали на I/O много интересного. Собрали все в один пост:

Новая Veo-3. SOTA-моделька для генерации, которая может генерировать видео со звуками и голосами

Gemini 2.5 Flash с улучшенным ризонингом. Модель уже скакнула с пятой строчки арены на вторую и выбивает очень хорошие метрики на кодинге и математике. Учитывая цены это просто отличные результаты

Перевод речи в Google Meet в реальном времени с сохранением интонаций и голоса собеседника. Пока доступно только с английского на испанский, но обещают раскатать на больше языков

Gemini Ultra тоже вышла, но есть нюанс. Это не модель, а подписка. Стоит 250 долларов в месяц, в нее входит расширенный доступ ко всем моделям гугла, Veo-3, NotebookLM и другие плюшки типа хранилища и премиум ютуба. В общем, все подписки Google в одной

В Gemini 2.5 Pro добавили более глубокий режим рассуждений

Анонсировали облачного агента Jules для программирования. Подключается к GitHub, делает ПР, ревьюит, отвечает на вопросы и тд. Аналог Codex, но дешевле.

Вот как-то так. Неплохая получилась конференция

Читать полностью…

Data Secrets

Ускорит ли онлайн-обучение в топовом вузе ваше развитие в профессии?🤔

Разобраться поможет бесплатный вводный курс онлайн-магистратуры УрФУ и Нетологии «Прикладной искусственный интеллект».

Вводный курс состоит из 5 блоков, которые ответят на основные вопросы о профессии и программе. Вы сможете:

🎓Погрузиться в профессию с нуля. Изучить ключевые задачи и навыки, представить себе рабочий день специалиста.

🎓Составить представление о том, как устроена программа. Посмотреть выступление академического руководителя, изучить примеры заданий и видеолекций. 

🎓Разобраться в организационных вопросах. Получить структурированную информацию о необходимых документах, вступительных испытаниях и условиях оплаты.

В курс входят гайды, короткие видеолекции, инструкции и чек-листы → https://netolo.gy

Реклама. ООО "Нетология". ИНН 7726464125 Erid: 2VSb5wdQxMe

Читать полностью…

Data Secrets

В приложении NotebookLM теперь можно самому подключаться к сгенерированным подкастам

Приложение начинают раскатывать уже сегодня, скоро можно будет скачать. Туда добавили несколько новых фичей:

Сгенерированные по источникам ИИ-подкасты теперь можно будет скачивать и слушать оффлайн

Источники можно будет шерить напрямую из любых других приложений. Например: Смотрим видео в приложении YouTube -> Нажимаем "Поделиться" -> Выбираем NotebookLM -> Все, видео уже попало в источники

Ну и самое интересное: если вы слушаете подскаст онлайн, вы в любой момент можете тыкнуть "Join" и присоединиться к ИИ-ведущим как гость, чтобы задать вопрос, высказать мнение или что-то уточнить

🤌

Читать полностью…

Data Secrets

Ученые из Google и Кэмбриджа предложили вид модели, которая мыслит образами, а не текстом

Человек часто мыслит образами / картинками / схемами. Особенно, когда речь идет о каких-нибудь математических задачах или алгоритмах. Модельки пока так не умеют, у них весь ризонинг в тексте.

Но попытки научить LM чему-то похожему есть: вот сегодня как раз вышла статья под названием "Visual Planning: Let’s Think Only with Images". В ней исследователи научили модель проходить лабиринты, рассуждая при этом только картинками. Вот как это было:

1. Сначала модели показывали много-много картинок лабиринтов и учили ее предсказывать какой-нибудь любой возможный следующий шаг. Ну, например, подаем картинку агента, который стоит в клетке B. По этой картинке модель должна сгенерировать следующую, где агент стоит на любой из доступных соседних клеток.

2. Затем учили предсказывать уже не рандомный, а правильный следующий шаг. Здесь у нас уже RL (на предыдущем шаге был обычный файнтюнинг). За правильное действие выдаем награду +1, за неправильное 0, за недопустимое -5.

Модель проходит по нескольку картинок за эпизод, собирает награды и многократко обновляет свою политику. В итоге получаем ризонер, который умеет проходить лабиринты, рассуждая без текста.

Самое интересное: на всех тестах VP обходит даже продвинутый Gemini 2.5 Pro think, и не на пару процентов, а в полтора-два раза.

Вот бы с какой-нибудь сложной геометрией такое потестили

huggingface.co/papers/2505.11409

Читать полностью…

Data Secrets

Розыгрыш Machine Learning футболок

В честь выпуска нашего большого конспекта по LLM мы решили запустить розыгрыш 10 футболок для истинных любителей глубокого обучения.

Это лимитированная авторская линейка от Data Secrets. Каждая футболка – целый альманах, на котором любой найдет любимую архитектуру. Гарантирует +100 очков к прохождению собеса или экзамена. Итак, что делать:

Отдать бусты нашему каналу (чем больше голосов, тем выше шанс победить)
Нажать на кнопку "Участвовать"
Ждать итогов 28 мая

P.S. Для всех, у кого нет Telegram Premium, мы скоро обязательно проведем еще один розыгрыш футболок.

Читать полностью…

Data Secrets

Стрим OpenAI без пасхалок – не стрим OpenAI 🪺

Читать полностью…

Data Secrets

Стрим OpenAI через 10 минут. Официально подтверждено: покажут превью агента-программиста Codex (скорее всего доступно будет только в Pro, но все-таки интересно)

https://www.youtube.com/watch?v=hhdpnbfH6NU

Читать полностью…

Data Secrets

Юрист Anthropic использовал Claude для оформления юридических ссылок. В итоге компании пришлось извиняться.

Прошло почти два года с момента громкой истории о том, как в Америке адвокат чуть не лишился лицензии из-за того, что использовал ChatGPT для генерации аргументов. И... ничего не поменялось 😐

Вот только на этот раз на удочку попался не какой-нибудь случайный юрист, а представитель Anthropic. Сейчас компания судится с Universal Music Group по поводу авторских прав на музыку. И для выступления на суде одна из представителей стартапа, Оливия Чен, решила использовать Claude.

Она попросила бота процитировать для ее показаний соответсвующую статью из законодательства, и он, естественно, все выдумал. В итоге Anthropic пришлось извиняться и за своего юриста, и за галлюцинации своей модели. В официальном письме судье они написали, что "это хотя бы была честная ошибка цитирования, а не попытка подделки авторитета".

Читать полностью…

Data Secrets

Сегодня в 18:00 стрим OpenAI для «разработчиков и тех, кто хочет ими стать»

Напоминаем, что уже во вторник пройдет Google I/O, так что, следуя добрым традициям конкуренции, сегодня OpenAI должны показать что-то заслуживающее внимания.

Может что-то связанное с недавней покупкой Windsurf?

Читать полностью…

Data Secrets

Выбираете магистратуру? Обратите внимание на бесплатные партнёрские программы Яндекса в топовых вузах России!

🔹 «Аппаратная разработка умных устройств» — межуниверситетская магистратура в НИУ ВШЭ и МФТИ. Вы будете решать реальные задачи, с которыми работают инженеры сервиса «Алиса и Умные устройства Яндекса».

🔹 «Искусственный интеллект в робототехнике» — программа в Сколтехе, основанная на опыте Яндекс Маркета. Вас ждёт работа с кейсами, где ИИ меняет процесс логистики и автоматизации.

Программы разрабатывались при участии экспертов Яндекса — действующих практиков в ML и Data Science, а также опытных преподавателей, — поэтому обучение построено на самых актуальных знаниях и реальных задачах.

🚀 Если хотите не просто получить диплом, а вырасти в сильного специалиста, переходите на сайт и выбирайте программу!

Читать полностью…

Data Secrets

Случился коллаб года: Kaggle объединились с HuggingFace и теперь все модели, доступные на HF, можно моментально напрямую запускать в Kaggle Notebooks

Этим можно пользоваться и на одной платформе, и на другой. Например, если вы перешли в карточку модели на HF, то теперь там можно ткнуть на “Use this model” -> “Kaggle”, и сразу откроется ноутбук с подгруженной моделью.

То же самое можно сделать с вкладки HuggingFace на Kaggle по кнопке "Code". Также там будут видны все открытые относящиеся к этой модели ноутбуки других пользователей.

Обещают, что скоро будут и другие интересные фичи

Читать полностью…

Data Secrets

GPT-4.1 добавили в ChatGPT

Напоминаем, что это лучшая не-ризонинг модель стартапа для программирования, она обгоняет даже o1-high. Плюс контекст 1 миллион токенов.

Ранее модель была доступна только в API и через сторонних вендоров типа Cursor. Но, видимо, спрос был настолько велик, что ее добавили и в чат.

🍯 Модель уже раскатали на Plus, Pro и Team, а мини-версия – GPT-4.1 mini – скоро заменит GPT-4o mini для всех, включая бесплатных юзеров.

Читать полностью…

Data Secrets

OpenAI вошли в азарт покупки стартапов и купили компанию Джони Айва, которая производит ИИ-устройства

Джони Айв – это бывший руководитель отдела дизайна Apple, известный как дизайнер iMac, PowerBook G4, MacBook, MacBook Pro, iPod, iPhone и iPad.

Сейчас он в Apple уже не работает, а несколько лет назад они вместе с Альтманом основали стартап io, который сейчас OpenAI и покупает. За 6.5 миллиардов долларов, кстати. Это крупнейшая покупка стартапа за все время существования. Плюс, кроме наработок, OpenAI получит еще и 55 крутых исследователей, инженеров, физиков и тд из io.

Сейчас говорят, что первые ИИ-девайсы от OpenAI появятся уже в 2026. Обещают, что это будет продукт «качества, которого люди еще не видели». Очень интересный поворот

Читать полностью…

Data Secrets

Mistral только что выпустили новую SOTA среди открытых моделей для программирования

В ней всего 24В параметров, но на SWE Bench она обходит все другие опенсорсные модели с большим отрывом. Среди закрытых тоже обгоняет конкурентов в своем весе: 46% против ~23 у GPT-4.1 и ~40 у Claude Haiku 3.5.

Веса здесь (Apache 2.0), плюс можно пользоваться в API (0.1$/M инпут и 0.3$/M аутпут).

Давно от Mistral не было слышно таких громких релизов 🥖

Читать полностью…

Data Secrets

На Google I/O еще понравилось выступление Сергея Брина

Напоминаем, что после почти пяти лет разлуки он недавно вернулся в Google работать над AI. Сейчас он прикладывает руку почти ко всему мультимодальному в компании + к проекту Veo.

В интервью он сказал, что в Google намерены сделать Gemini первым AGI, и непрерывно над этим работают.

«Я вернулся в Google не из-за гонки, а чтобы стать частью самого значимого прорыва нашего времени. Сейчас никто, кто работает в сфере вычислительной техники, не должен выходить на пенсию»


Ну а еще рассказывал, что все мы возможно живем в симуляции 🙂

Читать полностью…

Data Secrets

Через несколько часов начинается Google I/O. Пересказываем слухи о том, что покажут:

1. Несколько новых версий видео и фото генераторов (Veo, Imagen). Будут и быстрые+дешевые, и дорогие+медленные

2. Возможно, генератор видео со звуком

3. Новая версия Gemini с улучшенным ризонингом

Ждем 🍿

Читать полностью…

Data Secrets

Стартап flowith выпустили ИИ-агента, который может работать без ограничения по времени и контексту

Более того: можно запускать неограниченное количество задач (в том числе отложенных) одновременно.

А еще внутри каждой задачи агент сам параллелится: например, может создать 39 суб-агентов и отправить их искать разную информацию в разные уголки интернета, а потом собрать все в один отчет.

Работать все может довольно долго и основательно: контекст каждой задачи – больше 10 миллионов токенов, а количество шагов ризонинга может достигать нескольких сотен или даже тысяч.

Попробовать можно тут (но сервер периодически лежит от нагрузки)

Manus moment 2.0

Читать полностью…

Data Secrets

Воу: Microsoft сделали своего ИИ-ассистента Copilot VS Code опенсорсным

Код будет открыт под лицензией MIT. Разработчики говорят, что исторически VS Code имеет большую ценность именно как опенсорс проект, и они не хотят это терять.

https://code.visualstudio.com/blogs/2025/05/19/openSourceAIEditor

Читать полностью…

Data Secrets

Понедельник! Сейчас в ИИ-гонке затишье, но неделя обещает быть насыщенной. Чего ждем:

1. Gemini Ultra и проект Astra с ИИ-очками от Google. На этой неделе у них крупнейшая анонс-конференция в году, Google I/O. В прошлом году именно на этом мероприятии показали Gemini 1.5 Pro с контекстом в 1млн токенов и Gemini 1.5 Flash.

2. o3-pro или GPT-5. Почти наверняка OpenAI что-то припасли чтобы перетянуть на себя внимание от Google. Вчера некоторые пользователи даже заметили, что Альтман твитнул строку «4+1», но сейчас твит удален.

3. Grok-3.5, который Илон Маск обещает уже вторую неделю.

Читать полностью…

Data Secrets

У Meta черная полоса

Ранее компания потерпела провал с релизом Llama-4, а сейчас стало известно, что откладывается выпуск модели Behemoth. Ее обещали как самую крупную из серии Llama 4 и должны были выпустить в этом месяце, но теперь неясно, увидим ли мы ее вообще.

Во-первых, руководство Meta осталось очень недовольно работой команды Llama, и теперь планирует «изменения в составе». К слову, уже на данных момент по собственному желанию из команды ушли 11 из 14 ключевых ученых, которые работали над ранними версиями Llama.

Во-вторых, Behemoth не соответствует заявленным метрикам. Цукерберг обещал, что когда модель выйдет, то на нескольких тестах побьет передовые LM от OpenAI, Google и Anthropic. Но теперь что-то пошло не так и из-за проблем с обучением Behemoth уже показывает себя не так обнадеживающе.

И это все после того, как Meta фактически обманули пользователей, выпустив на LMSYS не юзер-версию модели, а внутреннюю, затюненную специально под арену (подробнее об этой истории мы писали тут).

Ну в общем, F 😬

Читать полностью…

Data Secrets

OpenAI представили агента-программиста Codex

Это облачный агент, способный выполнять множество задач параллельно. Из возможностей:

Может писать новые функции, отвечать на вопросы по коду, исправлять ошибки и предлагать pull request для ревью.

Каждая задача выполняется в отдельной облачной песочнице, предварительно загруженной вашим репозиторием.

Есть возможность настраивать поведение агента через файлы AGENTS. md.

Работает это все на модели Codex-1, основанной на o3. Пока раскатали только для Pro-аккаунтов, для Plus обещают скоро.

Пробуем тут: https://chatgpt.com/codex

Читать полностью…

Data Secrets

Data Fest 2025 в гостях у VK — офлайн 24 мая 🤩

Открываем конференцию Data Fest 2025 — в офисе VK. Приходите познакомиться с опытом дата-инженеров и исследователей в направлениях LLM, NLP, MLOps и других. Эксперты VK подготовили секцию докладов о RecSys, Reliable ML и карьере тимлида. Афтепати с розыгрышем призов и нетворкингом прилагается.

📍 Встречаемся 24 мая по адресу: Ленинградский проспект, 39, стр. 79, БЦ Skylight, башня А.

🤗 Регистрация уже открыта.
Количество мест ограничено, поэтому заполняйте анкету внимательно.

Читать полностью…

Data Secrets

О, Kaggle объединились с OpenAI и запускают конкурс по нахождению ранее неизвестных человечеству археологических объектов

Это, кстати, первое в истории Kaggle ключевое соревнование, то есть оно будет специально выделено как главное на платформе. Призовой фонд – 400 тысяч долларов, за первое место заплатят $250,000 (правда наличными только половину, остальное кредитами OpenAI).

Задача – взять открытые данные со спутниковых снимков и карт + любую модель от OpenAI и предложить пайплайн, который сможет выявлять наличие археологических объектов. Если среди найденных объектов окажутся те, которых нет в существующих базах данных, то можете расчитывать на приз.

Для трушных Индиан Джонсов

www.kaggle.com/competitions/openai-to-z-challenge/

Читать полностью…

Data Secrets

Nvidia построит огромный датацентр вместе с ИИ-стартапом Humain из Саудовской Аравии

Компания поставит для этого более 18 тысяч чипов, и не каких-нибудь, а GB300 Blackwell.

Самое интересное, что Humain принадлежит суверенному фонду Саудовской Аравии, то есть по сути – государству. Сегодня совокупные активы фонда оцениваются в 430 миллиардов долларов.

Nvidia видимо решили действовать по-крупному, пока и туда поставки не запретили

Читать полностью…

Data Secrets

DeepSeek выпустили новую статью, в которой поделились большим списком инженерных хаков по обучению и инференсу моделей

Все, что не убивает, делает сильнее. DeepSeek в условиях санкций на оборудование уже собрали целый список того, что помогает им даже при большом дефиците железа содержать свои системы и обучать модели. Ну и, как истинные любители открытости, всеми этими фичами они решили поделиться просто так.

Топ-3:

1. Multi-head Latent Attention. Это метод сжатия KV-кеша, позволяющий радикально сократить объём памяти, необходимый для хранения ключей и значений из всех attention-голов. Идея в том, чтобы вместо хранения всех сырых K/V векторов для каждого хэдa проектировать их в компактный обучающийся латентный вектор небольшой размерности. В итоге вместо квадратичного роста хранимых данных получается линейный.

2. FP8 Mixed-Precision Training и Inference. Инженерная стратегия, которая позволяет при обучении модели одновременно использовать и более легкие числа в формате FP8, и более точные в FP16 / FP22/FP32. Так мы балансируем между производительностью и стабильностью, а затраты и энергопотребление падают почти в два раза.

3. Multi-Token Prediction. Это значит, что вместо генерации по одному токену модель пытается предсказать сразу несколько (например 2–4) следующих токена. Токены-кандидаты генерирует отдельный легковесный слой, а основная модель их просто сверяет с истинным декодингом. Если совпадают – принимаются без дорасчёта. Это дает ускорение инференса до 1.8х без потерь в качестве.

В статье – еще несколько интересных советов (некоторые мы даже уже разбирали во время опенсорса DeepSeek), так что трушным инженерам советуем почитать полностью.

Мир им: строгие запреты на ввоз железа
Они всему миру: детальные открытые советы по оптимизации этого железа

Респект же

Читать полностью…

Data Secrets

Google анонсировали кодинг-агента AlphaEvolve, предназначенного специально для разработки сложных алгоритмов

Инженеры утверждают, что на тестах этой системе удалось:

– Идентифицировать несколько абсолютно новых алгоритмов для эффективного умножения матриц.

– В 75% найти лучшие известные на данный момент решения открытых мировых задач по математике, и в 20% улучшить ранее известные решения (то есть открыть новые подходы).

И это не все. Внутри экосистемы Google AlphaEvolve работает уже год. За это время с его помощью они успели оптимизировать несколько датацентров, обучение и инференс моделей и даже использовали ассистента для проектирования железа.

Под капотом цикл: обработка контекста -> генерация идей и решений -> оценка и скоринг этих решений -> добавление лучших решений в контекст для дальнейшего улучшения -> и с начала.

Потрогать пока, конечно, не дают, поэтому будем ждать

deepmind.google/discover/blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/

Читать полностью…

Data Secrets

Радостные новости: Anthropic все-таки выпустит новый Claude Opus

В прошлых релизах приставка Opus означала самую большую модель, а Sonnet – среднюю. Но начиная с версии 3.5 Opus не выходил – был только Sonnet и Haiku, а из ризонинг моделей вообще один Sonnet.

Но The Information только что написали, что линейка Opus может возродиться, и новые ризонинг модели Opus и Sonnet выйдут уже в ближайшие недели.

Более того, это будут какие-то необычные ризонинг-модели: в них будет режим «экстремальных рассуждений». Модель будет работать в цикле: думать -> обращаться к инструментам (интерпретатор или браузер) -> снова думать, анализируя результаты -> снова обращаться к инструментам и тд. В общем, что-то ближе к агентам.

www.theinformation.com/articles/anthropics-upcoming-models-will-think-think

Читать полностью…
Subscribe to a channel