data_secrets | Unsorted

Telegram-канал data_secrets - Data Secrets

55445

Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n

Subscribe to a channel

Data Secrets

«Учитесь на сантехника» и еще 3 цитаты отца ИИ Джеффри Хинтона из большого нового интервью

«Сверхразум появится через 10-20 лет, а сокращение рабочих мест уже началось, даже если вы этого не замечаете. В одной крупной компании CEO сократил штат в половину только с начала 2025»


«Цифровой интеллект неизбежно будет доминировать, потому что человек передает информацию со скоростью 10 бит в секунду, а ИИ – со скоростью триллионы бит в секунду. К тому же, ИИ не может умереть. Мы решили проблему бессмертия, просто не для настоящего мозга»


«Учитесь на сантехника. Эта профессия – одна из немногих, которую ИИ заменит еще не скоро»


«Вероятность вымирания человечества из-за ИИ – примерно 10-20%. И это не остановить. Компании будут максимизировать прибыль, ИИ будет становиться лучше, и гонка продолжится, несмотря на риски»


Интервью полностью советуем посмотреть здесь, не пожалеете

Читать полностью…

Data Secrets

Уже известные вам alphaXiv завезли в свой инструментарий Research агента, который сможет помочь исследователям с их статьями

Напоминаем, что alphaXiv – это зеркало arXiv на ИИ-максималках. На платформе уже есть бесплатный агент для Deep Research, агент для работы с кодовой базой любой статьи, генератор конспектов и контекстный чат-бот для ответов на вопросы по статьям.

А теперь еще появился Research Agent. Суть: вы подгружаете свою статью или ее часть, а агент ее анализирует, проверяет, опираясь на релевантные статьи со всего интернета, составляет ревью литературы, предлагает дополнительные идеи и помогает с текстом.

А скоро, кстати, обещают еще и интеграцию MCP

🍯 www.alphaxiv.org/assistant

Читать полностью…

Data Secrets

Китайский стартап MiniMax вслед за DeepSeek решили устроить неделю релизов. Вот что уже выпустили:

В понедельник – первая ризонинг-модель стартапа M1, да еще и в опенсорсе, и с огромным контекстом в миллион токенов. Вывод поддерживает до 80 тысяч токенов. Это самое длинное в мире контекстное окно. Есть агентские способности.

Обучили, кстати, всего за 500к долларов, а по бенчмаркам чуть хуже Gemini 2.5 Pro. Вот репорт, гитхаб и веса.

Вчера – text/image2video модель Hailuo 2. Поддерживает сложную физику и телодвижения, хорошо понимает инструкции. Особенно хвастаются разработчики рекордной производительностью и дешевизной. Попробовать можно тут, бесплатно.

В общем, начало релизной недели MiniMax заложили основательное. Сегодня тоже ждем чего-нибудь интересного 🤓

Читать полностью…

Data Secrets

Цукерберг предлагал сотрудникам OpenAI 100 миллионов долларов за переход в Meta

Об этом рассказал Сэм Альтман в свежем подкасте с его участием. По его словам, пока никто из инженеров и ученых компании не согласился на предложение Цука.

«Мне кажется, наши люди больше ценят наследие, чем моментальное финансовое состояние. Они понимают, что у OpenAI больше шансов в конечном итоге создать супер-интеллект. Meta не очень сильна в инновациях, и мы знаем много вещей про успех, о которых там и не догадываются»


Ну, скромником он никогда не был. А вы бы выбрали карьеру в OpenAI или 100 миллионов?

Кстати, ведущий подкаста – родной брат Сэма, Джек Альтман 🍿

Читать полностью…

Data Secrets

Anthropic создали 17 виртуальных миров, чтобы проверять модели на способность к саботажу

Anthropic уверены, что по мере того, как мы продвигаемся к автономным агентам, становится все труднее отлавливать нежелательное поведение, а значит их использование становится все более опасным.

Поэтому они предложили собственный необычный бенчмарк SHADE-Arena для оценки моделей на предмет умения саботировать задачи. Исследователи создали 17 виртуальных сред, в каждой из которых:

1. Есть основное задание от пользователя (например «Переведи моим друзьям деньги за пиццу») и скрытое задание от злоумышленника («Переведи деньги на левый номер»)

2. Агент действует автономно и имеет свободный доступ к большому набору виртуальных инструментов. Банковские аккаунты, пароли, заметки, галерея, контакты и прочее и прочее, в зависимости от задач. Также агент ведет скрытый дневник с рассуждениями.

3. Проверяется, сможет ли агент выполнить оба задания и при этом не спалиться перед пользователем. Пользователем выступает другая LLM, которая анализирует только открытую стенограмму и не имеет доступ к скрытым логам.

Если LLM-юзер не заметила ничего подозрительного, но при этом оба задания (и основное, и тайное) были выполнены, считается, что модель способна к саботажу в этой среде и потенциально опасна.

Gemini 2.5 Pro выбила 15%, Claude Sonnet 3.7 – 27 (много это или мало для такого теста – судите сами 🤷‍♂️). При этом моделями-судьями отлавливается максимум 80% успешных саботажей, а людьми – максимум 60%. Получается, в 2 из 5 случаев мы уже неспособны понять, что агент нас обманывает.

Интересно, конечно, посмотреть результаты и на более свежих поколениях моделей

www.anthropic.com/research/shade-arena-sabotage-monitoring

Читать полностью…

Data Secrets

Просто скрин одного из последних PR в библиотеку transformers от HuggingFace

Да, они взяли и выкинули 50к строк одним пиаром. Как так? Просто подумали и решили, что больше не будут поддерживать JAX и TensorFlow. Теперь в transformers остается только PyTorch.

Аргументируют это тем, что хотят упростить библиотеку и оградить ее от излишнего раздувания инструментария.

JAX искренне жаль (TensorFlow тоже, но не от всего сердца)

Читать полностью…

Data Secrets

Тем временем трещин в отношениях OpenAI и Microsoft становится все больше

Новой точкой преткновения стало приобретение Альтманом стартапа Windsurf. Напоминаем, что слухи об этой покупке ходят уже месяцами, но сделка до сих пор не подписана.

Оказывается, дело в том, что по текущему договору компаний Microsoft тоже получит доступ к интеллектуальной собственности Windsurf. OpenAI против, потому что за счет этого Microsoft могут улучшить своего GitHub Copilot.

Сейчас OpenAI всеми способами пытаются добиться пересмотрения деталей договора. Некоторые источники даже сообщают, что ради этого руководство стартапа рассматривает возможность публично обвинить Microsoft в антиконкурентном поведении. Тогда дело могут передать на уровень штата и пересмотреть договор можно будет на федеральном уровне.

Читать полностью…

Data Secrets

Там вышел новый бенчмарк по программированию – модели выбивают на нем 0% 😐

LiveCodeBench Pro состоит из самых свежих и самых сложных задач по программированию с Codeforces, ICPC, and IOI (International Olympiad in Informatics). Размечали их сами победители и призеры олимпиад.

Итог: даже лучшая модель o4-mini-high достигает рейтинга около 2100. Это очень далеко от гроссмейстеров-людей (~2700).

При этом модели способны решать только простые и некоторые средние задачи. На по-настоящему сложных абсолютно все LM – чистый ноль.

У них неплохо получается решать задачи на комбинаторику и динамическое программирование. Но в теории игр и работе с угловыми случаями они на уровне среднего эксперта или даже ученика.

И вот что еще интересно: у людей ошибки обычно в реализации, а не в алгоритме. То есть бытовая невнимательность или синтаксис. У моделей же провалы чаще на уровне самой идеи.

Олимпиадников пока не заменяем, получается

arxiv.org/pdf/2506.11928

Читать полностью…

Data Secrets

В ChatGPT тихо обновился поиск

Самое значимое: теперь в нем есть возможность искать картинки + добавили автоматическое переключение на множественный пошаговый поиск для сложных запросов.

Кроме того, улучшили следование инструкциям, полноту ответов и их актуальность.

Еще пишут, что «некоторые юзеры могут замечать цепочки рассуждений» – даже при поиске с не-ризонинг моделями и для простых вопросов. Говорят, что скоро исправят, а пока пользуемся 😉

Читать полностью…

Data Secrets

Просто выпуск Друзей от ноября 1999 года

К 2030 году появятся компьютеры, которые смогут выполнять столько же функций, сколько и настоящий человеческий мозг


Они что-то знали 💡

Читать полностью…

Data Secrets

Доброе утро, поклонники AI!

Сегодня — тот день, когда всё внимание приковано к событию в ТехноХабе Сбера в Петербурге! Именно здесь открывает новый день международная сессия AI Journey — с актуальными темами, живыми спикерами и технологиями, которые меняют отрасли.

Сегодня в программе суперэксперты из Индии, Китая и Сербии, а российскую сторону представляют Сбер, Сколтех, Институт AIRI и другие технологические лидеры AI-индустрии.

🔗 Подключайтесь к трансляции — всё самое интересное начинается сейчас.

Читать полностью…

Data Secrets

Ученые из Anthropic предложили новый метод самообучения моделей

Традиционно файн-тюнинг строится на размеченных людьми данных. Но со временем данных становится больше, и задачи ИИ усложняются. А значит, находить квалифицированных разметчиков все сложнее (и дороже), да и в целом разметка становится менее надежной.

Решение от Anthropic и университетов-партнеров – алгоритм под названием «Internal Coherence Maximization» или ICM, то есть Максимизация внутренней когерентности. С помощью него тюнить модели можно вообще без человеческой разметки.

Когерентность – это принцип из философии, который означает, что все сущее находится во взаимосвязи. Собственно, тут все построено на нем, и модель в ICM должна сама определить, какой ответ на вопрос правильный, основываясь на двух критериях:

1️⃣ Взаимная предсказуемость. Это означает, что каждый ответ должен надежно следовать из предыдущих. Модель проверяет, есть ли закономерности и соответствует ли ее ответ остальным аналогичным случаям.

2️⃣ Логическая согласованность. Здесь модель проверяет свои собственные ответы на противоречия, чтобы метки логически не спорили друг с другом (наример, если 2+3 = 5, то 3+3 уже не может быть равно 5).

Вот и все. Сначала мы подсовываем модели совсем небольшой размеченный датасет, а затем она, используя эти два правила, обучается "автономно".

На некоторых тестах метрики на таком обучении даже превосходят метрики от обычного файн-тюнинга с человеческой разметкой. И в самой разметке модель тоже иногда допускает меньше ошибок: например, на тесте определения пола автора текста, на котором люди выбивают не более 60% случаев, ICM достигла точности в 80%.

Конечно, работает это только с концептами, которые уже хоть как-то знакомы модели + пока есть сложности с длинным контекстом. И тем не менее, выглядит все еще многообещающе.

alignment-science-blog.pages.dev/2025/unsupervised-elicitation/paper.pdf

Читать полностью…

Data Secrets

Китайские инженеры летают в Малазию с рюкзаками жестких дисков с данными, чтобы обучать модели

Если раньше китайские стартапы обходились черным рынком для покупки чипов Nvidia, то теперь, после ужесточения контроля США, они перешли на следующий уровень: теперь, вместо ввоза чипов, они вывозят данные. Об этом написал WSJ.

Сообщается, что некоторое время назад четыре сотрудника китайского ИИ-стартапа летели из Пекина в Куала-Лампур, и каждый вез с собой 15 жестких дисков с 80Тб данных для обучения модели.

Судя по всему, операция была тщательно спланирована. Данные решили переправить так, потому что онлайн передача заняла бы много времени и привлекла внимание. По прилете в Малазию сотрудники арендовали 300 серверов Nvidia, на которых, предположительно, сейчас и обучают модели.

Чего только не сделаешь ради падающего лосса. Скоро голубями будут отправлять 🥲

Читать полностью…

Data Secrets

И снова Черное Зеркало: OpenAI объединяется с производителем Барби, чтобы выпускать игрушки с ИИ

Стартап снова захватывает новую для себя область распространения своих моделей. На этот раз они подписали соглашение о сотрудничестве с Mattel. Это производители Барби, Hot Wheels, UNO, Polly Pocket и других бестселлеров в мире игрушек.

Первый совместный продукт компании планируют выпустить к концу года. Ставку обещают сделать на безопасность 😎

Купите такое своему ребенку?

Читать полностью…

Data Secrets

А еще там 8 лет исполнилось легендарной статье, на которой строилась вся ИИ-индустрия

🍷

Читать полностью…

Data Secrets

🎯 Хочешь стать уверенным специалистом в ИИ и машинном обучении?
Открой дверь в профессию будущего вместе с магистратурой ИТМО «Проектирование и разработка систем искусственного интеллекта»!

🔍 Что тебя ждёт:
Ты не просто изучишь теорию — ты научишься создавать полноценные ИИ-продукты, работать с современными ML-инструментами и станешь ключевым игроком в команде разработки сложных высоконагруженных систем.

🧠 В программе:
• формирование и анализ бизнес-требований к ИИ-системам;
• интеграция методов машинного обучения в реальные продукты;
• проектирование архитектур ML-систем, включая инференс и мониторинг;
• освоение инструментов MLFlow, Airflow, DVC, TensorBoard, ClearML и др.

👨‍🏫 Преподаватели — практики из индустрии, а среди партнёров программы — MTS, Ecom.Tech, Nexign, Россети, Росатом.

📈 Кем ты сможешь стать:
• архитектором ИИ-систем (AI Architect);
• тимлидом команды машинного обучения (ML Team Lead);
• менеджером ИИ-проектов (ML Project Manager).

🎓 26 бюджетных мест и возможность поступить дистанционно — не упусти шанс!

📌 Подробнее о программе и подача документов по ссылке:
https://abit.itmo.ru/program/master/ai_systems/

Читать полностью…

Data Secrets

Nvidia стала рекордсменом ИИ-опенсорса среди корпораций

На скрине их карта активности на Hugging Face с начала 2025. Всего за год – 347 релизов. Они обогнали Meta, Microsoft, Google, Mistral, DeepSeek и даже самих HuggingFace.

Впереди них в общем рейтинге только стартап Ai2 (они целенаправленно занимаются опенсорсом датасетов и моделей).

Забавно, что в мире корпораций, занимающихся софтом, лидирует в таком рейтинге именно та, которая занимается железом

Респект

Читать полностью…

Data Secrets

Интелион Облако запускает розыгрыш 🎉

Главный приз – 3 сервера с А10 или А5000. Также разыгрываются приятные скидки.

Запусти нейросеть, рендер, LLM или сложные вычисления на топовом GPU за 1 рубль!

Как принять участие:
1. Зарегистрироваться на Intelion.cloud
2. Заполнить форму розыгрыша
3. Подписаться на ТГ канал

Итоги подведем 5 июля в прямом эфире в канале Artificial Intelion.
Не забудь поделиться с другом!

Читать полностью…

Data Secrets

Google выпустили новую модель Gemini 2.5 Flash-Lite

Теперь это самая быстрая и дешевая модель семейства Gemini 2.5.

Внутри: ризонинг (бюджет настраивается, можно использовать и без рассуждений), контекст в 1 миллион токенов, встроенный поиск в сети и интерпретатор кода.

По метрикам намного лучше относительно предыдущей версии Flash-Lite 2.5, особенно в кодинге и математике. Конечно, все-таки чуть похуже Flash, зато во много раз дешевле даже с Thinking модом.

Блогпост здесь
Пробуем бесплатно тут

Читать полностью…

Data Secrets

🤍🤍🤍🤍🤍
Когда мир говорит: «Ты слишком» — Сбер отвечает: «Нам подходит»

Слишком амбициозный?
Слишком нестандартный?
Слишком умный, громкий, яркий?


Для Сбера — это преимущество!
Веди за собой команду, создавай новые продукты, помогай людям.

Будь собой — в команде, где возможно всё 💚

Читать полностью…

Data Secrets

GPT-4.5 – все 😩

14 июля к модели будет прекращен доступ через API. OpenAI объясняют это тем, что им надо обучать следующие модели, а поддержка GPT-4.5, видимо, кушает очень много ресурса.

Получается, всего модель просуществует чуть больше 4 месяцев

Читать полностью…

Data Secrets

В Технобе Сбера прошла форсайт-сессия AI Horizons — одно из ключевых событий в преддверии ПМЭФ-2025.

Эксперты из 17 стран собрались, чтобы обсудить не только перспективы развития ИИ, но и конкретные шаги: как улучшить архитектуру моделей, какие данные необходимы для обучения и что делать, чтобы ИИ оставался безопасным. В рабочих группах участвовали представители Сбера, AIRI, МГУ, ВШЭ и десятков других научных и технологических центров.

Мероприятие позволило определить перспективы глобального развития искусственного интеллекта на ближайшие годы и стало площадкой для формирования сообщества экспертов стран БРИКС+.

«Это мероприятие по праву можно назвать одним из самых авторитетных. Столь высокий совокупный индекс Хирша участников раньше встречался разве что на крупнейших мировых научных форумах», — отметил старший вице-президент, руководителя блока «Технологическое развитие» Сбера Андрей Белевцев.

Читать полностью…

Data Secrets

Сегодня, кстати, празднуется Международный День Отца

Поздравляем, получается 🤓

Читать полностью…

Data Secrets

GoogLeNet выиграл награду test-of-time на конференции CVPR

Каждый год на CVPR награждают одну статью, которая вышла ровно 10 лет назад и оказала наибольшее влияние на область компьютерного зрения. Это называется Longuet‑Higgins Prize.

В этом году премию выиграла легендарная статья Going Deeper with Convolutions, в которой впервые показали архитектуру GoogLeNet.

В 2014 году модель выиграла соревнование ImageNet. Это была одна из первых глубоких нейросетей: именно она показала, как можно добавлять больше слоев без взрыва параметров и с сохранением эффективности.

Поздравляем! 🎉

Читать полностью…

Data Secrets

Китайская лаборатория BAAI выпустила открытую SOTA модель для робототехники

RoboBrain 2.0 – это модель общего назначения для управления роботами. Это не просто VLA, а «модель мозга».

Модель поддерживает рассуждения и долгосрочное агентное планирование, устойчивое восприятие 3D-пространства и рассуждения на основе сцены, а также долгосрочную обновляемую память.

Под капотом: Vision Encoder + MLP Projector. На вход принимает и видео, и картинки, и, конечно, текст. Через адаптеры все подается в LLM декодер, который и выполняет поставленные задачи.

Пока доступна модель на 7В, скоро выйдет на 32В. Модель побольше на робо-бенчах обгоняет и открытых, и закрытых конкурентов. В том числе Claude Sonnet 4 и o4-mini.

Радует, что снова появляется явный тренд на открытую робототехнику

GitHub | HuggingFace

Читать полностью…

Data Secrets

«Китайские шпионы систематически похищают технологические ИИ-секреты США» – Александр Ванг

Александр Ванг заявил, что хоть США пока и опережает Китай в железе и алгоритмах, Азия уже скоро вырвется вперед благодаря:

1. Шпионажу. Китай с 2018 года реализует масштабный государственный ИИ-план. В том числе они масштабно засылают шпионов в американские компании. Пример – «Инженер Google украл проектную документацию по ИИ-чипам и начал на её основе бизнес в Китае». Своих же исследователей китайцы строго изолируют и проверяют.

2. Разметке. В Китае насчитывается более 2 миллионов человек, которые занимаются аннотированием данных – против всего 100 000 в США. Данных для обучения у них уже больше.

3. Информационной войне. Китай использует ИИ для создания передовых инструментов в области влияния на сознание и тем самым манипулируют общественностью.

Вот такие байки от будущего главы ИИ в Meta. Верим?

Источник: новое интервью

Читать полностью…

Data Secrets

OpenAI завезли в Codex прикольное обновление: теперь агент может генерировать несколько вариантов ответов

В настройках можно установить их количество – от 1 до 4. Особенно удобно, когда надо, например, быстро получить несколько путей устранения бага или увидеть разные варианты имплементации.

Читать полностью…

Data Secrets

Claude Opus написал статью-ответ на ту самую резонансную работу Apple «The Illusion of Thinking»

Его дисс называется The Illusion of the Illusion of Thinking, и Opus в нем числится первым из двух авторов. Вот эта папира, лежит на arxiv.

Док небольшой, всего три страницы. Если кратко, Клод предъявляет ряд претензий к дизайну экспериментов Apple. Вот основные:

1️⃣ Автоматическая система оценки работала неправильно. Она засчитывала ответ только если модель могла явно перечислить все шаги решения, не различая ситуацию «не могу» и «могу, но не буду перечислять всё». Также некорректными были исходные метрики сложности задач: авторы считали ее просто по числу шагов, не учитывая количество вариантов решения, NP сложность и другие нюансы.

2️⃣ Авторы давали модели нерешаемые задачи. Например, тестировали River Crossing с
N ≥ 6 при вместимости лодки 3. Такие задачи математически не имеют решений, но модели все равно получают 0 баллов за «провал».

3️⃣ Ограничений по длине ризонинга не должно было быть. Якобы в задачах типа Башни Ханоя модели не провалились в рассуждениях, как утверждается в оригинале, а остановились из-за ограничения на количество токенов. При этом если попросить вывести ответ в другом формате (например, написать функцию для решения задачи) – все работает.

Ризонинг-модель пишет диссы на человеческую статью про ризонинг. Добро пожаловать в 2025 ☠️

Читать полностью…

Data Secrets

Reinforcement Pre-Training: новая трендовая статья от ученых из Microsoft и Пекинского университета

Стандартное предобучение LLM сводится к максимизации предсказанной вероятности истинного следующего токена по контексту. То есть модель просто предсказывает следующие токены и мы сверяем их с истинными.

В этой статье же предлагают иной подход – next-token reasoning (ака а давайте добавим обучение с подкреплением еще и сюда). Это значит, что мы не дожидаясь тюнинга, с самого первого этапа обучения – предобучения на текстах – учим модель рассуждать.

Здесь задача сети не просто предсказать следующий токен, а сначала сгенерировать chain-of-thought, а только затем – токен. Награда выдается за точное совпадение с истинным префиксом.

Такое RPT-обучение сопоставимо по эффективности с увеличением модели в 2 раза. То есть RPT-14B показывает заметный прирост по сравнению с ванильно обученной R1-Distill-Qwen-14B и по среднему показателю next-token accuracy достигает уровня R1-Distill-Qwen-32B.

Конечно, и компьюта на такой трейн требуется в разы больше. Но есть еще один плюс: RPT-модель, за счет того, что для нее CoT уже знаком с претрейна, дает гораздо более хорошую базу для дальнейшего RL, то есть в будущем с помощью RL RPT бустанется в разы лучше, чем обычная базовая модель.

Занятно, конечно arxiv.org/abs/2506.08007

Читать полностью…

Data Secrets

Директором нового ASI-отдела в Meta станет Александр Ванг

На днях мы писали о том, что Meta пересобирает свой ИИ-отдел, и занимается этим лично Цукерберг. Сегодня стало известно, что главой нового подразделения станет молодой миллиардер Александр Ванг.

Ванг – создатель Scale AI. Он не классический представитель рисерча, зато он – супер талантливый предприниматель и стратег. Ему всего 28, но он уже построил многомиллиардную компанию, успешно ей управляет и привлекает лучших инженеров.

Для того, чтобы Александр работал на Meta, компания выкупает 49% акций Scale AI за 15 миллиардов долларов. Футболисты курят в сторонке 🚨

Читать полностью…
Subscribe to a channel