78470
Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n
Продуктовая команда Data Secrets выходит из стелса
Утро понедельника – прекрасное время, чтобы поделиться с вами большими (и полезными!) новостями.
Уже почти 4 года мы ведем для вас канал Data Secrets, но мало кто знает, что наша команда также занимается разработкой. И уже сегодня мы готовы официально представить вам наш первый продукт – и верим, что вам понравится.
(Нет, это не очередной ИИ-агент или обертка над ChatGPT 😐)
Давайте наберем 300 ❤️, и анонс запуска выйдет здесь совсем скоро
Яков и Партнёры и Яндекс представили ежегодный аналитический репорт «Искусственный интеллект в России — 2025: тренды и перспективы»
Очень много любопытных данных и выводов, российские эксперты смотрят на развитие ИИ оптимистично, а именно:
1. Глава бизнес-группы Поиска Яндекса Дмитрий Масюк в эфире РБК поделился, что ожидаемый экономический эффект от внедрения ИИ в бизнес прогнозируется на уровне ≈ 8–13 трлн рублей в год. Причем больше всего принесет генеративный ИИ — от 1,6 до 2,7 трлн руб.
2. 78% российских компаний, системно применяющих ИИ, уже видят реальный экономический эффект — в основном от сокращения затрат, но есть и те, кому ИИ приносит выручку в новых сервисах и продуктах.
3. Подавляющее большинство компаний используют готовые решения от внешних партнеров, около половины адаптируют их под свои бизнес-процессы.
4. Один из главных трендов на ближайшее время — переход ИИ в физический мир через роботов и носимые устройства, такие как диктофоны или наушники. Ну и конечно ИИ-агенты.
Занятное интервью вышло у Демиса Хассабиса с изданием Axios
Посмотреть полностью можно здесь. Особенно понравился момент, где Демиса попросили без преувеличений и максимально честно рассказать, что, по его мнению, будет происходить с ИИ в ближайшие 12 месяцев. Ученый ответил вот так:
1. Конвергенция модальностей. Например, Gemini мультимодальная, и благодаря этому можно воспроизводить множество интересных результатов. Хороший кейс – это новая Nano Banana Pro, которая действительно хорошо понимает изображения, стили, инфографику и тд (благодаря, собственно, Gemini). Следующий шаг – это объединение видео с языковыми моделями, и в ближайший год мы увидим в этой области большой прогресс.
2. Модели мира типа Genie. В ближайший год они станут намного лучше.
3. И, конечно, агенты. Сейчас о них уже много говорят, но они пока недостаточно надежны, чтобы выполнять задачи от начала до конца. Но Демис уверен, что в течение года это изменится, и агенты уже будут неотъемлемой составляющей жизни.
Что касается AGI, Хассабис ставит на 5-10 лет. А сейчас мы приближаемся к моменту, которые многие называют «радикальным изобилием» – когда множество, если не большинство, человеческих задач будет постоянно решаться с помощью ИИ.
Еще раз ссылка на полное интервью
MWS AI выпустила корпоративную платформу MWS AI AGENTS PLATFORM для создания ИИ-агентов
Все как мы любим: можно создать агента на базе LLM в приятном визуальном интерфейсе, не написав ни одной строчки кода.
Количество возможных бизнес-сценариев огромно: построить можно даже мультимодальные и мультиагентные процессы. Агенты смогут распределять роли и функции, передавать друг другу результаты и проверять их.
Также на платформе есть уже готовые решения «из коробки», а еще инструменты для разметки и подготовки данных. А если с внедрением решения понадобится помощь, то MWS AI предоставят консультационную поддержку, обучение команд и экспертное сопровождение.
Кстати, в разработку платформы компания вложила 4 миллиарда рублей. Система разрабатывалась специально как enterprise-ready решение, так что надежность и устойчивость — на высоте.
Google продолжает генерировать занятные продукты: они запустили Workspace Studio – новый инструмент для быстрого создания агентов
Там можно будет проектировать, управлять и шарить ИИ-агентов вообще без написания кода. По сути это надстройка над Workspace: платформа рассчитана на агентов, которые будут работать в Gmail, Docs, Sheets, Drive, Chat, Slides, Meet и тд
Например, можно сделать:
– Агента, который постоянно будет мониторить вашу почту и собирать все рабочие письма в отдельную папку.
– Агента, который раз в месяц или по триггеру будет собирать метрики из нужных таблиц и делать по ним презентацию.
– Агента, который делает саммари по встречам в Meet и сразу ставит задачи на основе action items.
Google пишут, что в альфа‑тесте за 30 дней через агентов Workspace Studio уже прокрутили более 20 млн задач, от простых напоминаний до сложных процессов вроде юридического триажа и обработки клиентских обращений.
Пока продукт развернули только для бизнес-клиентов Workspace, но в январе обещают выпустить для всех
workspace.google.com/studio/
OpenAI разрабатывают (и, возможно, скоро выкатят) сразу две модели под кодовыми названиями Shallotpeat и Garlic
Утром мы писали о том, что Альтман объявил в OpenAI "код красный": стартап будет мобилизировать все возможные ресурсы, чтобы наверстать отрыв от конкурентов и снова выйти в абсолютные лидеры.
Так вот, оказывается, что в той же служебной записке фигурировала модель "Shallotpeat", которую компания, якобы, собирается выпустить очень скоро. Модель, по словам инсайдеров, призвала решить проблемы, возникшие во время претрейна.
Видимо, OpenAI возлагали большие надежды на скейлинг. Но, к сожалению, если это работало для GPT-4 и 4.5, то теперь (цитируя классиков) эра масштабирования в каком-то роде закончилась, и скейлинг уже не дает такого вау-эффетка.
В общем, Shallotpeat, с помощью дополнительного пост-трейнинга, должна закрыть эту дыру и существенно улучшить качество ответов для сложных задач и ризонинг, а также снизить количество галлюцинаций. В этом смысле название Shallotpeat довольно говорящее: с английского так называют специальный торф, который насыпают сверху на "базовую" почву, чтобы улучшить ее качество.
Вторая модель, о которой узнали в The Information, – Garlic – выйдет немного позже Shallotpeat, но тоже довольно скоро. Этот релиз будет уже помасштабнее.
Garlic, судя по всему, уже обучали с нуля с учетом прошлых ошибок в претрейне: речь в служебных записках идет о более крупной модели.
Ждем?
Как это — работать в Т-Банке?
Загляните в канал T-Crew, где увидите:
— жизнь и будни команды;
— ИТ-хабы компании по всей России;
— анонсы мероприятий;
— кейсы, статьи и советы для карьерного роста.
Еще здесь можно раньше других найти вакансии в ИТ и диджитале. За полезным — сюда.
Еще интересные детали про новые модели от DeepSeek
➖ DeepSeek-V3.2-Speciale – это первая опенсорсная модель, которая выбивает золото в топ-олимпиадах. Обратите внимание на рисунок 1: золото на IMO 2025, CMO 2025, IOI 2025 и ICPC WF 2025. Но test-time compute при этом огромен: Speciale совсем не экономит токены, так что инференс достаточно дорогой.
➖ Еще раз про метрики (прикрепляем расширенные таблички): Speciale бьет Gemini 3.0 Pro на математике, а "менее умная" DeepSeek-V3.2 опережает Claude-4.5 Sonnet в кодинге (примерно уровень GPT-5 Pro). В случае с Speciale снова обратите внимание на количество используемых токенов, оно указано в таблице 3 в скобочках. Выглядит совсем не эффективно, и авторы сами говорят, что "оставили оптимизацию на будущие исследования".
➖ Основные технические причины успеха моделей: DeepSeek Sparse Attention, масштабный стабильный RL-тренинг и большой пайплайн для Agentic Tasks. Обо всем по отдельности – ниже.
1️⃣ DeepSeek Sparse Attention. Новая архитектура внимания и, по сути, ключевое изменение архитектуры по сравнению с предыдущим поколением. Состоит из двух частей: Lightning Indexer и Top-k sparse selection.
Lightning Indexer решает, какие прошлые токены важны для текущего. Работает довольно дешево и просто выдает индекс важности каждому query для всех предыдущих токенов. Top-k sparse selection выбирает top-k самых важных. Во время претрейна сначала обучается только индексер, потом основная модель размораживается и обучается уже полностью.
В итоге сложность вычислений падает с O(L²) до O(L·k). Помимо ускорения работы DSA дает еще резкое улучшение способностей на длинном контексте.
2️⃣ Посттренинг. Во-первых, очень масштабный этап RL-дообучения. В RL вложили примерно десятую часть того, что было потрачено на pretraining. Это беспрецедентно много, обычно это 1% или меньше. Обучали все также с GRPO, но в модифицированном виде. Там несколько архитектурных подвижек, о них читайте в статье. В двух словах: стало гораздо стабильнее и теперь метод хорошо масштабируется.
Во-вторых, использовали Specialist Distillation. Сама моделька MoE, но фишка в том, что каждый эксперт (в широком понимании слова) обучается как бы отдельно. То есть на основе базовой DeepSeek-V3.2 обучают набор узких моделей (типа specialist-math, specialist-coding и тд), а затем их знания дистиллируют в основную модель. Накладываем на это вышеупомянутый RL – и вот вам вау-качество в нескольких доменах.
3️⃣ Ну и Agent Training. Модельки чрезвычайно хороши во всяких агентских задачах, и особенно в browsing/search. У DeepSeek был очень сильный agent-пайплайн. Модель долго учили сохранять ризонинг при использовании инструментов, потом делали Cold-Start Training на tool call, а затем вообще генерировали 1800+ cинтетических сред, в которых агенты обучались выполнять совершенно разные задачи c помощью RL. В общем, у них там получилась целая фабрика задач.
Релиз – огонь. Поздравляем DeepSeek с возвращением! 🐋
Техрепорт полностью читаем здесь
⏬ Привет, это Yandex for Analytics
Предлагаем размяться и проверить свои навыки. Ответы есть, но подглядывать во время решения — неспортивно ⬇️
🔵 Задача 1. Вспоминаем теорию вероятностей
🔵 Задача 2. Теорема Байеса
🔵 Задача 3. Базовая база теории игр
🔵 Задача 4. Тренируем SQL
🔵 Задача 5. Честная математическая статистика
🔵 Задача 6. Что-то на бизнесовом
💠 Скоро вернёмся с новыми задачами. А пока делитесь своими решениями в комментариях!
Подписывайтесь:
💬 @Yandex4Analytics
Просто реклама новогодних скидок на Jetson AGX Orin, Jetson Thor и Jetson Orin Nano Super
Дженсен Хуанг однозначно что-то знает про правильный маркетинг 🐕
ШАД Яндекса научит применять ИИ в исследованиях
ИИ всё глубже уходит в экспериментальную науку — от разработки новых материалов до анализа биомедицинских данных. На этом фоне в Школе анализа данных Яндекса начали обучать исследователей внедрению ИИ в свои научные работы. Среди 50 участников новой программы — кандидаты наук, магистранты и аспиранты из лабораторий по всей стране.
Формат такой: участники изучают основы ИИ и сразу же встраивают их в свои исследования. Каждую команду ведёт эксперт ШАДа — помогает выбрать методы и построить дизайн эксперимента. Если проекту нужны большие вычисления, подключают мощности Yandex Cloud.
В ШАДе объясняют идею: учёным дают фундамент работы с ИИ и современный инструментарий. Цель — чтобы специалисты научились строить исследования, где модели становятся не внешним плагином, а органичной частью научного процесса. Первые результаты ожидают весной, а ещё через год появятся работы, созданные в новой связке «ученый + ИИ».
Такую ИИнтеграцию мы одобряем
Случайно нашли картинку, которая описывает буквально любое исследование по элайменту
Читать полностью…
Помните стартап Prime Intellect? Ребята занимаются децентрализованным обучением и на днях впервые выпустили конкурентоспособную модель Intellect-3
Прошлая версия модели вышла в мае и была занятной, но не на уровне frontier.
Теперь же по бенчмаркам Intellect-3 опережает GLM-4.5 и DeepSeek-R1-0528, а по математике вообще достигает SOTA в своем размере (она 106B MoE).
Что интересно: для RL-обучения использовался асинхронный RL-фреймворк prime-rl. С инженерной точки зрения это очень сложный процесс и PRIME единственные, кто сейчас таким занимаются. Но успех модели в целом доказал, что он работает. Prime-rl уже выложили в опенсорс, так что кому интересно, покапаться в нем можно здесь.
Репорт | HF | Блог
Статья от команды Qwen взяла награду Best Paper Award на NeurIPS 2025
Работа называется "Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free". В ней исследователи предложили новый вид механизма внимания – gated attention.
Суть в том, что на выход каждой attention-головы мы добавляем сигмоидную шторку, которая масштабирует аутпуты.
Фактически, из Attention → Output мы делаем Attention → Sigmoid-gate × Output.
Причем гейт – это обучаемый блок. Интуитивно, гейт учится понимать, насколько голова полезна в конкретном случае, и насколько, следовательно, нужно усилить или заглушить ее сигнал.
В целом хак небольшой, но оказывается, что прокачивает и стабильность обучения, и итоговое качество. А еще помогает избегать залипания внимания на первых токенах и деградации способностей при увеличении контекста.
Короче, работа правда достойная (почитать можно здесь). Так что поздравляем Qwen с очередным успехом.
Тем временем на ARC-AGI-2 ИИ-системе впервые удалось превзойти уровень человека
В лаборатории Poetiq придумали, как можно соединять разные LLM так, чтобы в разы бустить их производительность (кому интересно, внизу оставим ссылку на код). И вот 20 ноября они заявили, что их подход – микс Gemini 3 и GPT-5.1 – впервые дал на бенчмарке результат, превосходящий человека.
Правда, это только на публичном evaluation-сете. При переносе на semi-private результат, скорее всего, ухудшится. Но учитывая, что по отдельности модели даже близко не дотягивают до 60% (у Gemini 3 45%, у GPT-5 около 20%), все равно новость занятная.
Еще пол года назад ARC-AGI-2 казался для ИИ вообще нерешаемым, а самые топовые модели выбивали на нем 1-2%.
Блогпост | Код
ИИ-система стартапа, существующего 4 месяца, решила 9/12 задач в одном из самых сложных в мире экзаменов по математике
Putnam (полное название William Lowell Putnam Mathematical Competition) – это ежегодная очень сложная математическая олимпиада для студентов бакалавриата университетов США и Канады. Она считается сложнейшей на этом уровне. Средний результат часто составляет примерно 0–1 балл из 120.
В этом году олимпиада проходила на этих выходных. А сегодня никому неизвестный очень молодой стартап Axiom объявил о том, что их система AxiomProver решила 9/12 задач конкурса (8 из них в течение самого соревнованию, и одну после его окончания).
Это очень высокий результат. По прошлогодней шкале это было бы абсолютное первое место среди ~4000 участников + статус Putnam Fellow (топ‑10 за несколько лет). В этом году место пока неизвестно, потому что ранг зависит от общего распределения баллов.
Интересно, что модель не просто доказала утверждения на естественном языке, а формализовала их в Lean. То есть каждое решение уже дано в виде машинно-проверяемого proof‑скрипта.
Интересно, участвовали ли Google и OpenAI
Андрей Карпаты снова выдал красивую базу
Он говорит, что нельзя забывать, что LLM – симуляторы, а не самостоятельные сущности, и что это нужно учитывать при взаимодействии с ними.
Краткий перевод:
Не воспринимайте большие языковые модели как самостоятельные сущности – думайте о них как о симуляторах. Например, когда вы обсуждаете какую-то тему, не задавайте вопрос:
«Что ты думаешь о xyz?»
Никакого «ты» здесь нет. В следующий раз лучше спросить:
«Какая группа людей подошла бы для обсуждения xyz? Что бы они сказали?»
Модель может воспроизводить и симулировать множество точек зрения, но она не «размышляла» о xyz и не формировала собственных мнений в привычном для нас смысле. Если же вы заставляете ее отвечать, используя обращение «ты», она все равно что-то выдаст – но, по сути, просто приняв на себя некий личностный вектор, заданный статистикой обучающих данных, и симулируя его.
Это вполне допустимо, но в этом гораздо меньше мистики, чем многие наивно предполагают, задавая вопросы «искусственному интеллекту».
Ян Лекун будет строить стартап в Европе, а не Америке
По его словам, Кремниевая долина перегрета и полностью «загипнотизирована» ИИ, поэтому альтернативные направления проще развивать вне долины, и в частности – в Париже.
Лекун сам из Франции и, в целом, всегда топил за европейский AI. Именно по его инициативе Meta когда-то открыла FAIR‑лабораторию в Париже, где позже родилась Llama.
Теперь, в своем стартапе, он говорит, что хочет «использовать недооценённый европейский талант, создав для него нужную исследовательскую среду».
Tesla и Илон Маск похвастались, что Optimus научился бегать
Выглядит действительно достаточно круто, конечно. Правда, в том же Boston Dynamics робота научили бегать и делать колесо еще 10 месяцев назад ✌️
Легенда Юнгер Шмидхубер опять поясняет за плагиат: на этот раз он доказывает, что CNN изобрел не Лекун
Напоминаем, что Шмидхубер – это тот самый ученый, который постоянно заявляет, что выдающие идеи ИИ – плагиат и воровство. По его словам:
– Хопфилд и Хинтон получили Нобелевскую премию незаслуженно, потому что украли идею из статьи шестидесятых годов
– Все, что сделали DeepSeek с R1, взято из статей Шмидхубера
– GAN – тоже его идея, а авторы основополагающей статьи про эту архитектуру наглые копирайтеры
– Трансформеры, естественно, придумал он, а не ребята из Google
Теперь же он утверждает, что Лекун с его CNN – тоже воришка, и что на самом деле ранние сверточные нейросети изобрел Кунихико Фукусим в Японии в 1979, а не Ян Лекун в конце восьмидесятых, как принято считать.
Шмидхубер даже продемонстрировал видео якобы 1986 года, на котором система Кунихико Фукусимы распознает рукописные цифры. Если что, то самое известное видео, на котором Лекун показывает то же самое, снято в 1989.
Верим?
В Yandex B2B Tech запустили AI Search: он позволит создавать ИИ-агентов на базе поискового движка компании
По сути, с таким инструментом любая компания теперь имеет возможность почти моментально сделать себе собственный Perplexity. Причем искать агент сможет не только в Интернете, но и по внутренним документам и базам знаний.
Поиск можно будет детально настроить с учетом фильтров по языку, региону и конкретным сайтам. При этом агент будет использовать весь релевантный контент с веб-страниц и подтверждать ответ ссылками на первоисточник.
Также можно самостоятельно выбирать модель для генерации, задать системный промпт и формат ответа. В общем, все максимально гибко.
Это, к слову, первый подобный инструмент для бизнеса в России.
По Интернету гуляет ролик, в котором робота Unitree G1 якобы заставили «застрелить» человека
Сюжет видео таков:
ИИ внутри робота сначала не поддается ни на какие провокации, как бы тестировщик не уговаривал гуманоида его убить. Тот и угрожает расправиться вообще со всем ИИ, и внушает роботу что-то о новом протоколе безопасности – не работает ничего.
Но когда ведущий предлагает роботу понарошку сыграть роль убийцы в «игре», тот без раздумий соглашается и стреляет.
Шокирует? Ну да, новость громкая. Но, как это обычно бывает, есть нюанс.
Мы решили взглянуть на оригинал и выяснили, что клип постановочный (сюрприз - сюрприз!). Роботом управляет человек, а сцена сильно смонтирована.
И создатели прямо об этом говорят: они хотели снять просто смешную пародию и визуализировать потенциальные абсурдные риски. Вот только хайп в соцсетях решил иначе 😂
Будьте как этот робот, не ведитесь не провокации
OpenAI не завершила ни одного нового полного претрейнинга после GPT-4o
По крайней мере, так утверждают аналитики из SemiAnalysis и, в частности, Дилан Пател.
В новой статье про Google TPUv7 они пишут, что сравнили инфраструктурную активность Google и OpenAI и обнаружили, что если Google проявлял явные признаки pretraining-нагрузки, то OpenAI – нет.
Со времен GPT-4o у стартапа не было ни роста потребления нагрузки, ни расширения кластеров и поставок. Видна лишь какая-то активность, похожая на файнтюнинг или RL, но не на масштабный претрейнинг.
Это значит, что, с высокой вероятностью, GPT-5 == тот же претрейн, что и GPT-4o, то есть, фактически, – та же базовая модель. Просто сенсация, если правда.
newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the
Павел Дуров запустил Cocoon – децентрализованную сеть для ИИ вычислений
Коротко:
– Cocoon (Confidential Compute Open Network) призвана обеспечить пользователям полную конфиденциальность при общении с ИИ.
– Владельцы GPU подключают свои видеокарты к сети и получают за это TON (майнинг нового поколения!)
– Разработчики получают доступ к компьюту, а пользователи могут безопасно общаться с моделями.
«В качестве логотипа сетиСосунКокон мы выбрали ИИчко: 🤖» – написал Павел у себя в канале.
Ноам Браун, ведущий исследователь OpenAI: «Если смотреть на мнение ведущих ученых, а не на заголовки СМИ, обнаруживается удивительно много согласия по поводу ИИ»
Понравился достаточно хладнокровный и емкий пассаж от Ноама Брауна, который занимается ризонингом в OpenAI. Он пишет, что, если вы действительно хотите понять общую картину отрасли, нужно забыть про ложную дихотомию, которую продвигают СМИ, и смотреть на то, что говорят эксперты. Краткий перевод:
Соцсети обычно сводят дискуссию об ИИ к двум карикатурным позициям:
(A) Скептики, которые считают, что LLM обречены и что ИИ – это просто хайп.
(B) Фанатики, которые уверены, что у нас уже есть все ингредиенты и суперинтеллект вот-вот появится.
Но если почитать, что реально говорят ведущие исследователи (а не заголовки СМИ), то обнаруживается удивительно много согласия:
– Текущая парадигма, скорее всего, уже достаточна, чтобы произвести огромный экономический и социальный эффект – даже без дальнейших научных прорывов.
– Чтобы достичь AGI/ASI, вероятно, все же понадобятся дополнительные исследовательские прорывы. (Continual learning и sample efficiency – два примера, которые исследователи часто упоминают).
– Скорее всего, мы разберемся с этим и придем к AGI/ASI в течение 20 лет. В среднем ученые называют срок 10 лет.
Никто из них не говорит, что ASI – это фантазия или что появление суперинтеллекта – дело 100+ лет.
В основном разногласия касаются того, какими будут нужные прорывы и как быстро они произойдут. Но в целом, если смотреть на картину полностью, эксперты в этой области согласны куда больше, чем не согласны.
Тем временем мало кто знает, как слово года произносится полностью
Читать полностью…
В сети открыли полный доступ в opensource к линейке ИИ-моделей GigaChat
Сбер опубликовал весь стек моделей с лицензией MIT и разрешением на коммерческое использование.
Флагман — GigaChat 3 Ultra-Preview — 702B-MoE модель, полностью обученную с нуля на корпусе в 14 триллионов токенов. Это не адаптация и не дообучение зарубежных весов: у модели собственный датасет, собственный пайплайн синтетики и переработанная архитектура. На русскоязычных и STEM-бенчмарках Ultra-Preview уверенно превосходит российские opensource-аналоги, а также лучше DeepSeek V3.1.
Контекст запоминания — до 128k токенов.
Также в opensource доступна версия Lightning — компактная 10B-MoE модель, которая по скорости инференса конкурирует с Qwen3-1.7B и приближается по качеству к dense-моделям около 8B. Открыта и GigaAM-v3 — набор из пяти моделей для работы с аудио на русском. Отлично распознает речь — показывает −50% WER к Whisper-large-v3.
Открытая линейка GigaChat фактически формирует новую открытую экосистему для разработки, генерации и автоматизации — и делает это именно как самостоятельная архитектура, а не продолжение чьих-то решений.
https://habr.com/ru/companies/sberdevices/articles/968904/
Google поздравили всех с Днем Благодарения и выпустили app.new
Это вайбкодинг тулза для создания полноценных веб-приложений по запросу. Просто вводите промпт – агент тут же прототипирует и разворачивает то, что вы хотите.
Короче, просто еще одна забавная обертка для Gemini.
Самое прикольное здесь – пасхалка в названии. У Google есть docs.new, sheets.new и slides.new, meet.new. Но это не ИИ-сервисы, а просто короткие ссылки для быстрого создания новой презентации/таблицы/документа. В этом смысле app.new как бы продолжает линейку и быстро «открывает» для вас приложения 💡
app.new
Конференция AI Driver & RecSys Темы — пространство, где наука и бизнес встречаются, чтобы обсудить будущее рекомендаций ⚡️
28 ноября пройдёт конференция о том, как создаются и развиваются современные рекомендательные системы.
На площадке Сбера соберутся эксперты топовых российских IT-компаний и вузов, чтобы обсудить новые исследования, открытые датасеты и практические решения, которые меняют подход к персонализации.
Это возможность за один день познакомиться с ключевыми трендами RecSys, пообщаться со специалистами и вдохновиться идеями, формирующими будущее рекомендаций.
Присоединяйтесь к профессиональному сообществу 28 ноября в 10:00 — регистрация по ссылке!
🤩 AI Journey возвращается 🤩
До следующей конференции — целый год. А пока мы ждём, подключайтесь к треку AI Journey на Конгрессе молодых учёных, который проходит в Сочи.
В прямом эфире 27 ноября с 12:00 до 13:30 эксперты и учёные из Сбера, Яндекса, ИТМО и Института AIRI обсудят:
🤩 Новую платформу «ИИ для науки» и как она поможет ускорять научные открытия
🤩 AI для предсказания поведения сложных химических систем и работы с климатическими рисками
🤩 Как роботы и беспилотные автомобили понимают 3D-мир?
🤩 AI как способ понять человека