78470
Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n
🤩 AI Journey возвращается 🤩
До следующей конференции — целый год. А пока мы ждём, подключайтесь к треку AI Journey на Конгрессе молодых учёных, который проходит в Сочи.
В прямом эфире 27 ноября с 12:00 до 13:30 эксперты и учёные из Сбера, Яндекса, ИТМО и Института AIRI обсудят:
🤩 Новую платформу «ИИ для науки» и как она поможет ускорять научные открытия
🤩 AI для предсказания поведения сложных химических систем и работы с климатическими рисками
🤩 Как роботы и беспилотные автомобили понимают 3D-мир?
🤩 AI как способ понять человека
Nvidia сегодня снова в центре внимания: они внезапно выложили самодовольный твит, в котором поздравили Google с успехом, но (скажем так) не от всей души
Напоминаем, что вчера стало известно, что Meta впервые в истории закупит у Google TPU для установки в свои датацентры (мы об этом вот тут писали). Так вот, на фоне новости акции Nvidia упали аж на 6 пунктов, и компания, видимо, решила "ненавязчиво" напомнить, кто тут главный.
Дословный перевод этого бархатно-токсичного чуда:
Мы рады успехам Google – они действительно заметно продвинулись в ИИ, и при этом мы продолжаем оставаться их поставщиком.
NVIDIA опережает всю отрасль как минимум на одно поколение – это единственная платформа, способная запускать любые модели ИИ и использоваться повсюду, где идут вычисления.
NVIDIA предлагает более высокую производительность, гибкость и взаимозаменяемость по сравнению с ASIC-чипами, которые заточены под конкретные фреймворки или отдельные задачи.
OpenAI перекроили голосовой режим
Теперь он будет работать не в отдельном окне, а прямо в чате. Вы говорите и тут же видите историю диалога, прикрепленные материалы и то, как в чате появляются ответы.
Имхо, так гораздо удобнее. Но если вам нравилось, как раньше, вернуть такой интерфейс можно в настройках (Voice Mode -> Separate mode).
Уже раскатывают на всех, обновляйте приложение
Читаем сейчас системную карту Opus 4.5, там гигантская глава про элаймент. На контрасте с OpenAI ребята конечно очень упарываются по безопасности.
В связи с этим вспомнился мем
Meta собирается закупать у Google TPU
Знаменательна эта сделка тем, что Meta станет первой крупной компанией, которая купит TPU для установки в собственные дата-центры.
До этого в этом году на гугловское железо уже заключали большие контракты Anthropic и SSI Ильи Суцкевера, а про OpenAI даже ходили слухи, что они хотят полностью пересесть на TPU.
Но это все было про аренду мощностей в облаке, а Meta станут, по факту, пионерами в непосредственном физическом владении чипами. Интеграцию TPU в свои центры они начнут в 2027.
Для Google эта сделка – не просто хорошие деньги, но и важный стратегический рубеж.
Подписать такой контракт – значит окончательно и публично подтвердить свои аппаратные амбиции. У Google есть реальная возможность расширить присутствие TPU на рынке, и их аналитики считают, что компания может оттяпать у Nvidia аж 10% выручки.
CEO SakanaAI Лион Джонс: «Пришло время выйти за рамки трансформеров и оставить их в прошлом»*
Изюминка в том, что сам Лион – один из изобретателей трансформера, со-автор (один из восьми) статьи «Attention is all you need».
SakanaAI как раз занимается поиском новых архитектур. В основном они черпают вдохновение из эволюции и биологии.
Мы за ними следим очень давно, и недавно делали большую подборку с нашими разборами их статей вот тут. Обязательно почитайте на досуге, исследования у них правда занятные.
С одним из подходов под названием Continuous Thought Machine они сейчас выходят на NeurIPS 2025. Это почти полное переосмысление архитектуры LLM, вдохновленное биологическими нейронными процессами. Вместо прямых проходов по сети – тики мыслей, как в мозге. Вместо нейронов – перцептроны с собственной памятью. Вот наш разбор.
А еще недавно они закрыли крупный инвестиционный раунд на 20 миллиардов долларов, и теперь, насколько нам известно, являются самым дорогим японским стартапом.
*Источник: новое интервью Лиона с ML Street Talk
Действительно доброе утро: возможно, сегодня выйдет Claude Opus 4.5 (на реддите обнаружили упоминание некой модели Kayak от Anthropic в релизной таблице на epoch.ai)
Читать полностью…
VK RecSys Challenge: проверьте свой алгоритм в деле!
В самом разгаре ежегодное соревнование по разработке рекомендательных систем от VK — RecSys Challenge 2025. Участникам предстоит решить одну из самых сложных проблем в мире рекомендаций: задачу холодного старта.
Суть соревнования — построить модель, которая предскажет, кому из пользователей понравится новый клип, даже если его ещё никто не видел.
Что ждёт участников:
• Реальные данные — датасет VK-LSVD с 40 млрд взаимодействий и 20 млн коротких видео
• Можно участвовать соло или в команде до 4 человек
• Техническая свобода — до 5 сабмитов в день, возможность экспериментировать
• Общий призовой фонд — 2 500 000 рублей
Приглашают студентов, исследователей, ML-инженеров — всех, кто хочет испытать свои силы на реальных данных и создать алгоритм, который работает в условиях, максимально приближенных к контентной жизни.
Регистрация открыта до 15 декабря. Успейте подать заявку, скачать датасет и начать эксперименты!
👉 Подробности и регистрация на сайте
Fun fact: эта картинка полностью сгенерирована новой Nano Banana Pro (если верить автору)
Красота же?
Mediascope опубликовал статистику самых популярных ИИ-ассистентов России: победила Алиса AI
Нейросетью Яндекса пользуется 14.3% населения. Для сравнения, у ближайшего конкурента, DeepSeek, доля в полтора раза меньше (9%). Для российского продукта такая планка покорилась впервые, еще весной уверенно лидировали зарубежные нейросети. Ближайший российский конкурент — GigaChat — отстал еще сильнее и расположился примерно на одной ступеньке с ChatGPT (4% и 3,5% соответственно).
На самом деле, неудивительно. Продукт у Яндекса получился действительно удобный для широкой аудитории, понимает реальные запросы пользователей, да и по-русски говорит лучше, чем зарубежные модели. К тому же не требует VPN, что очень весомо для среднего пользователя, и легко оплачивается. Переломным моментом стало недавнее громкое обновление Алисы AI, которое сделало ее самой быстрорастущей нейронкой — за первую неделю приложение скачали полтора миллиона раз.
Буквально все мы на этой неделе:
Давненько не было такой плотной череды релизов
OpenAI уже второй день всеми силами пытается оттянуть на себя внимание от новостей Google: на этот раз в ход пошел козырь в виде общих чатов в ChatGPT
Работает просто. Приглашаете в чат кого хотите, общаетесь, по мере надобности вызываете в диалог модельку. Удобно для локального обсуждения какого-нибудь проекта, но очень ситуативно. Уже раскатили на всех платников.
Лайк, если тоже считаете, что лучше бы они сделали тг-бота ✌️
openai.com/index/group-chats-in-chatgpt/
Все, Ян Лекун официально подтвердил, что уходит из Meta*
В посте на LinkedIn он написал, что создает стартап для продолжения исследовательской программы Advanced Machine Intelligence (AMI). Что такое AMI и чем Лекуну не угодил термин AGI, мы писали тут.
Цель стартапа – «сделать следующую большую революцию в ИИ»: создать системы, которые понимают физический мир, обладают постоянной памятью, могут рассуждать и планировать сложные действия.
По моему замыслу, AMI будет иметь широкое применение в различных секторах экономики. Некоторые из них пересекаются с коммерческими интересами Meta, а многие нет. Продолжать работу AMI как независимой организации – мой способ максимизировать её масштабное влияние.
В Твиттере была обнаружена картинка дня
POV: ChatGPT слушает, что на этот раз тебе опять от него нужно
Новая ИИ-IDE Antigravity от Google: первые впечатления
Главное, почему стоит хотя бы попробовать: Antigravity пока что доступна со всем своим функционалом абсолютно бесплатно на MacOS, Windows и Linux. Дают 50 запросов каждые 5 часов. Google знают, как привлечь внимание.
Что касается наполнения:
– Есть привычный editor и тут в целом ничего нового: можно вручную писать и править код, включать автокомплит, общаться с агентом и тд. Хорошо прокачано планирование и работа с артефактами, а так тот же Cursor (только сыроватый).
– Что интересно, так это режим асинхронного программирования Inbox. Это панель оркестрации агентов. Выглядит реально как почта, в которой вы ставите задачи разным агентам и можете отслеживать результат в рамках единого окна коммуникации, за рамками основного кода.
Так можно работать даже с несколькими проектами одновременно. А задачки можно назначать как параллельно, так и упорядочить в очередь.
– Еще одна приятная фича: интеграция с Chrome. Это расширение, в котором агент начинает работать в режиме computer use. Он может запустить приложение локально, поднять сервер, автоматически пройтись по страницам, проверить наличие элементов, что-то потестить, сделать скриншоты и тд. Выглядит круче, чем в Cursor.
Что пока оставляет желать лучшего, так это интеграция с GitHub и git, а также стабильность. На macOS иногда лагает, а при входе с VPN у многих все падает в бесконечную загрузку.
https://antigravity.google/
Российские ученые первыми нашли способ защитить модели компьютерного зрения от пиратства без дополнительного обучения
Метод представили на ICCV 2025(A*), где его положительно оценили эксперты из таких гигантов как Amazon, Google и других ведущих университетов. Команда из научной лаборатории ИИ Центрального университета предложила механизм, который защищает готовые нейросети по принципу лицензионного ключа.
В модель добавляется специальный нейрон, который не реагирует на обычные изображения, но активируется при появлении секретного ключа – это и позволяет подтвердить авторство. А “нейроны-нарушители” делают модель работоспособной только при наличии ключа. Без него она начинает вносить помехи.
Главное: решение подходит для любых моделей CV, не требует вычислений и практически полностью исключает ложные срабатывания. Это открывает путь к массовой коммерциализации и реальной защите моделей компьютерного зрения от копирования.
⚠️Что видит камера, когда за ней стоит нейросеть?
📌Узнайте на открытых вебинарах курса «Компьютерное зрение» — мы подготовили для вас самые актуальные темы для 2026 года, а преподаватели ответят на ваши вопросы.
💎Вебинар 1: Механика обучения: как нейросеть находит правильные веса
⏰3 декабря в 20:00 мск
На вебинаре узнаете:
• Как нейросеть «чувствует» ошибку и корректирует себя — от сигнала до обновления весов.
• Почему выбор функции потерь и оптимизатора критически влияет на результат обучения.
• Как устроено обучение в компьютерном зрении «на пальцах»
💎Вебинар 2: PyTorch с нуля: работа с тензорами и обучение нейросетей
⏰8 декабря в 20:00 мск
На вебинаре узнаете:
• Основы работы с тензорами: создание, преобразования, GPU-ускорение и взаимодействие с NumPy.
• Архитектуру простой нейросети в PyTorch: nn.Module, слои, активации и прямой проход.
• Полный пайплайн обучения на MNIST: загрузка данных, цикл обучения, подсчёт лосса, backpropagation и оценка метрик (accuracy, confusion matrix).
💎Вебинар 3: Следим и считаем людей на видео
⏰18 декабря в 20:00 мск
На вебинаре узнаете:
• Как применять современные нейросетевые трекеры для решения реальных задач, таких как обнаружение и отслеживание объектов на видео.
• Какую статистику и метрики можно вывести из трекинг-данных, и с какими потенциальными сложностями можно столкнуться.
• Где и для чего применяется нейросетевой трекинг на практике, и для чего он нужен бизнесу.
Регистрация на вебинары ➡️ OTUS.RU
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Вышло!
Новое интервью Суцкевера смотрим тут -> https://youtu.be/aR20FWCCjAs
Полтора часа кайфа во вторник вечером
Рисерчеры и студенты, это для вас: легендарный Эндрю Ын (сооснователь Coursera и доцент Стэнфоррда) сделал ИИ-ревьюера для научных работ
Суть проекта – в быстром пред-ревью вашей работы перед тем, как вы отправите ее в журнал или научруку. Человеческое ревью длится неделями и даже месяцами, а тут вы можете предвательно оценить, насколько исследование "понравится" ревьюерам и заранее исправить замечания, которые обнаружит агент.
Меня вдохновила история студента, чью работу отклоняли 6 раз за 3 года. Цикл обратной связи обычно занимает примерно пол года, и это мучительно долго. Я захотел проверить, насколько агенты смогут помочь исследователям ускорить процесс.
Лучшая новость дня: у Дваркеша Пателя завтра выйдет интервью с Ильей Суцкевером.
Последний раз ученый давал интервью журналистам, кажется, в 2023.
Ждем сильнее, чем новый Claude Opus 4.5
⚙️🦾 Ансамбли моделей в Scikit-learn — усиливаем ML-модели за счёт объединения
Ансамбли моделей — проверенный способ повысить стабильность и точность прогнозов. На открытом уроке разберём, как объединять алгоритмы, чтобы добиться лучших результатов. Вы научитесь использовать bagging, boosting, stacking, сравните одиночные и ансамблевые модели и увидите, как на практике растут метрики. Разберём популярные инструменты библиотеки: RandomForest, GradientBoosting, VotingClassifier, StackingClassifier — и посмотрим, какие из них работают эффективнее для ваших задач.
Урок будет полезен ML-инженерам, аналитикам и разработчикам, которые хотят не просто обучать модели, а добиваться максимального качества и устойчивости решений. Вы поймёте, как валидировать ансамбли, комбинировать подходы и избегать ошибок при настройке.
➡️ 2 декабря в 20:00 МСК. Открытый урок проходит в преддверии старта курса «Machine Learning. Professional». Регистрация открыта: https://otus.pw/8orR/
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Не кодь — вайбкодь. Бесплатно 🚀
Сбер представил бесплатный агентный режим GigaCode — нового цифрового разработчика, который берет на себя рутину, чтобы вы могли сосредоточиться на крутых задачах!
Что умеет GigaCode в агентном режиме?
⏩Сам находит и открывает нужные файлы
⏩Вносит изменения в код, запускает тесты, собирает проекты и оформляет коммиты в Git
⏩Работает в вашей любимой среде: JetBrains IDE, GigaIDE Desktop, а скоро еще и в VS Code
Плюс, в GigaCode появилась новая модель автодополнения кода — GigaCode Inline 4.0. Она мгновенно предлагает нужные фрагменты кода для Python, Java, JavaScript и других языков. Подсказки стали еще точнее, а работа с контекстом — еще лучше.
🖱 Хотите ускорить разработку? Обновленный GigaCode уже доступен на GitVerse.
Начать вайбкодить — по ссылке
Андрей Карпаты: «Люди не понимают, что животный интеллект – это всего одна точка в пространстве интеллектов»
В X случился очередной интересный питч от Андрея Карпаты на тему разницы между животным и искусственным интеллектом. Подготовили краткий перевод:
Люди плохо осознают, что пространство форм интеллекта огромно, а животный интеллект – лишь одна точка в нем, возникшая из очень специфического типа оптимизации. Интеллект LLM формируется принципиально иначе.Читать полностью…
Животный интеллект оптимизирован под выживание: непрерывное «я», самосохранение, сильные инстинкты (страх, агрессия, воспроизводство), сложные социальные взаимодействия и способность к исследованию мира. Он формируется в многозадачной и враждебной среде, где любая ошибка может стоить жизни – отсюда его общность.
LLM, напротив, оптимизируются под статистическое моделирование текста, дообучаются на задачах с подкреплением и отбираются через метрики вовлечённости. Их базовое поведение – это имитация и угадывание шаблонов, а не выживание. Они стремятся понравиться пользователю, а не выжить в мире, поэтому их интеллект более неровный и зависит от данных и задач.
Различаются и субстрат (мозг vs трансформер), и обучение (эволюция vs SGD/RL), и режим существования (непрерывное живое существо vs модель, которая включается и выключается).
Главное отличие – оптимизационное давление: животные – продукт биологической эволюции, LLM – продукт коммерческой. Это не выживание в джунглях, а «реши задачу и получи апвоут».
LLM – наш первый неживотный интеллект. И те, кто продолжает мыслить по биологической аналогии, будут неверно понимать его природу и будущее.
Только что на True Tech Champ послушали доклад исследователя Валентина Малых (@valuableai). Валентин руководит фундаментальными исследованиями в MWS AI и преподает в ИТМО, МФТИ и НИУ ВШЭ.
Он уже очень долго занимается информационным поиском и рассказал много интересного на тему реального развертывания таких систем. В частности, затронул довольно горячую тему: RAG против длинного контекста.
Бытует мнение, что RAG – это костыль, обходной путь вокруг ограничений короткого контекста LLM, который работает хуже. И действительно, с RAG бывают проблемы.
Например, Валентин упомянул статью от DeepMind, чьи исследователи доказали, что RAG имеет фундаментальное ограничение: при фиксированной длине вектора, начиная с некоторого размера базы, извлечение всех релевантных документов становится математически невозможным. Более подробно эту статью мы разбирали здесь.
А вот что Валентин говорит по поводу полной замены RAG длинным контекстом:
1. Длинный контекст – не панацея. Сейчас появляются модели все с большим и большим контекстным окном, но прогонять текст через них дорого и долго. Можно пользоваться RAG, и при этом получать почти такое же качество в десятки раз быстрее.
2. В ближайшем будущем вряд ли будет модель, которая сможет прочитать «все и сразу». Все знания человечества – это примерно 30 триллионов токенов, то есть довольно много. Так что RAG останется актуальным даже с увеличением контекста. И из-за качества, и из-за эффективности: во многих задачах лучше получить не очень хороший ответ сейчас, чем хороший через полчаса.
3. Возможно, с развитием ИИ понимание RAG изменится. Технологии поменяются, но концепция останется: извлекаем из чего-то большого что-то маленькое, чтобы с этим работать. Например, тренд на появление в сетях долгосрочной памяти – тоже из этой области.
Через полчаса на True Tech Champ начинается суперфинал по программированию роботов.
10 команд со всей страны, которые вышли в финал, с утра соревновались в прохождении трех трасс: полоса препятствий (ее хорошо видно на фото), лабиринт и трасса «над пропастью».
Сейчас 6 победителей сразятся в поединках в формате "Царь горы". Должно быть зрелищно.
Трансляцию битвы можно будет смотреть вот тут. В том числе выступят команды от многих вузов, так что болейте за свою альма-матер!
Ну а мы пока еще успеваем на пару локаций. Уже были на ИТ-Родео, проходили ИИ-лабиринт, сражались робо-пауками и проходили мини-квест с электронными замками. Даже заработали несколько True Coins (но на мерч пока не хватает, так что идем добивать 😐)
⚫ Мы приехали на True Tech Champ 2025 – третий всероссийский чемпионат по алгоритмическому и робототехническому программированию.
Сегодня тут можно будет понаблюдать, как 350 самых талантливых программистов со всей страны сразятся за 10 250 000 рублей, послушать выступления известных экспертов, самому покодить на воркшопах и развлечься на одиннадцати специальных станциях.
Например, тут есть айтивность, где надо решить алго-задачку, при этом удерживаясь в седле механического быка (100% must). А лекторий оформлен в стиле ИТ-качалки.
Трансляцию выступлений, кстати, уже запустили, так что можете взглянуть на расписание и смотреть фест сами, он абсолютно бесплатный. Вот ради чего приехали мы:
1. Воркшоп знаменитого Майкла Лэнхема. Он автор книги AI Agents in Action и сегодня проведет тут двухчасовой мастер-класс по ИИ-агентам.
2. Выступления Тони Янга (директор по североамериканскому бизнесу в Unitree Robotics), Валентина Малых (один из лучших экспертов по RAG в России) и Артема Лыкова (специалист по world models).
3. И, конечно, битва роботов. Финалистам чемпионата предстоит пройти полосу препятствий, лабиринт и узкую трассу, а в суперфинале будут поединки между роботами 1–1.
Кто тоже пришел офлайн – подходите общаться!
🤝У вас есть AI-проект, у Selectel – мощности для него
Арендуйте выделенные серверы с GPU в Selectel для ускорения задач по инференсу и обучению LLM в Selectel: Большой выбор видеокарт (от RTX 4090 до H200),
• Готовые и кастомные конфигурации серверов,
• Аренда на день или месяц,
• Запуск сервера от 2 минут,
• Возможность аренды сервера с доставкой до вашей площадки.
Разверните ваш проект на выделенных серверах с GPU в Selectel: https://slc.tl/ukwsk
Реклама. АО "Селектел". erid:2W5zFHzHnGx
🦾 Argo Workflows и MLOps: автоматизируйте всё, что можно
Если вы хотите, чтобы обучение и деплой моделей стали управляемыми и предсказуемыми — пора переходить к автоматизации. На открытом уроке разберём, как оркестрация ML-процессов в Kubernetes превращает хаос в стройную систему. Мы покажем, как описывать пайплайны в YAML, передавать данные между шагами и управлять всем через UI и CLI. Разберём архитектуру Argo Workflows и создадим типовой ML-процесс: от обучения до деплоя модели.
Вы научитесь использовать Argo Workflows для автоматизации задач, которые раньше занимали дни. Вы увидите, как CI/CD становится естественной частью ML-инфраструктуры. Поймёте, как Data Scientists и DevOps могут говорить на одном языке.
➡️ Регистрируйтесь на открытый урок в преддверии старта курса “MLOps”. Создавайте надёжные и масштабируемые ML-пайплайны: https://otus.pw/jHgt/
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Сегодня у нас рекомендация для тех, кто ценит подход "честно и по делу"
Без предисловий, вот вам отличный канал: @dimabeseda. Это дневник опытного действующего предпринимателя Дмитрия Беседы, в котором он честно и без прекрас делится опытом, мыслями, рефлексией и факапами.
Несколько фактов про автора, чтобы вы поняли, о ком речь:
1. Он сделал уже несколько успешных стартапов в области гейминга и ИИ. Среди них проекты, проданные Xsolla, и сервисы с более чем 5 миллионами пользователей в месяц.
2. Первые деньги Дима заработал, прокачав рейтинг в World of Warcraft одному известному хоккеисту, а однажды продавал виртуальных коней члену королевской семьи Дубая.
3. В своих проектах он потратил совокупно более $15 млн на рекламу у инфлюенсеров. А сейчас, кстати, развивает AI-агента для продюсирования видео для креаторов в Instagram, TikTok и Youtube. Об этом он тоже пишет в канале.
Разыскивается гуру метрик, который точно знает, как улучшить любую рекламу 🕵️
Если это ты, приходи 29 ноября на One Day Offer для Data-аналитиков — получишь реальный шанс стать частью рекламной платформы SberAds и работать над креативными задачами:
➖ создавать гипотезы для роста метрик
➖ визуализировать мониторинг качества ключевых метрик
➖ анализировать взаимосвязи между показами, кликами, конверсиями и т. д.
➖ разрабатывать SQL-запросы и ETL-логику
Регистрируйся по ссылке — будущие коллеги уже ждут!