78469
Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n
Читаем сейчас системную карту Opus 4.5, там гигантская глава про элаймент. На контрасте с OpenAI ребята конечно очень упарываются по безопасности.
В связи с этим вспомнился мем
Meta собирается закупать у Google TPU
Знаменательна эта сделка тем, что Meta станет первой крупной компанией, которая купит TPU для установки в собственные дата-центры.
До этого в этом году на гугловское железо уже заключали большие контракты Anthropic и SSI Ильи Суцкевера, а про OpenAI даже ходили слухи, что они хотят полностью пересесть на TPU.
Но это все было про аренду мощностей в облаке, а Meta станут, по факту, пионерами в непосредственном физическом владении чипами. Интеграцию TPU в свои центры они начнут в 2027.
Для Google эта сделка – не просто хорошие деньги, но и важный стратегический рубеж.
Подписать такой контракт – значит окончательно и публично подтвердить свои аппаратные амбиции. У Google есть реальная возможность расширить присутствие TPU на рынке, и их аналитики считают, что компания может оттяпать у Nvidia аж 10% выручки.
CEO SakanaAI Лион Джонс: «Пришло время выйти за рамки трансформеров и оставить их в прошлом»*
Изюминка в том, что сам Лион – один из изобретателей трансформера, со-автор (один из восьми) статьи «Attention is all you need».
SakanaAI как раз занимается поиском новых архитектур. В основном они черпают вдохновение из эволюции и биологии.
Мы за ними следим очень давно, и недавно делали большую подборку с нашими разборами их статей вот тут. Обязательно почитайте на досуге, исследования у них правда занятные.
С одним из подходов под названием Continuous Thought Machine они сейчас выходят на NeurIPS 2025. Это почти полное переосмысление архитектуры LLM, вдохновленное биологическими нейронными процессами. Вместо прямых проходов по сети – тики мыслей, как в мозге. Вместо нейронов – перцептроны с собственной памятью. Вот наш разбор.
А еще недавно они закрыли крупный инвестиционный раунд на 20 миллиардов долларов, и теперь, насколько нам известно, являются самым дорогим японским стартапом.
*Источник: новое интервью Лиона с ML Street Talk
Действительно доброе утро: возможно, сегодня выйдет Claude Opus 4.5 (на реддите обнаружили упоминание некой модели Kayak от Anthropic в релизной таблице на epoch.ai)
Читать полностью…
VK RecSys Challenge: проверьте свой алгоритм в деле!
В самом разгаре ежегодное соревнование по разработке рекомендательных систем от VK — RecSys Challenge 2025. Участникам предстоит решить одну из самых сложных проблем в мире рекомендаций: задачу холодного старта.
Суть соревнования — построить модель, которая предскажет, кому из пользователей понравится новый клип, даже если его ещё никто не видел.
Что ждёт участников:
• Реальные данные — датасет VK-LSVD с 40 млрд взаимодействий и 20 млн коротких видео
• Можно участвовать соло или в команде до 4 человек
• Техническая свобода — до 5 сабмитов в день, возможность экспериментировать
• Общий призовой фонд — 2 500 000 рублей
Приглашают студентов, исследователей, ML-инженеров — всех, кто хочет испытать свои силы на реальных данных и создать алгоритм, который работает в условиях, максимально приближенных к контентной жизни.
Регистрация открыта до 15 декабря. Успейте подать заявку, скачать датасет и начать эксперименты!
👉 Подробности и регистрация на сайте
Fun fact: эта картинка полностью сгенерирована новой Nano Banana Pro (если верить автору)
Красота же?
Mediascope опубликовал статистику самых популярных ИИ-ассистентов России: победила Алиса AI
Нейросетью Яндекса пользуется 14.3% населения. Для сравнения, у ближайшего конкурента, DeepSeek, доля в полтора раза меньше (9%). Для российского продукта такая планка покорилась впервые, еще весной уверенно лидировали зарубежные нейросети. Ближайший российский конкурент — GigaChat — отстал еще сильнее и расположился примерно на одной ступеньке с ChatGPT (4% и 3,5% соответственно).
На самом деле, неудивительно. Продукт у Яндекса получился действительно удобный для широкой аудитории, понимает реальные запросы пользователей, да и по-русски говорит лучше, чем зарубежные модели. К тому же не требует VPN, что очень весомо для среднего пользователя, и легко оплачивается. Переломным моментом стало недавнее громкое обновление Алисы AI, которое сделало ее самой быстрорастущей нейронкой — за первую неделю приложение скачали полтора миллиона раз.
Буквально все мы на этой неделе:
Давненько не было такой плотной череды релизов
OpenAI уже второй день всеми силами пытается оттянуть на себя внимание от новостей Google: на этот раз в ход пошел козырь в виде общих чатов в ChatGPT
Работает просто. Приглашаете в чат кого хотите, общаетесь, по мере надобности вызываете в диалог модельку. Удобно для локального обсуждения какого-нибудь проекта, но очень ситуативно. Уже раскатили на всех платников.
Лайк, если тоже считаете, что лучше бы они сделали тг-бота ✌️
openai.com/index/group-chats-in-chatgpt/
Все, Ян Лекун официально подтвердил, что уходит из Meta*
В посте на LinkedIn он написал, что создает стартап для продолжения исследовательской программы Advanced Machine Intelligence (AMI). Что такое AMI и чем Лекуну не угодил термин AGI, мы писали тут.
Цель стартапа – «сделать следующую большую революцию в ИИ»: создать системы, которые понимают физический мир, обладают постоянной памятью, могут рассуждать и планировать сложные действия.
По моему замыслу, AMI будет иметь широкое применение в различных секторах экономики. Некоторые из них пересекаются с коммерческими интересами Meta, а многие нет. Продолжать работу AMI как независимой организации – мой способ максимизировать её масштабное влияние.
В Твиттере была обнаружена картинка дня
POV: ChatGPT слушает, что на этот раз тебе опять от него нужно
Новая ИИ-IDE Antigravity от Google: первые впечатления
Главное, почему стоит хотя бы попробовать: Antigravity пока что доступна со всем своим функционалом абсолютно бесплатно на MacOS, Windows и Linux. Дают 50 запросов каждые 5 часов. Google знают, как привлечь внимание.
Что касается наполнения:
– Есть привычный editor и тут в целом ничего нового: можно вручную писать и править код, включать автокомплит, общаться с агентом и тд. Хорошо прокачано планирование и работа с артефактами, а так тот же Cursor (только сыроватый).
– Что интересно, так это режим асинхронного программирования Inbox. Это панель оркестрации агентов. Выглядит реально как почта, в которой вы ставите задачи разным агентам и можете отслеживать результат в рамках единого окна коммуникации, за рамками основного кода.
Так можно работать даже с несколькими проектами одновременно. А задачки можно назначать как параллельно, так и упорядочить в очередь.
– Еще одна приятная фича: интеграция с Chrome. Это расширение, в котором агент начинает работать в режиме computer use. Он может запустить приложение локально, поднять сервер, автоматически пройтись по страницам, проверить наличие элементов, что-то потестить, сделать скриншоты и тд. Выглядит круче, чем в Cursor.
Что пока оставляет желать лучшего, так это интеграция с GitHub и git, а также стабильность. На macOS иногда лагает, а при входе с VPN у многих все падает в бесконечную загрузку.
https://antigravity.google/
Там слили тех.карту Gemini 3.0 с бенчмарками
Смотрим:
– На многих бенчмарках существенно обходит GPT-5.1 и Sonnet 4.5. Особенно выделяется Humanity's Last Exam и ARC-AGI 2.
– Крутые результаты на бенчмарках, связанных со всякими агентскими способностями, пониманием изображений, видео и интерфейсов. Это многообещающе.
– В кодинге без чудес: относительно Gemini 2.5 Pro прирост хороший, но в целом уровень Sonnet 4.5.
Ждем официальный релиз, должно быть интересно.
P.S. pdf-ку полностью можно найти в комментариях под предыдущим постом
📘 На Stepik вышел курс — «Data Engineering Fast-Track: Kafka → Airflow → Spark»
Хотите, чтобы данные для моделей и отчётов приходили регулярно и без сюрпризов? Этот курс поможет собрать продовый пайплайн от Kafka до Lakehouse под управлением Airflow.
🔍 Что вы получите:
• Spark Streaming: окна, watermark, event-time, дедупликация
• Batch-пересчёты (backfill), SLA и алерты свежести
• Kafka: ingest/CDC, ключи/партиции, Schema Registry/Kafka Connect
• Lakehouse: Parquet/Delta/Iceberg, борьба со small files (компакции)
• 200+ практических задач с автопроверкой и проект в портфолио
🎓 Сертификат по завершении — добавьте его в резюме или профиль LinkedIn
🚀 Начните сегодня и получите скидку 25% в течение 72 часов
👉 Пройти курс со скидкой
Реклама. ИП Малышкин, ИНН 402571325199, erid: 2VtzqxNW6Xb
Статистика дня: примерно 80% американских стартапов построены на китайском ИИ
Это число озвучил не кто-нибудь, а Мартин Косадо – партнёр в венчурной фирме Andreessen Horowitz (a16z), одной из самых влиятельных в Кремниевой долине. Он сказал:
Сейчас, когда фаундеры питчат свои проекты в a16z, вероятность, что их стартапы работают на китайских моделях, довольно большая. Я бы сказал, что с вероятностью 80% они используют китайскую опенсорсную модель.
Рисерчеры и студенты, это для вас: легендарный Эндрю Ын (сооснователь Coursera и доцент Стэнфоррда) сделал ИИ-ревьюера для научных работ
Суть проекта – в быстром пред-ревью вашей работы перед тем, как вы отправите ее в журнал или научруку. Человеческое ревью длится неделями и даже месяцами, а тут вы можете предвательно оценить, насколько исследование "понравится" ревьюерам и заранее исправить замечания, которые обнаружит агент.
Меня вдохновила история студента, чью работу отклоняли 6 раз за 3 года. Цикл обратной связи обычно занимает примерно пол года, и это мучительно долго. Я захотел проверить, насколько агенты смогут помочь исследователям ускорить процесс.
Лучшая новость дня: у Дваркеша Пателя завтра выйдет интервью с Ильей Суцкевером.
Последний раз ученый давал интервью журналистам, кажется, в 2023.
Ждем сильнее, чем новый Claude Opus 4.5
⚙️🦾 Ансамбли моделей в Scikit-learn — усиливаем ML-модели за счёт объединения
Ансамбли моделей — проверенный способ повысить стабильность и точность прогнозов. На открытом уроке разберём, как объединять алгоритмы, чтобы добиться лучших результатов. Вы научитесь использовать bagging, boosting, stacking, сравните одиночные и ансамблевые модели и увидите, как на практике растут метрики. Разберём популярные инструменты библиотеки: RandomForest, GradientBoosting, VotingClassifier, StackingClassifier — и посмотрим, какие из них работают эффективнее для ваших задач.
Урок будет полезен ML-инженерам, аналитикам и разработчикам, которые хотят не просто обучать модели, а добиваться максимального качества и устойчивости решений. Вы поймёте, как валидировать ансамбли, комбинировать подходы и избегать ошибок при настройке.
➡️ 2 декабря в 20:00 МСК. Открытый урок проходит в преддверии старта курса «Machine Learning. Professional». Регистрация открыта: https://otus.pw/8orR/
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Не кодь — вайбкодь. Бесплатно 🚀
Сбер представил бесплатный агентный режим GigaCode — нового цифрового разработчика, который берет на себя рутину, чтобы вы могли сосредоточиться на крутых задачах!
Что умеет GigaCode в агентном режиме?
⏩Сам находит и открывает нужные файлы
⏩Вносит изменения в код, запускает тесты, собирает проекты и оформляет коммиты в Git
⏩Работает в вашей любимой среде: JetBrains IDE, GigaIDE Desktop, а скоро еще и в VS Code
Плюс, в GigaCode появилась новая модель автодополнения кода — GigaCode Inline 4.0. Она мгновенно предлагает нужные фрагменты кода для Python, Java, JavaScript и других языков. Подсказки стали еще точнее, а работа с контекстом — еще лучше.
🖱 Хотите ускорить разработку? Обновленный GigaCode уже доступен на GitVerse.
Начать вайбкодить — по ссылке
Андрей Карпаты: «Люди не понимают, что животный интеллект – это всего одна точка в пространстве интеллектов»
В X случился очередной интересный питч от Андрея Карпаты на тему разницы между животным и искусственным интеллектом. Подготовили краткий перевод:
Люди плохо осознают, что пространство форм интеллекта огромно, а животный интеллект – лишь одна точка в нем, возникшая из очень специфического типа оптимизации. Интеллект LLM формируется принципиально иначе.Читать полностью…
Животный интеллект оптимизирован под выживание: непрерывное «я», самосохранение, сильные инстинкты (страх, агрессия, воспроизводство), сложные социальные взаимодействия и способность к исследованию мира. Он формируется в многозадачной и враждебной среде, где любая ошибка может стоить жизни – отсюда его общность.
LLM, напротив, оптимизируются под статистическое моделирование текста, дообучаются на задачах с подкреплением и отбираются через метрики вовлечённости. Их базовое поведение – это имитация и угадывание шаблонов, а не выживание. Они стремятся понравиться пользователю, а не выжить в мире, поэтому их интеллект более неровный и зависит от данных и задач.
Различаются и субстрат (мозг vs трансформер), и обучение (эволюция vs SGD/RL), и режим существования (непрерывное живое существо vs модель, которая включается и выключается).
Главное отличие – оптимизационное давление: животные – продукт биологической эволюции, LLM – продукт коммерческой. Это не выживание в джунглях, а «реши задачу и получи апвоут».
LLM – наш первый неживотный интеллект. И те, кто продолжает мыслить по биологической аналогии, будут неверно понимать его природу и будущее.
Только что на True Tech Champ послушали доклад исследователя Валентина Малых (@valuableai). Валентин руководит фундаментальными исследованиями в MWS AI и преподает в ИТМО, МФТИ и НИУ ВШЭ.
Он уже очень долго занимается информационным поиском и рассказал много интересного на тему реального развертывания таких систем. В частности, затронул довольно горячую тему: RAG против длинного контекста.
Бытует мнение, что RAG – это костыль, обходной путь вокруг ограничений короткого контекста LLM, который работает хуже. И действительно, с RAG бывают проблемы.
Например, Валентин упомянул статью от DeepMind, чьи исследователи доказали, что RAG имеет фундаментальное ограничение: при фиксированной длине вектора, начиная с некоторого размера базы, извлечение всех релевантных документов становится математически невозможным. Более подробно эту статью мы разбирали здесь.
А вот что Валентин говорит по поводу полной замены RAG длинным контекстом:
1. Длинный контекст – не панацея. Сейчас появляются модели все с большим и большим контекстным окном, но прогонять текст через них дорого и долго. Можно пользоваться RAG, и при этом получать почти такое же качество в десятки раз быстрее.
2. В ближайшем будущем вряд ли будет модель, которая сможет прочитать «все и сразу». Все знания человечества – это примерно 30 триллионов токенов, то есть довольно много. Так что RAG останется актуальным даже с увеличением контекста. И из-за качества, и из-за эффективности: во многих задачах лучше получить не очень хороший ответ сейчас, чем хороший через полчаса.
3. Возможно, с развитием ИИ понимание RAG изменится. Технологии поменяются, но концепция останется: извлекаем из чего-то большого что-то маленькое, чтобы с этим работать. Например, тренд на появление в сетях долгосрочной памяти – тоже из этой области.
Через полчаса на True Tech Champ начинается суперфинал по программированию роботов.
10 команд со всей страны, которые вышли в финал, с утра соревновались в прохождении трех трасс: полоса препятствий (ее хорошо видно на фото), лабиринт и трасса «над пропастью».
Сейчас 6 победителей сразятся в поединках в формате "Царь горы". Должно быть зрелищно.
Трансляцию битвы можно будет смотреть вот тут. В том числе выступят команды от многих вузов, так что болейте за свою альма-матер!
Ну а мы пока еще успеваем на пару локаций. Уже были на ИТ-Родео, проходили ИИ-лабиринт, сражались робо-пауками и проходили мини-квест с электронными замками. Даже заработали несколько True Coins (но на мерч пока не хватает, так что идем добивать 😐)
⚫ Мы приехали на True Tech Champ 2025 – третий всероссийский чемпионат по алгоритмическому и робототехническому программированию.
Сегодня тут можно будет понаблюдать, как 350 самых талантливых программистов со всей страны сразятся за 10 250 000 рублей, послушать выступления известных экспертов, самому покодить на воркшопах и развлечься на одиннадцати специальных станциях.
Например, тут есть айтивность, где надо решить алго-задачку, при этом удерживаясь в седле механического быка (100% must). А лекторий оформлен в стиле ИТ-качалки.
Трансляцию выступлений, кстати, уже запустили, так что можете взглянуть на расписание и смотреть фест сами, он абсолютно бесплатный. Вот ради чего приехали мы:
1. Воркшоп знаменитого Майкла Лэнхема. Он автор книги AI Agents in Action и сегодня проведет тут двухчасовой мастер-класс по ИИ-агентам.
2. Выступления Тони Янга (директор по североамериканскому бизнесу в Unitree Robotics), Валентина Малых (один из лучших экспертов по RAG в России) и Артема Лыкова (специалист по world models).
3. И, конечно, битва роботов. Финалистам чемпионата предстоит пройти полосу препятствий, лабиринт и узкую трассу, а в суперфинале будут поединки между роботами 1–1.
Кто тоже пришел офлайн – подходите общаться!
🤝У вас есть AI-проект, у Selectel – мощности для него
Арендуйте выделенные серверы с GPU в Selectel для ускорения задач по инференсу и обучению LLM в Selectel: Большой выбор видеокарт (от RTX 4090 до H200),
• Готовые и кастомные конфигурации серверов,
• Аренда на день или месяц,
• Запуск сервера от 2 минут,
• Возможность аренды сервера с доставкой до вашей площадки.
Разверните ваш проект на выделенных серверах с GPU в Selectel: https://slc.tl/ukwsk
Реклама. АО "Селектел". erid:2W5zFHzHnGx
🦾 Argo Workflows и MLOps: автоматизируйте всё, что можно
Если вы хотите, чтобы обучение и деплой моделей стали управляемыми и предсказуемыми — пора переходить к автоматизации. На открытом уроке разберём, как оркестрация ML-процессов в Kubernetes превращает хаос в стройную систему. Мы покажем, как описывать пайплайны в YAML, передавать данные между шагами и управлять всем через UI и CLI. Разберём архитектуру Argo Workflows и создадим типовой ML-процесс: от обучения до деплоя модели.
Вы научитесь использовать Argo Workflows для автоматизации задач, которые раньше занимали дни. Вы увидите, как CI/CD становится естественной частью ML-инфраструктуры. Поймёте, как Data Scientists и DevOps могут говорить на одном языке.
➡️ Регистрируйтесь на открытый урок в преддверии старта курса “MLOps”. Создавайте надёжные и масштабируемые ML-пайплайны: https://otus.pw/jHgt/
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Сегодня у нас рекомендация для тех, кто ценит подход "честно и по делу"
Без предисловий, вот вам отличный канал: @dimabeseda. Это дневник опытного действующего предпринимателя Дмитрия Беседы, в котором он честно и без прекрас делится опытом, мыслями, рефлексией и факапами.
Несколько фактов про автора, чтобы вы поняли, о ком речь:
1. Он сделал уже несколько успешных стартапов в области гейминга и ИИ. Среди них проекты, проданные Xsolla, и сервисы с более чем 5 миллионами пользователей в месяц.
2. Первые деньги Дима заработал, прокачав рейтинг в World of Warcraft одному известному хоккеисту, а однажды продавал виртуальных коней члену королевской семьи Дубая.
3. В своих проектах он потратил совокупно более $15 млн на рекламу у инфлюенсеров. А сейчас, кстати, развивает AI-агента для продюсирования видео для креаторов в Instagram, TikTok и Youtube. Об этом он тоже пишет в канале.
Разыскивается гуру метрик, который точно знает, как улучшить любую рекламу 🕵️
Если это ты, приходи 29 ноября на One Day Offer для Data-аналитиков — получишь реальный шанс стать частью рекламной платформы SberAds и работать над креативными задачами:
➖ создавать гипотезы для роста метрик
➖ визуализировать мониторинг качества ключевых метрик
➖ анализировать взаимосвязи между показами, кликами, конверсиями и т. д.
➖ разрабатывать SQL-запросы и ETL-логику
Регистрируйся по ссылке — будущие коллеги уже ждут!
Джефф Безос основал ИИ-стартап Project Prometheus
Пока подробностей немного: компания находится в стелс моде. Известно только, что Безос уже собрал 6.2 миллиарда долларов инвестиций, часть из которых вложил сам, и что он будет занимать роль Co-Chief Executive.
Ключевая цель стартапа заявляется как «ускорение научных открытый и повышение эффективности классических производственных процессов». В компании хотят сделать ставку на ИИ, который будет учится на реальных физических экспериментах и данных.
Звучит занятно, конечно. Некоторые издания пишут, что в команде уже почти 100 опытных исследователей. И еще есть изюминка: ожидается тесная связь стартапа с Blue Origin, аэрокосмической компанией Безоса.
У Google Colab теперь есть официальная интеграция с VSCode
Это значит, что наконец-то можно будет подключать локальные ноутбуки к средам Colab и, не выходя из IDE, использовать, например, TPU.
Как это сделать:
1. В VSCode заходим в Extensions, ищем Google Colab и устанавливаем.
2. Создаем или импортируем файл .ipynb в проект.
3. Кликаем Select Kernel справа сверху, выбираем Colab и затем нужный runtime. Заходим в свой аккаунт Google и готово.
Как говорится, happy coding 🍯
Сэм Альтман совместно с Льюисом Андре основал компанию, заявленную как «новый тип R&D-организации»
Компания под названием Episteme намерена нанимать выдающихся исследователей из разных областей и давать им возможность заниматься своими исследованиями без бюрократии и давления со стороны коммерции.
Сотрудникам они обещают все необходимые ресурсы, инфраструктуру и поддержку. Также исследователи будут получать долю в компании.
Цель – заниматься идеями, которые могут стать прорывными в долгосроке. В академии на такие обычно не хватает денег, а в индустрии они не получают достаточно внимания или свободы, потому что промышленность ориентирована на быстрые результаты и прибыль.
По темам целятся в пересечение физики, биологии, вычислений и энергии. То есть все равно в те области, где значимые исследования в итоге могут принести значимый экономический эффект (но в анонсе, конечно, говорится только про эффект для человечества).
В общем, пока звучит слишком хорошо для того, чтобы быть правдой, но новость интересная. Посмотрим, кто пойдет к ним работать.
Сайт: episteme.com