Мне платят за то, что я говорю другим людям что им делать. Автор книги https://www.manning.com/books/machine-learning-system-design https://venheads.io https://www.linkedin.com/in/venheads
Чуть более полугода назад у нас с Валерой был стрим про высказывание CEO Anthropic, мол, через полгода модели будут писать 90% кода. На стриме, как мне кажется, я очень хорошо описал некоторые из важных оговорок при оценке подобного рода высказываний:
— есть разница «могут» и «делают»
— это может быть применимо к определённым языкам программирования, а не всем
— часть подходов к разработке придётся пересмотреть, чтобы было проще интегрировать ИИ-инструменты
— это может быть применимо к свежим проектам, а не 15+ годичной давности
— это может быть применимо к проектам до определённого размера, а не кодовой базе всего Фейсбука, например
Сами Anthropic сейчас говорят, что Claude Code написан их же моделями на 90%.
Большинство заявлений о том, что «90% кода написано ИИ», исходят от разработчиков моделей / продавцов ИИ-инструментов, поэтому многие (не я) их отметают.
Aider, АИ-ассистент для программирования с открытым исходным кодом, который я как раз упоминал на стриме, от релиза к релизу то и дело перешагивает планки 75-80%. Неплохо!
И вот наткнулся на блог Armin Ronacher, создателя Flask, Jinja, Click и других крупных популярны проектов. Цитаты из поста (но рекомендую прочитать оригинал целиком):
— Что касается инфраструктурного компонента, который я начал разрабатывать в своей новой компании, то, пожалуй, больше 90% моего кода написано с помощью ИИ. Я не хочу вас убеждать — просто поделюсь тем, что узнал. Отчасти потому, что я подошел к этому проекту иначе, чем в своих первых экспериментах.
— Сервис написан на Go с небольшим количеством зависимостей. Сейчас в нём около 40 000 строк, включая Go, YAML, Pulumi и несколько специальных SDK-прослоек.
— Я установил высокую планку, особенно в плане надёжности работы. Я уже работал с подобными системами и знал, чего хочу.
— Я уделяю пристальное внимание основам архитектуры системы, структуре кода и взаимодействию с базами данных. Я невероятно самоуверен. Поэтому есть вещи, которые я не позволяю ИИ делать. Я начинал проект традиционным способом: проектирование системы, схема, архитектура. На этом этапе я не позволяю ИИ писать с нуля, а просто включаю его в свой цикл рассуждений. Это помогает мне видеть типовые ошибки, даже если я не доверяю LLM.
— Для кода, сгенерированного и поддерживаемого ИИ, я теперь получаю стек, который выглядит примерно так, как мне часто хотелось, но было слишком сложно сделать вручную.
— Не могу не подчеркнуть, насколько плохим может быть код агентов, если не быть осторожным. Хотя они понимают архитектуру системы и то, как что-то построить, они не могут смотреть на всю картину целиком. Вам постоянно нужно вносить правильную информацию в контекст.
— Легко создавать системы, которые кажутся правильными, но при использовании ведут себя неправильно. Вот пример: я попросил его создать ограничитель лимитов. Он «работал», но не имел джиттера и использовал неудачные решения по хранению данных. Легко исправить, если знаешь ограничители лимитов, но опасно, если не знаешь.
— Для меня это дошло до того, что я уже не представляю, как можно работать по-другому. Да, я, вероятно, смог бы обойтись без ИИ. Но я бы построил другую систему, потому что мне пришлось бы идти на другие компромиссы. Такой подход открывает возможности, которые я обычно пропускаю или откладываю.
— Исследование + разработка вместо «исследование, а разработка потом»: на некоторые вещи, на понимание которых у меня ушел бы день или два, теперь уходит 10–15 минут.
— Пишет ли ИИ 90% кода? Не знаю. Знаю только, что для меня в этом проекте ответ уже точно «да». В то же время, для меня ИИ не владеет кодом. Я всё равно проверяю каждую строчку, формирую архитектуру и несу ответственность за то, как всё это работает.
===
(обратите внимание, что ни о каком вайб-кодинге речи не идёт: только вдумчивая работа, где, как мне кажется, по сравнению с обычным процессом мозги приходится напрягать даже больше — пока LLM работает, ты думаешь)
Примерно 6 лет назад, после конференции в Яндексе, мы с Сергеем Марковым сидели в баре и пили напитки: он пиво, я воду.
А теперь мы даже вместе не можем встретиться после конференции, а он по-прежнему выступает, в ближайшее время будет здесь https://aiboost2025.ru - собеседник он отличный, так что рекомендую
Собеседовал кандидата на финальном техинтервью. Из плюсов — наконец-то годный staff engineer, впервые за долгое время. Из минусов — кандидат сидел голый
Читать полностью…Читаю What makes Claude Code so damn good (and how to recreate that magic in your agent)!?
Вижу там такую фразу
I highly doubt your app needs a multi-agent system. With every layer of abstraction you make your system harder to debug, and more importantly you deviate from the general-model-improvement trajectory.
We can solve any problem by introducing an extra level of indirection. Except for the problem of too many levels of indirection.
Тренируюсь по новой программе в зале уже около 5 месяцев.
Ничего, кроме программы, не менял.
Результаты налицо, как в массе (набрал 3–4 кг), так и в силовых. И это на моём уровне тренированности (21 год непрерывных тренировок).
Планирую через 3–4 недели жать лёжа 180 кг на 5 раз.
В субботу пожал 175 на 5. Жму как качок, без моста и техники. До этого долго был на плато около 160
На тренажёрах беру все веса и сверху накидываю ещё 2 гантели, жду когда порвётся тросс
Paul Carter — автор методики, дарю, гуглится легко, советую читать его инстаграм.
Большинство принципов указано в стриме
https://youtu.be/lpQIrmFl3tM
В программе они просто максимизированы
Прочитал статью, которой поделился Игорь, The Platonic Representation Hypothesis
Человека по Платону мы уже видели, но теперь ученые заметили, что модели начинают делать удивительно похожие друг на друга репрезентации.
We hypothesize that this convergence is driving toward a shared statistical model of reality, akin to Plato’s concept of an ideal reality.
What has led to this convergence? Will it continue? And ultimately, where does it end?
Also closely related to our hypothesis is the “Anna Karenina scenario” described by Bansal et al. (2021), referring to the possibility that all well-performing neural nets represent the world in the same way
По итогам прошедшего ICML 2025 ребята из Х5 решили собраться чтобы:
- обсудить наиболее актуальные доклады;
- как эти технологии можно внедрить в бизнес;
- оценить их потенциал, плюсы, минусы и особенности.
Из приятного, среди выступающих, есть те люди, которых я в свое время нанимал в только создаваемую командую и они все еще там. Например - Максим Павлов. Как-же раскидала нас жизнь
Когда: в среду, 27 августа, 19:00 Где: «Сфера X5», Парк Горького
Регистрация по ссылке.
Хорошая книга про engineering management - elegant puzzle от Will Larson.
Если книга про staff engineer, на мой взгляд, подходит только на то, чтобы растащить графики типичных архетипов или дать почитать начинающим стаффам, то эта книга уже гораздо получше.
Все последовательно, и почти со всем согласен, читаешь, как будто про себя подробно подумал. Рекомендую.
В дополнение рекомендую его-же статью Writers who operate. Чтобы что-то советовать, лучше работать в индустрии сейчас, а не опираться на исторический опыт, который резко может стать менее актуальным
Invalidation events happen in industry (e.g. move from ZIRP to post-ZIRP management environment) but it’s difficult for non-operators to understand implications with convictionЧитать полностью…
I want to continue on my mission to bring about AI that’s safe and beneficial to humanity. I’m announcing the launch of Babuschkin Ventures, which supports AI safety research and backs startups in AI and agentic systems that advance humanity and unlock the mysteries of our universe. Please reach out at ventures@babuschk.in if you want to chat. The singularity is near, but humanity’s future is bright!
Однажды в 2019 году я сидел на калибровке в Яндексе, где объяснял, почему Нерсесу нужно накинуть сразу два грейда, но, видимо, придется всего один.
В итоге один и накинули, под чутким руководством и модерацией зам. технического директора Маркета.
А теперь он так вырос, что даже придет на стрим в среду, 13 августа, в 18:30 по мск, где мы поговорим про разные интересные штуки.
Александр Костин, управляющий директор Х5 Tech с сентября 2024 года. Отвечает за обеспечение технологического лидерства Х5 в ритейле и за внедрение продуктового подхода в группе компаний — от гибких методик разработки до ML-инициатив и роботизации.Читать полностью…
До этого порядка 10 лет работал в Яндексе, последние несколько лет из которых совмещал роли CTO, СPO и операционного директора логистики Яндекс.Маркета.
Ранее работал в ИТ «Альфа-Банка». Закончил факультет «К» МИФИ.
Обсуждают чела, который отказался от офера в 1-1.5 млрд долларов на 6 лет от Меты.
В целом, не понимаю чему тут удивляться.
Distinguished engineer в Мета, с учётом stock appreciation, делал легко 10-15 млн в год, а с учётом того, что предпоследний грант(ы) он получил при цене около 100, то последние годы вполне могли выйти в 30-50 млн в год. Да и новые условия какие-то странные, 6 лет
Затем OpenAI (который его выкупил за очень хорошие деньги), и теперь co-founder в мутном стартапе Миры Муратти.
Будь у меня 100+ млн, я бы тоже пошёл в мутные стартапы. Из хорошего, мутные предложения есть, из плохого - 100+ млн нет
Кто на что учился, так сказать
Закончил слушать подкаст History of Rome — 72 часа подробного пересказа истории Римской империи: от основания до условного падения её Западной части.
Последние 80 лет империи звучат как пример корпоративной шизофрении в ее худшем проявлении: всё хуже, чем раньше, исправить можно, но вместо этого — подставляем друг друга и, из зависти к успешным, гадим им. Времена идут, но база остаётся прежней.
Лучший момент подкаста — слова Суллы о Цезаре:
«Вы ничего не понимаете, если не видите, что в этом мальчишке — много Мариев».
На втором месте — Диоклетиан, который после 20 успешных лет предпочёл выращивать капусту вместо безграничной власти и не поддался уговорам вернуться.
И, конечно, интересная мысль: если бы германцев в V веке допустили к императорской власти так же, как иллирийцев в III, они вполне вероятно спасли бы империю, как когда-то сделали иллирийцы.
Chapter 1: Transformer Interpretability из курса по Transformer Interpretability не произвела впечатления, как то даже растерянно я ее прошел, за исключением пожалуй что этого: Function Vectors & Model Steering
Надеюсь что Chapter 2, про Reinforcement Learning, окажется лучше, чем книга, которую я ревьюил много лет назад
Нелёгкая судьба занесла меня на мужской парный и женский одиночный финал Уимблдона.
Перед этим, на небольшой встрече удалось пообщаться с бывшей первой ракеткой мира, Justin Henin.
Стать первым в чём-то популярном невероятно сложно, как человек, бывший 23-м, точно это знаю.
В целом, Уимблдон, это конечно событие, производит впечатление, даже на не фанатов
Думал, что перечитываю курс Виктора Кантора про МЛ и его любимый Manifold Learning, а нет, это 12-млрдный стартап думающих машин - Modular Manifolds
Много думал.
Теперь понятно, на что бывшие продакт менеджеры из Open AI получили 2 млрд долларов при оценке в 12.
Чтобы зафиксировать random seed и сделать его batch-invariant
По собственному опыту и тому, что прочитал в ряде источников, складывается ощущение, что retrieval через эмбеддинги в RAG проигрывает битву BM25 и regexp.
Правда, почему-то люди называют это всё RAG, хотя обсуждают только retrieval-часть.
Получил три приглашения на ужин в палату лордов по разным поводам, на сентябрь, октябрь и ноябрь:
House of Lords Dinner on Supporting Growth with AI
House of Lords Dinner: Managing OT Cyber Risk
House of Lords Dinner: Surviving & Thriving a Data Breach
И даже думал пойти, но в итоге deal breaker-ом оказался следующий пункт: Allow 30 minutes for search and screening.
Revolut to allow staff to sell shares at $75bn valuation
В 2020 году передо мной стоял выбор: пойти директором в Revolut или стаффом в Facebook.
Долго думал, было 3 личных встречи с Николаем Сторонским, CEO Revolut, последняя пришлась на мой день рождения.
В итоге пошёл в Facebook.
Только начальный грант, который был в оффере революта, при указанной оценке стоил бы сейчас 15 млн долларов.
До сих пор не знаю, правильно ли поступил.
Вот это я понимаю, правильные советы дает YouTube. Babushkin Physique - Doge Strong
Читать полностью…Задачка из реальной жизни
Что хуже: Senior data engineer, который предлагает делать мониторинг пайплайнов через Cursor (не создать систему мониторинга через Курсор,
а использовать сам Курсор для мониторинга)
или
Senior engineer, которому в 2025 году нужно объяснять, почему важно писать юнит-тесты?
С Алисой (на тот момент она уже была Alice Newton-Rex) я работал в Фейсбуке, где она была директором по продакт-менеджменту.
Умнейший человек из всех продактов, кого я встречал, так еще и спасла мальчика, который выжил. А вы говорите — не нужны.
Когда я работал в blockchain.com, у нас был отличный сотрудник — назовём его П. Он пришёл к нам стажёром-аналитиком в офис в Майами и быстро показал себя как надёжный, трудолюбивый и всегда готовый помочь человек (а работать, как американцы, на мой взгляд, умеют немногие).
В 2021 году, будучи стажёром, П зарабатывал $72 000 в год. Затем его перевели на джуниорскую позицию и повысили зарплату до $80 000, плюс дали акции компании. На момент моего прихода у него знатно подгорало: нового стажёра, которого П сам порекомендовал, наняли на те же $72 000 ( о чем П узнал), а у него — всего 80.
Причина была в недальновидности наших C&B и People Ops. Ставка стажёра была фиксированной — $72 000 в год, а дальше всё зависело от уровня и специализации. Джуниор Data Scientist получал бы $120–150 тыс., а джуниор Data Analyst — $60–80 тыс. То есть П просто стартовал выше рынка, 72 тысячи для стажера Аналитика - чересчур но, как показывают эксперименты, какой бы ни была зарплата, человек быстро считает её «нормой» и ждёт большего — и ещё обижается, что компания «так долго» не оценила его по достоинству.
Ну да ладно. П работал круто, поэтому я поднял ему зарплату до $105 000 и дал новый пакет акций. В это же время он решил переквалифицироваться в Data Engineer — по причинам, которые тогда были для меня неочевидны. Честно говоря, инженера из него не получилось: его сильная сторона была в понимании процессов, логике данных и умении быстро помогать продакт-менеджерам, а вот писать качественный код и делать миграции он умел не очень (да и когда, если надо помогать продактам?).
Тем не менее, П продолжал тащить как аналитик, и я решил премировать его поездкой в Буэнос-Айрес, в наш аргентинский офис. Там мы и встретились. В один из дней он попросил личную встречу и выкатил ультиматум: либо $150 000, либо он уходит. Даже если будет $149 999 — уйдёт. Потому что его знакомый Data Engineer в Facebook получает 150 000
Месяц спустя я с уважением принял его решение уйти, включив в список на layoff.
Пару недель спустя бывший VP of Data написал мне:
— Did we fire P???
— It was his choice
Пришли роялти. За квартал нашу с Арсением книгу продали почти на 100 тысяч долларов.
Каждому из нас дадут 5.5 тысяч, это при том, что мы отказались от аванса в сторону максимизации процента.
Цифровой пролетарий живет
Пришло время рекламы
Начнем с BP: Нужны Staff и Principal AI Engineer - на контракт, вилка 600 - 1100 фунтов в день на руки, контакт @Valeria_Erastova (представитель вендора, который ищет AI контракторов). Описание здесь - в целом это Gen SWE, который может собрать кубики различных AI API
Альтернативный вариант, стартапы с русскоговорящими фаундерами или командами за рубежом. Вакансии в такие компании собирают в Connectable Jobs. Делятся прямыми контактами HR для отклика.
Несколько актуальных вакансий:
– IOS Developer в B9, $4000 – $5500 в месяц (remote)
– Founding Engineer (LLM/Python) в Neru Health, €90K - €130K (Мюнхен, Бостон или remote из США - помогают с релокацией)
– Junior Frontend Engineer в 3Commas (Remote или офис в Таллине, Барселоне, Никосии)
– Java Backend Developer в Servers.com (Кипр, помогают с релокацией)
– QA Engineer (FunnelFox) в Adapty (remote)
Еще у ребят есть отдельный канал для вакансий в других областях, например, продукте, дизайне, аналитике и маркетинге.
Нельзя не порадоваться, что CTO Яндекса назначен МЛщик, жмущий 195 кг.
Такой тренд нам нравится.
Хорошая заметка — рассказывающая про гиперболическое затухание, в чём его отличие от экспоненциального и почему люди, скорее всего, оценивают будущую награду согласно этому распределению.
In the early 1980s, psychologist George Ainslie discovered something peculiar. He found that while a lot of people would prefer $50 immediately rather than $100 in 6 months, they would not prefer $50 in 3 months rather than $100 in 9 months. These two different scenarios are shown in the diagram below, where the green checks indicate the options that people tended to choose.Читать полностью…