В качалке, где я занимаюсь, есть администратор.
Он полупрофессионально бегает марафоны.
Недавно он подошёл ко мне и заговорщически спросил: «Ты же из России?»
На что получил утвердительный кивок.
— А ты слышал, — продолжил он, — про мм-м-м--м-м-м-м-м-м-м-
— Мельдоний?
— Да!
Ясное дело, слышал, базовая добавка, которая делает цикл Кребса чуть более эффективным. И ещё с советских времён использовалась наряду с янтарной кислотой и прочими штуками, а лет 10 назад была объявлена страшным тайным допингом из СССР, и Шарапову за этот мельдоний долго полоскали.
- Привезти?
- Да!
Через пару дней подходит и спрашивает: а это таблетки или уколы?
- Не переживай, таблетки.
Сегодня передал ему две пачки Милдроната. Радости человека не было предела, теперь-то он от всех убежит. Кроме себя
Думаю, надо открывать бизнес и начать продавать секретные батончики из СССР с кровью, которые повышают перфоманс: Гематоген.
Вообще, одна из мотиваций заниматься Вайбом – это возможность помочь миллионам мужчин по всему миру не пропустить своего человека и испытывать то, что ощущаю сейчас я сам каждый день
Читать полностью…
С ChatGPT-5-Pro составили такой маршрутик по росту мобильного приложения (берём iOS + Android)
Топ-10%: $1250 / мес (таких ~300,000 приложений)
<—— Вайб здесь $11.4k / мес ——>
Топ-1%: $19.6k / мес (таких ~30,000)
Топ-0.1%: $309k / мес (таких ~3000)
Топ-0.01%: $4.8M / мес (таких ~350)
Если вы не разбираетесь в бизнесе - разберитесь.
Читать полностью…
Вот что случается с теми, кто не пользуется вайбом
Читать полностью…
Real estate моей IDE (кстати, Cursor) на октябрь 2025
Читать полностью…
7) Про LLM-агентов. Моя критика индустрии - в том, что инструменты израсходовали текущие возможности. Я живу в промежуточном мире, где хочу сотрудничать с LLM, и где наши плюсы/минусы взаимно дополняются. Индустрия же [думает, что / делает вид, что] живёт в будущем, где полностью автономные сущности параллельно пишут весь код, а люди не нужны. Например, я не хочу Агента, который уйдёт на 20 минут и вернётся с 1000 строк кода. И уж точно я не готов "рулить командой из десяти таких". Я хочу двигаться кусками, которые умещаются у меня в голове, хочу, чтобы LLM объясняла код, который пишет, доказывала корректность, подтягивала API-доки и показывала, что использует их правильно. Хочу, чтобы она делала меньше предположений и спрашивала/сотрудничала со мной, когда не уверена. Я хочу учиться по пути и становиться лучшим программистом, а не получать горы кода "поверь, оно работает". Думаю, инструменты должны быть реалистичнее относительно своих возможностей и того, как они вписываются в индустрию сегодня; иначе мы рискуем накопить горы «шлака» в софте и получить рост уязвимостей, инцидентов безопасности и т. п.: https://x.com/karpathy/status/1915581920022585597
8) Автоматизация рабочих мест. Радиологи - в порядке: https://x.com/karpathy/status/1971220449515516391. И о том, какие работы более подвержены автоматизации и почему.
9) Физика. Детям стоит учить физику в раннем образовании не потому, что они все станут физиками, а потому что это предмет, лучше всего "загружающий" мозг. Физика - как "стволовые клетки для мозга" [прим. речь о том, что в любой отрасли полезно мыслить о мире как о физической системе, дизайнить эксперименты, проводить наблюдения/замеры - будь то машинное обучение, экономика, рынок, социум или что-либо другое]: https://x.com/karpathy/status/1929699637063307286. У меня есть более длинный текст на эту тему, уже около года висит в черновиках - надеюсь, скоро закончу.
Ещё раз спасибо, Dwarkesh, что позвал!
Andrej Karpathy пересмотрел свой подкаст, вышедший на днях и написал развёрнутый твит, суммирующий его прогнозы и мнение по затронутым в подкасте вопросам
Сделал перевод:
Мне было приятно прийти в гости к Dwarkesh на прошлой неделе, вопросы и разговор вышли действительно увлекательными.
Только что пересмотрел выпуск. Во-первых, да, знаю и извиняюсь - я говорю слишком быстро :). Это мне в минус, потому что иногда "нить речи" не поспевает за "нитью мысли", так что где-то я смазал свои объяснения; иногда я ещё и нервничал, что ухожу в сторону или копаю слишком глубоко в чём-то относительно второстепенном. В общем, несколько заметок по мной озвученному:
1) AGI-таймлайны. Мои комментарии о сроках AGI - это, кажется, самый виральный топик среди первых реакций. Фраза про "десятилетие агентов" отсылает к этому более раннему твиту: https://x.com/karpathy/status/1882544526033924438. Да, в целом мои таймлайны по ИИ примерно в 5-10 раз более пессимистичны по сравнению с тем, что вы услышите на усреднённой AI-тусовке в Сан-Франциско или увидите в своей ленте твиттера, но всё ещё довольно оптимистичны на фоне растущей волны отрицателей и ИИ-скептиков. Тут нет противоречия: по-моему, одновременно верно, что 1) мы увидели огромный прогресс в последние годы благодаря LLM, и 2) остаётся очень много работы (чёрновой, интеграционной, с новыми "оргнанами чувств" и взамодействием в физической среде, социальной адаптации, в вопросах безопасности - джейлбрейки, промпт инъекции и т. д.), а также рисёрча, прежде чем появится AI-агент, которого вы предпочтёте нанять вместо человека для любой интеллектуальной работы в мире. В целом горизонт в 10 лет - это очень "бычий" таймлайн для AGI; просто на фоне нынешнего хайпа он таким не кажется.
2) Animals vs Ghosts. Мой прежний разбор в подкасте у Саттона: https://x.com/karpathy/status/1973435013875314729. Я сомневаюсь, что существует один простой алгоритм, который можно "отпустить в мир", и он выучит всё с нуля сам. Если кто-то построит такое - я окажусь не прав и это будет самый невероятный прорыв в ИИ. По-моему, животные - вовсе не пример этого: эволюция "предустановила" в них на уровне инстинктов массу интеллекта, а "доучивание" у животных сравнительно невелико (пример: зебра при рождении). Мы, будучи инженерами, конечно, мы не собираемся воспроизводить эволюцию с нуля. Но с LLM мы нащупали альтернативный способ "предзапаковать" кучу интеллекта в нейросеть - не эволюцией, а предсказанием следующего токена по интернету [прим. стадия предобучения на всём интернете]. Это порождает иной тип сущности в пространстве интеллекта: не похожий на животных, а скорее на "призраков" или "духов" [прим. переводчика, вспоминается аниме Ghost in the Shell, "призрак в доспехах"]. Но мы можем (и должны) со временем делать их более "животными", и во многом именно этим сейчас занимается фронтирная работа.
[прим. переводчика: я думаю в твитте плохо пересказана идея за этой дихотомией типов интеллекта, которую Andrej раскрыл на подкасте. "призраком" он называет интеллект, который в большой степени учится через подражание когнитивной деятельности человека, а не калибрует методом проб-и-ошибок с нуля паттерны находясь в среде, как "животное". по крайней мере, если говорить о львиной доле обучения фронтирных LLM на 2025]
Founder = Chief Execution Machine
Когда работаешь в среднем даже по 10 часов в день, все ключевые цели на неделю неизбежно закрываются сами собой - даже если по дороге возникает куча нюансов, подводных камней
И что важнее всего, у тебя самого к себе из недели в неделю подкрепляется winner mentality и доверие к самому себе: что твои результаты мэтчатся с твоими планами, сокращается гэп между захотел и сделал. А если такого доверия у тебя нет к самому себе, как его к тебе могут ощущать те, кто с тобой работают?
помогаю нащупать зоны роста бизнеса одного интересного направления 🤌
Читать полностью…
– Andrej, why do you think it will be a decade of agents? Not a year of agents?
https://youtu.be/lXUZvyajciY
Секс - это меньшее что женщина может дать мужчине
Читать полностью…
QUITTR - приложение, которое помогает бросить дрочить
Влог 1-годовой давности, когда у них было $50,000 в мес
Сейчас они делают $500,000 в мес
Интересно следить - как мыслят, принимают решения
Кстати всей команде по 19-20 лет
https://www.youtube.com/watch?v=5Il1EjwQLU0
Как начинается утро, когда твоя девушка самая лучшая 🤌
Читать полностью…
Бурный обмен опытом между начинающими и зрелыми фаундерами уже идёт
Кто брал у меня консультации и ведения, но я вас ещё не добавил (отправил инвайт первым кого вспомнил), напишите мне в лс @uberkinder
Вместо чата по подписке решил сделать закрытый чат для своих, кто уже брал у меня консультации/менторства
Читать полностью…
Ребята, кто занимался массовым созданием аккаунтов в Instagram, как решаете проблему cold start когда у рилсов на чистом новом аккаунте 0 просмотров и они никому ещё не показываются (когда алгоритм ещё не знает даже кому), чтобы собрать первичные метрики и на их основе принять решение показывать новой аудитории дальше или нет
Напишите в лс @uberkinder
Ситуация на рынке примерно такая:
/channel/sashaonline/43955
Переписки в комментариях карточек в трекере задач как смысл жизни
Читать полностью…
3) Про RL. Я уже не раз критиковал RL [прим. reinforcement learning - обучение с подкреплением], например: https://x.com/karpathy/status/1944435412489171119. Во-первых, вы пытаетесь "протолкнуть обратную связь через тонкую соломинку" - что даёт крайне плохое отношение полезного сигнала к объёму вычислений [прим. речь о том, что типичный RL-агент пробует 10,000 раз случайно что-то делать, чтобы получить подкрепление за правильное поведение 5-10 раз, что крайне неэффективно]. RL также шумный: в завершении может быть масса ошибок, которые будут подкреплены (если случайно вышел правильный ответ), и наоборот - за "референсные токены-инсайты" можно легко напороться на штраф (если вы под конец случайно отклонились от правильного ответа). У подкрепления шаг-за-шагом и у LLM-as-a-judge тоже есть проблемы. Я думаю, мы увидим альтернативные парадигмы обучения. В долгосроке я ставлю на "обучение агентов в интерактивной среде" (agentic interaction), но краткосроке приходится на классический RL: https://x.com/karpathy/status/1960803117689397543. Вышло уже немало работ, которые, по-моему, копают в правильном направлении - что-то вроде того, что я называю "обучением системного промпта" (system prompt learning): https://x.com/karpathy/status/1921368644069765486. Но между идеями на arXiv и реально работающей на масштабе реализацией в фронтир-лабе есть разрыв. В целом я оптимистично ожидаю прогресса по этому направлению в скором времени; и, например, память в ChatGP и т.п. - это зарисовки/черновики новых парадигм обучения.
4) Когнитивное ядро. Мой прежний пост про «cognitive core»: https://x.com/karpathy/status/1938626382248149433 - идея "оголять" LLM, усложнять им меморизацию или даже активно убирать память в ходе обучения, чтобы усилить обобщение [прим. очень напоминает как мыслят олимпиадники региона/всероссов: "я формулу не помню, но помню как её вывести"]. Иначе они слишком опираются на то, что выучили наизусть. Люди не могут так просто всё запоминать - и на контрасте это выглядит как плюс, форма регуляризации в ML. Также мой давний пост о том, почему тренд на размер моделей "как будто обратный" [прим. речь о том, что условные Gemini 2.5 или GPT-5 дешевле и легковеснее, чем была условная GPT-4, ветка парадигмы масштабирования по числу параметров, как это было с GPT-4.5, пока закончилась], и почему "модели должны сначала стать больше, прежде чем смогут стать меньше": https://x.com/karpathy/status/1814038096218083497
5) Путешествие во времени к Yann LeCun, 1989. Это тот пост, который я очень сумбурно/плохо описал в подкасте: https://x.com/karpathy/status/1503394811188973569. Вопрос: насколько вы могли бы улучшить результаты Яна Лекуна, обладая знанием 33 лет алгоритмического прогресса? Насколько результаты ограничивались алгоритмами, данными и вычислительными ресурсами? Кейс-стади на эту тему.
[примечание. в подкасте Andrej сказал, что воспроизвёл 1 в 1 исходную CNN ЛеКуна, повторил метрики, а затем пробовал добавить х10 больше данных, подставлять более современную архитектуру, больше параметров и т.д., чтобы выяснить, что дало бы больше контрибьюшн в точность. пришёл к выводу, что улучшение по всем плоскостям: алгоритмы, данные и количество вычислений дают +- одинаковый вклад]
6) nanochat. Моя сквозная реализация пайплайна обучения/инференса ChatGPT (самые базовые элементы): https://x.com/karpathy/status/1977755427569111362
[примечание. nanochat - гитхаб репозиторий и пошаговая инструкция, как воспроизвести end-2-end все стадии обучения ChatGPT, но на небольшой модели (предобучение, SFT, обучение на диалог). достаточно $100, чтобы обучить с нуля. имеет огромную образовательную ценность, особенно если не копи-пастишь код, а пробуешь сам по инструкции. также, в подкасте Andrej упомянал мысль, что ты реально понимаешь что-то не тогда, когда читаешь/пишешь посты или рассказываешь лекции о чём-то, а когда воспроизводишь руками]
The gentle approach builds gentle results.
It's time for war.
Attack your goals.
Hunt your progress.
Conquer your weaknesses.
No more waiting.
No more hoping.
Seize what's yours.
The universe respects aggressive faith.
Матрица Vibe повсюду. Она окружает нас. Даже сейчас, она с нами рядом. Ты видишь ее, когда смотришь в окно или включаешь телевизор. Ты ощущаешь ее, когда работаешь, идешь в церковь, когда платишь налоги.