Авторский by @iamitbeard. Про IT, технологии и ИИ; без цензуры и политстирильности. Чат @itbeard_talk Слава Україні. Жыве Беларусь. АйТиБорода: https://youtube.com/itbeard Эволюция Кода: https://web.tribute.tg/l/ge AIA Podcast: https://itbeard.com/aia
🔥Буквально только что Meta наконец выкатила Llama 4 (ждали долго).
В семействе есть две модели: Llama 4 Scout и Llama 4 Maverick, и все они опенсорсные (с лицензией Meta ofks). Модель Llama 4 Scout является смесью 16 экспертов по 17B (итого 109B), с максимальной длиной контекста в рекордные 10 млн токенов. Llama 4 Maverick является смесью аж 128 экспертов по 17B (400B параметров) с максимальной длиной контекста в 1 млн токенов. Обе модели могут принимать на вход текст и изображения, отвечают только текстом. Среди поддерживаемых языков, к сожалению, нет русского.
Благодаря тому, что это MoE, есть вероятность, что не потребуется все 100–400 ГБ памяти для работы модели, так как в моменте ей нужно запускать эксперта на 17B. По крайней мере, Llama 4 Scout может работать на одном 1×H100 GPU в q4 (Maverick’у одной карточки не хватит).
Скачать модели можно тут, и в этом же репозитории есть намёки на ещё две модели, которые появятся позже: Llama 4 Behemoth и Llama 4 Reasoning. Ставлю на то, что Бегемот будет на 1T параметров 😊
UPD: ванговать не пришлось, будет 2Т!!!
Хабр же всегда был токсичным пристанищем диназавров и им подражающих из эпохи форумов и указок по пальцам, ничего не перепутал?
https://youtu.be/X4KSF5hnfK8
P.S. Сане респект за заданные вопросы. Услышал всё, что хотел. Пожалуй единственная нормальная руязычная айтишная журналистика, из существующей на ЮТ сегодня.
P.P.S. Понял, что заходил на хабр в последний раз года три назад, а активно следить перестал и вовсе в году 2014-16, после нескольких статей и смачных хуёв в комментариях.
Вот смотрите, какая статистика: сегодня я часов 7–8 очень интенсивно кодогенерировал клубного бота (для Эволюции Кода) вместе с Курсором и самой мощной в нём моделью Claude 3.7 Max. Ставил ему задачи, рассказывал про примеры, архитектуры, указывал на ошибки и всё такое. Это было похоже больше на парное программирование с младшим сотрудником, но который схватывает твои указания с полпинка и имплементирует за пару минут, потом ещё десять минут сидишь, вычитываешь и диву даёшься, как оно всё красиво на этом вашем Go написало.
По итогу, заимплементил штук восемь новых хендлеров для бота, перелопатили вместе архитектуру старых хендлеров, Клод нашёл отличную реализацию конверсейшенов в несколько сообщений (длинные диалоги в рамках телеграм-чата) и успешно её имплементировал с моих подачек. Запилили вместе мигратор (там база данных недавно появилась), пообновляли доку, переписали пользовательские сообщения. Словом, я бы на это потратил добрые 4–5 дня, и это при условии того, если бы я знал Go (я не знаю). На всё про всё Курсор спалил почти 24 бакса (стата на скрине).
Выводы какие?
Нулевой: Claude 3.7 Thinking (в Курсоре, который Max) на голову выше обычного 3.7 и в миллиард раз лучше Gemini 2.5 Pro. С новым ГПТ чё не успел сравнить, но вангую, что там будет что-то похожее. Ещё надо бы think прикрутить к обычному Claude 3.7 — есть шанс, что догонит думающий, но денежка будет палиться с подписки Курсора, а не напрямую с карты.
Первый: ИИ абсолютно точно умеет генерить фичи с нуля — главное, дробить грамотно и подавать контекст с продуманными наставлениями, а не абы что, как многие привыкли ("здарова, заимплеменьти мне мою задачу на 100500 сторипоинтов в гавнолите." "Уууу, не справилось, гавно!").
Второе: вайбкодинг — это хуетень для смузихлебов. Если бы я вайбкодил, то перестал бы понимать, что происходит, примерно на втором запуске агентов, а примерно на третьем весь мой бот превратился бы в отборный лапшекод и кусок абсолютно ненужного овна. Не то чтобы он идеален, но его приятно дописывать, расширять и в целом работать с ним. Не будь у меня какого-никакого опыта в архитектуре, вайбкод бы напрочь отбил желание что-то с ботом делать — пошёл бы в проститутки, как на том меме (кстати, может, надо было...).
Третий: при интенсивной работе с Курсором (либо по API с топовыми моделями, as you wish) если ты палишь меньше 10–25 баксов за 8–10 часов работы, то ты либо хуйней страдаешь, либо как-то не так используешь ИИ. Из статы видно, что рутовых (чистых) запросов к модели было кропаль на фоне вызова моделью инструментов — соотношение 1 к 5. Короче, если ты всё ещё "программируешь" в чате GPT, слыхом не слыхал, что такое MCP, инструменты, агенты — то у меня для тебя плохие новости. Может таки стоит потратить денег на Эволюцию Кода (ни на что не намекаю, meh)?
Четвёртый: если ты начинающий разраб/эсса, то тебе не повезло. Во-первых, тебе надо прилагать кратно больше усилий, чтобы совладать со своей ленью в эпоху всех этих ИИ. Во-вторых, я, честно, хз, как бы, будучи джуном, я смог бы качественно ИИ объяснять, что делать. Скорее всего, не смог бы. То есть новичкам теперь нужно: качать базу программирования, качать системный дизайн с архитектурой (всё, что Владос Тен завещал) и ещё сверху прокачивать навык работы и общения с ИИ, параллельно укрощая лень и нежелание вычитывать то, что там эта бездушная машина написала.
Как-то так я провел свой день. А как вы как развлекаетесь?
Правильное применение дипфейка (GPT-4o и Kling или SORA какая, пятиклассник сделает) в 2025😅
Читать полностью…🔥 Сравнение ВСЕХ AI-first IDE!
В этом обзоре я сравню семь AI-first IDE по здоровенной куче параметров: начиная от автокомплита и ИИ-чатов и заканчивая подписками, работай с локальными моделями и безопасностью. На сравнение попали: Cursor, Windsurf Editor, Trae, PearAI, Void, Theia IDE и Zed.
ЧТО ВНУТРИ
- Базовая информация про IDE из обзора
- КУЧА сравнений
- Плюсы и минусы всех участников обзора
- А что там с JetBrains IDEs и VS Code?
- Про то, что такое AI-first IDE сегодня
КРИТЕРИИ СРАВНЕНИЯ
- Интерфейсы IDEs
- Автодополнения
- Настройки Theia IDE
- Отключение автодополнений
- Inline-промптинг
- Контекстное меню
- сравенение ИИ-чатов и агентных чатов
- Создание своих агентов
- ИИ-терминал
- Думающие модели
- Поддержка ключей API
- Пользовательские промпты
- Web-поиск
- Автокоммит-сообщения
- Изображения на входе
- Параллельная работа
- Продвинутое автодополнение
- Буфер обмена
- Next Tab Edit
- Индексация проектов
- Правила для проектов
- Автоматическое выполнение команд
- MCP
- Индексация документации
- Память
- Интеграция с Git
- Автовыбор моделей, саммаризация чатов
- Подсчет токенов
- Про подписки
- Личный кабинет
- Прозрачность цен
- Pay-as-you-go и статистика запросов
- Работа с локальными моделями
- Безопасность и сертификаты
- Team-подписки
- Self-hosted версии
- Интеграция с GitHub Copilot
👉 Смотреть целиком в Эволюции Кода
#evo_обзор
📰 ТОП-4 новости из 45го дайджеста новостей ИИ в программировании
🔸 Windsurf Editor Wave 5 — небольшое, но меткое обновление: улучшили работу tab-функций (tab-to-jump, tab-import, вытягивание контекста из IDE, буфера обмена и даже чата). Работает безлимитно, для платных — быстрее и точнее.
🔸 Cursor 0.48 — теперь вы можете создавать свои собственные моды чата с кастомными промптами, тулсетом и автоматикой. Также добавили вкладки чатов, звуковые уведомления, стоимость сессии и многое другое. Удаление вертикального activitybar вызвало бурю негодования.
🔸 Cline 3.8.0 — появилась полноценная учетная запись, покупка кредитов и авто-переключение моделей по скорости/цене/латентности. Новое меню для чатов и исправления UI. Моделей доступно море, рекомендую покопаться.
🔸 Обновки Claude Code — cli-инструмента от Anthropic, теперь с поддержкой extended thinking в Claude 3.7 Sonnet, Vim mode, пользовательскими слеш-командами, автокомплитом путей, автоупаковкой длинных сессий и даже auto-accept режимом. Очень интересно развивается.
👉 Полный дайджест (текст и аудио)
#aidigest
Курсор с новым обновлением запретил изменять ориентацию активитибара, чем поднасрали много кому, мне втч (я не поклонник дефолтового дизайна Курсора). Лайкните и оставьте коммент в треде за отмену этого дурацкого обновления, плз: https://forum.cursor.com/t/0-48-removed-workbench-activitybar-orientation/68847/29
Читать полностью…Этого вилтрумита мы смотрим: https://www.youtube.com/watch?v=tNZnLkRBYA8
P.S. Это интервью с Михаэлем Паулсоном (Праймаген), одиним из извеснейших программистов в англоязычном YouTube.
P.P.S. За отсылку к вилтрумитам пояснять не буду, кто понял тот понял👨🏻🦰
Вы как и я думали, что цены на GPT-4.5 большие? Приготовьтесь, o1 Pro доехала до API...
P.S. Это в 1000 раз дороже GPT-4o mini, например. Или в 300 раз дороже DeepSeek R1. Но всего в 3 раза дороже GPT-4.5, кстати 😅
📰 ТОП-4 новости из 43го дайджеста новостей ИИ в программировании
🔸 Google выпустили опенсорсную модель Gemma-3
Теперь это лучшая открытая не-ризонинг модель среди соразмерных. Доступны версии на 1B, 4B, 12B, 27B, контекст — 128K (у 1B — 32K), модель мультимодальная. Обходит Qwen-2.5-Max и o3-mini, ближе к DeepSeek-V3 и DeepSeek-R1. Уже доступна в Ollama и LM Studio.
🔸 OpenAI представили новый API для агентных приложений — Responses API
В API встроены Web Search, File Search, Computer Use, а также трассировка выполнения агентных пайплайнов. Swarm теперь называется Agents SDK и направлен на разработку мультиагентных систем.
🔸 Cursor IDE 0.47: автовыбор моделей и улучшенная поддержка MCP
В новой версии завезли автовыбор моделей, поддержку MCP (пока без ресурсов). Один запрос к GPT-4.5 стоит $2, а запрос к 3.7 Sonnet (ризонинг) — как два запроса к классической версии.
🔸 Qwen расширили чат http://chat.qwen.ai
Добавлен единый интерфейс к мультимодальным моделям, анализ видео до 500MB, загрузка файлов до 50MB. Часть функций теперь доступна без регистрации — и всё это бесплатно.
👉 Полный дайджест (текст и аудио)
#aidigest
⚡️ Новый выпуск AIA Podcast уже онлайн!
Сегодня обсуждаем миллиардные инвестиции Google в Anthropic, изучаем суперсилы новых моделей Gemma-3 и QwQ-32B, тестируем AI Mode в поиске Google, удивляемся космическим ценам на агентов OpenAI, знакомимся с многообещающим AI-агентом Manus и исследовательским прорывом Sakana AI, оцениваем новый OCR от Mistral, а также разбираемся в AI-регулировании от Anthropic, OpenAI и Испании.
👉 YouTube: https://youtu.be/fNEsZv6tXqw
👉 Apple Podcasts: https://bit.ly/aia-apple
👉 Spotify: https://bit.ly/aia-spotify
👉 Скачать mp3: https://aia.simplecast.com/episodes/106
Так как вчера в клубе вышел обновленный воркшоп по Cursor, выкладываю предыдущий (шестимесячной давности) в паблик, ловите: https://www.youtube.com/watch?v=O1T2Zval3SU
Инфа в нём хоть и не самая свежая, но какое-то понимание базы даст 😎
Десять месяцев - кажется выпуск настоялся. Можно и замонтажить. Скоро на канале 😎
UPD: Арсений, ну я тебя предупреждал про сроки, если что 😁
https://yandex.cloud/ru/docs/foundation-models/
Я тут в рамках видоса попробовал YandexGPT, так как по идее они должны быть лучше для кириллических текстов чем конкуренты. Всё же Яндекс специализируется на русскоязычном рынке. И это правда так:
- у них лучше токенизация(до 25% процентов эффективнее чем openAI)
- их тексты не такие машинные, на мой взгляд(этот текст почти полностью сгенерирован YandexGPT с моими небольшими правками)
- за счёт лучшей токенизации результат получается дешевле.
И я бы перелез бы на их нейронку для, к примеру, текстов в этом бложике, но блин:
- У них собственный протокол общения с сервером
- Из SDK доступен только питон и HTTP. Всё остальное извольте писать самому. Использовать уже де-факто стандартный openAI API - не, это не для Яндекса. Ведь все создатели тулов точно прогнутся под Яндекс. Не то что какой-то Антропик, к примеру. Или DeepSeek, или Grok, или кто угодно другой.
- Совершенно ублюдочная система монетизации: есть не только токены, но и юниты, которые как-то между собой связаны. И вот после этого приседай с математикой, чтобы примерно прикинуть затраты
- Документация - это рак. Удачи узнать размер контекстного окна у какой-нибудь из моделей. Знаете, где я нашёл его? Верно. В ченжлоге. Пососите OpenAI, которые практически на главной вывешивают все тарифы. https://openai.com/api/pricing/
- Ну и контекстное окно в 32к токенов - это смех.
- Демо токенизации - это тоже идиотизм. Вот почему openai сделали демку https://platform.openai.com/tokenizer, а у вас только поход через апи? Вы напрямую хвастаетесь в пресс-релизе о том что у вас зашибенная токенизация русского языка.
И самое тупое, что почти всё - это пролёты в маркетинговой части. Такое чувство, что целью было максимально вбить палки в колёса, чтобы желание полностью было отбито. И у меня оно почти что отбито. Если в GPT5, релиз которого обещали через пару месяцев, поддержка русского языка будет на уровне, то Яндексовую модель можно будет выкидывать на помойку всем, кто не находится под страхом санкций и всего такого
Есть "объегорился" слово, а есть "обвайбкодился" теперь. (с)Читать полностью…
В спорах рождается истина, говорили они: https://youtu.be/28XHyfZqUIM
Читать полностью…В общем, я решил, что завязываю с каналом и АйТиБородой. Закрываю канал, выгорел окончательно. Видео будут доступны ещё два дня, а потом снесу все к чертям ватнячим. Скачивайте, пока есть возможность.
Читать полностью…⚡️ Новый выпуск AIA Podcast уже онлайн!
Сегодня обсуждаем вайбкоддинг, смотрим на новый GPT-4o с функцией генерации изображений, рассказываем про топовую модель Google Gemini 2.5, разбираем обновки в голосовых и аудио-моделях, радуемся дешевизне китайских гигантов вроде DeepSeek и Ernie, тестируем Canvas и Generate Audio от Google, удивляемся новым чипам Nvidia Blackwell и роботу Blue, изучаем «think»-тул от Anthropic и интеграцию Grok в Telegram, обсуждаем Docker Model Runner, фейковые AI-лабиринты от Cloudflare и виртуальные камеры от Stability, а также следим за Figure, AlphaXiv, NEO 1 и юридическим контролем DeepSeek в Китае.
👉 YouTube: https://youtu.be/YoKp90Nm26k
👉 Apple Podcasts: https://bit.ly/aia-apple
👉 Spotify: https://bit.ly/aia-spotify
👉 Скачать mp3: https://aia.simplecast.com/episodes/107
С ребятами на работе запустили новый англоязычный подкаст про ИИ. Название пока рабочее, но контент годный, поставьте лайк-коммент, плз: https://youtu.be/o6LIEhjB0_0 😊
Читать полностью…Андрей Столяров заболел, рак. Ему нужна наша помощь: https://youtu.be/L0Cxx30QIfc
Даже если вы просто поделитесь его обращением или этим постом, это сильно поможет Андрею. Спасибо.
🔥 Горячий обзор на Windsurf Editor и сравнение его с Cursor IDE!
Из этого видео вы узнаете про все фишки второй по популярности AI-first IDE, а также сможете понять, чем он лучше и хуже нашего любимого Cursor. Будем сравнивать буквально по всем параметрам: автокомплиты, ИИ-чаты, настройки, генерация кода, доступность функций, кабинеты и цены, приватность, возможность работать on-premise и многое другое. Полнее сравнения двух топовых ИИ-IDE я ещё не видел 😊
ЧТО ВНУТРИ
- Автодополнения кода и ИИ-чаты
- Стоимость моделей
- Настройки Cascade, Memories и MCP
- Настройки редактора
- Автокомплит из буфера обмена ОС на примере
- Пример работы с Next Tab Edits и всех его фишек
- Удаление лишнего кода через Next Tab Edits
- Индексация проекта
- Про подписки и личный кабинет
- Прозрачность цены запросов и Flex Credits
- Приватность и сертификация
- Можно ли установить GH Copilot?
- Плюсы и минусы Cursor и Windsurf
- Codeium Forge - что за оно?
👉 Смотреть целиком
#evo_обзор
"К 2027 году длина таски ИИ-агента будет метр. Не благодарите"
Украдено из какого-то чата про LLM, скрин из вот этой свежей работы.
Окей парни, вайбтестим реактор
...5 минут спустя
Cntrl z5 раз нажали, почему не работает???
Запустил стрим, го: https://youtube.com/live/wmP9N5Gq8vY?feature=share
Читать полностью…Приходите в субботу в 17:15 СЕТ на стрим, поговорим про вайбкодинг, посмотрим на результаты опроса про ИИ-инструменты и посмотрим парочку видосов по теме, с реакцией на них (да да, я тоже подался в реакты, лол 😅): https://www.youtube.com/watch?v=wmP9N5Gq8vY
Читать полностью…Через два часа, в 18:15 СЕТ, стартуем воркшоп по Cursor IDE.
В клубе уже не мало контента, связанного с этой IDE косвенно и даже напрямую, но Cursor обновляется, а значит пора обновить и воркшоп по нему! Валера расскажет про все старые и новые фишки Курсора, а Лекс покажет, как и для чего использовать MCP в Курсоре (и не только).
👉 Приходи на воркшоп!
Мужик с котом херни городить не будет. Особенно если это Андрей Столяров: https://youtu.be/rbt-YJYZXxo
Читать полностью…Ну-с, новая опенсорсная reasoning-модель QwQ 32B (8bit gguf, mlx не захотела работать), запущенная на моём компе, таки зарешала без ошибок задачу на умножение двух 5×5 матриц. Правда, на размышления у неё ушло аж 88 минут. Размер контекстного окна был 4k токенов, по итогу занято 547%!!! И даже галлюцинации не помешали. Солидно!
Также дал ей задачу на прорисовку в JS жёлтого мячика, отскакивающего от стен крутящегося квадрата. Тоже прошла: 22 минуты, 8k контекстное окно, занято 96,2%. Финальный код вот.
Это первая опенсорсная модель, которая на моём MacBook M3 Max 128Gb зарешала эти задачи. Пусть и долго, зато качественно. Это уже уровень GPT-4o на локальном железе 😎
P.S. Аутпуты ответов и размышлений доступны по ссылкам в посте ⬆️