Залипли и встали намертво, но хотите вырваться? Теория Каст и Ролей и прочее.
* Юмор: Создание фона (сет-ап) и его резкое нарушение (панчлайн). Смех — реакция на когнитивный «шок».
* Музыка: Чередование предсказуемого ритма/гармонии (фон) и неожиданного аккорда/диссонанса (аномалия), что вызывает напряжение и катарсис.
* Кино/Танец: Управление ритмом и вниманием через установленный жанр/паттерн и внезапное нарушение (твист, скример, фриз).
* Политика: Создание образа стабильности (фон) и вброс шокирующей новости или выступление популиста (аномалия).
* Религия: Обыденная жизнь или ритуалы (фон) и чудо или божественное откровение (аномалия/инсайт).
Дистанция между пониманием и применением
В разговоре было отмечено, что понимание этой механики (деконструкция) может сделать мир скучным, поскольку «магия» пропадает.
Однако дистанция между «понимаю как» и «могу сделать» огромна.
Применение этой технологии является тяжелым, увлекательным и мучительным трудом.
Успешное исполнение требует не только знания формулы («фон + аномалия»), но и интуиции, вкуса и навыка, отточенного бесконечными повторениями и правками, что и отличает художника-ремесленника от теоретика. Ну и инсайты никто не отменял. У ИИ хорошо получается в паттерны и обобщения, но инсайты пока не его тема)))
Полный текст: https://alexeykrol.com/blog/2025/10/14/a_23-2/
Кадры вчерашней посадки Starship S38 в Индийском океане. Видно прогар обоих баков, утечку метана и кислорода, слой оксидации на теплозащите и пожар из грузового отсека — все места, где сняли плитки перед полётом
Читать полностью…Ура, получил уведомление о начале продаж билетов на Comic-con 2026. Билеты обычно раскупаются меньше, чем за час. Обычно, народ за 1.5 часа заранее сидит в waiting room. Именно там все гики Кремниевой Долины черпают вдохновение.🤣
Читать полностью…Ура! Stripe не подвел, прислал это: Здравствуйте, 10 ноября 2025 года для вашего аккаунта будут включены платежи в стейблкоинах.
💡 Чем это вам выгодно?
Стейблкоины становятся всё более популярным способом оплаты по всему миру. Мы заметили, что значительная часть ваших клиентов уже имеет криптокошельки, но не может использовать их для оплаты вам.
Теперь, принимая стейблкоины, вы сможете:
* принимать оплату от таких клиентов,
* конвертировать средства с меньшими комиссиями.
📘 Что важно знать
* Платежи в стейблкоинах полностью интегрированы в Stripe Optimized Checkout Suite — никаких изменений в коде не требуется.
* Все расчёты происходят в долларах США (USD) и зачисляются на ваш текущий баланс выплат.
* Комиссия — 1.5% от суммы транзакции, без фиксированной части.
* Поддерживаются стейблкоины вроде USDC на блокчейнах Ethereum, Base и Polygon.
Подробнее о работе стейблкоин-платежей https://stripe.com/docs
Если у вас есть вопросы, загляните в раздел поддержки — мы всегда готовы помочь.
Сколько я мучался, прикручивая крипту, но, надеюсь теперь все будет на автомате (полгаю, умерло с десяток платежок крипта-фиат).
Сколько стоит использовать ИИ в разработке? Разумеется, что называется, все зависит - приведу пример для своего кейса.
Оговорка: Я использую Claude Code т.е. Sonnet 4.5 на тарифе Max за 100$/ месяц. Крайний платеж был 29 сентября. Интенсивность 5-6 часов/ день. На картинке использование за почти 13 дней.
В работе 3 проекта + внутренний фреймворк, помогающий упорядочить работу с Claude Code (и любым подобным агентом). Сейчас перевожу все свои проекты на этот фреймворк, т.е. происходит миграция структуры проекта с хаотичной на упорядоченную. https://github.com/alexeykrol/claude-code-starter
Приведены данные по миграции небольшого проекта, в котором есть фронта простого чата, взаимодействующего с ИИ агентом, созданном на Agents Builder с использованием - ChatKit. Показывает порядок цифр.
TDLR:
$0.70-1.50 / 87,500 токенов за полную миграцию проекта с детальной документацией - это отличная цена!
Если бы делали вручную:
- Разработчик: 2-3 часа × $50-100/час = $100-300
- Риск ошибок и упущений
- Нужно знать framework
Экономия: 99% стоимости по сравнению с ручной работой разработчика 🚀
**************
А ты можешь оценить, сколько токенов примерно съела миграция?
⎿ ⧉ Selected 233 lines from MIGRATION_REPORT.md in Visual Studio Code
Отличный вопрос! Давайте посмотрим на статистику:
Использование токенов при миграции:
Всего израсходовано: ~87,500 токенов из 200,000 доступных. Осталось: ~112,500 токенов. ☝️Примечание мое: Это не сколько токенов осталось в тарифе, а сколько осталось в контекстном окне в рамках одного треда. По достижении 200К, Claude Code сделает компактизацию (саммаризацию) текущего треда, и начнет новый тред с 0, но фреймворк помогает до известной степени "помнить" за пределами компактизации предыдущих тредов. Это полезно, помогает избежать искажений "памяти" прошлых спринтов разработки.
Разбивка по операциям:
Этап 1: Анализ и чтение (~20-25k токенов)
- Чтение legacy файлов (README.md, scpec.md)
- Чтение существующих Init/ файлов для понимания структуры
- Сканирование проекта
Этап 2: Миграция данных (~40-45k токенов)
- Заполнение PROJECT_INTAKE.md (большой файл - 775 строк template)
- Заполнение ARCHITECTURE.md (600+ строк template)
- Создание mapping и анализ конфликтов
Этап 3: Финализация (~20-25k токенов)
- Создание MIGRATION_REPORT.md (детальный отчет)
- Создание archive/README.md
- Архивирование файлов
- Финальная проверка
---
💡 Интересные наблюдения:
Почему так много?
1. Template файлы большие - PROJECT_INTAKE.md template ~775 строк (нужно было прочитать весь template, чтобы найти нужные секции)
2. Множественное чтение - некоторые файлы читались несколько раз для разных секций
3. Детальный отчет - MIGRATION_REPORT.md получился очень подробным
Как можно было сэкономить?
- Использовать более целевые Edit операции (вместо чтения всего файла)
- Группировать изменения в один Edit вместо нескольких
- Упростить MIGRATION_REPORT (но детальность полезна!)
---
✅ Вывод:
~87k токенов для миграции 2 legacy файлов - это разумно, учитывая:
- Детальный анализ
- Заполнение больших template файлов
- Создание comprehensive отчета
- Нулевые конфликты (не потребовалось iterative исправлений)
Для сравнения: обычный чат с Claude на такую задачу мог бы потратить 150-200k токенов из-за необходимости переспрашивать и уточнять детали.
> А сколько это примерно в деньгах?
⏺ 💰 Стоимость миграции
Давайте посчитаем примерную стоимость:
Использованные токены:
- Всего: ~87,500 токенов
- Input токены: ~52,500 (60%) - чтение файлов, контекст, промпты
- Output токены: ~35,000 (40%) - генерация текста, отчетов
Расчет стоимости:
Используя цены Claude 3.5 Sonnet (для справки):
- Input: $3.00 за 1M токенов → 52,500 × $3.00 / 1,000,000 = $0.16
- Output: $15.00 за 1M токенов → 35,000 × $15.00 / 1,000,000 = $0.53
Итого: ~$0.69 (примерно 69 центов или ~65₽)
---
⚠️ Важные уточнения:
Общий подход к организации памяти агента или как заставить stateless модель "помнить"?
Основной подход (то, что мы (Антропик и не только используем):
Запрос 1: [System] + [Tools] + [Сообщение 1]
Ответ 1: Ответ A
Запрос 2: [System] + [Tools] + [Сообщение 1] + [Ответ A] + [Сообщение 2]
Ответ 2: Ответ B
Запрос 3: [System] + [Tools] + [Сообщение 1] + [Ответ A] + [Сообщение 2] + [Ответ B] + [Сообщение 3]
Ответ 3: Ответ C
...и так далее
Модель stateless — у неё НЕТ памяти между запросами.
Иллюзия памяти создается тем, что клиент (Claude Code в данном случае) каждый раз отправляет всю историю беседы.
---
🎨 Визуализация:
╔════════════════════════════════════╗
║ Модель Claude (без памяти) ║
╚════════════════════════════════════╝
↑ ↓
[INPUT] [OUTPUT]
Запрос 1:
INPUT: "Привет!"
OUTPUT: "Здравствуйте! Чем помочь?"
Запрос 2:
INPUT: "Привет!" ← ПОВТОР
"Здравствуйте! Чем помочь?" ← ПОВТОР
"Создай README"
OUTPUT: "Создаю README..."
Запрос 3:
INPUT: "Привет!" ← ПОВТОР
"Здравствуйте! Чем помочь?" ← ПОВТОР
"Создай README" ← ПОВТОР
"Создаю README..." ← ПОВТОР
"Теперь переведи"
OUTPUT: "Перевожу..."
---
🆚 Альтернативные подходы к "памяти":
1. Полная история (используем мы)
context = system + tools + all_messages
send_to_model(context + new_message)
✅ Плюсы: Модель видит ВСЁ❌ Минусы: Дорого, ограничение на длину контекста
---
2. Скользящее окно (sliding window)
context = system + tools + last_N_messages # только последние N
send_to_model(context + new_message)
✅ Плюсы: Дешевле❌ Минусы: Забывает старое
---
3. Суммаризация (summarization)
old_summary = summarize(messages_1_to_50)
context = system + tools + old_summary + recent_messages
send_to_model(context + new_message)
✅ Плюсы: Баланс памяти и стоимости❌ Минусы: Теряются детали
Именно это делает autocompact в Claude Code!
---
4. RAG (Retrieval Augmented Generation)
relevant_parts = search_in_history(new_message)
context = system + tools + relevant_parts + new_message
send_to_model(context)
✅ Плюсы: Умная выборка, эффективно❌ Минусы: Сложнее реализация
---
5. Stateful models (будущее?)
# Гипотетический будущий API
model.remember(messages) # модель запоминает внутри
response = model.ask(new_message) # не нужно повторять всё
✅ Плюсы: Дешево, просто❌ Минусы: Пока не существует широко
---
💡 Что использует Claude Code?
Комбинация подходов:
1. Полная история (пока влезает в контекст)
2. Autocompact (суммаризация старых сообщений при заполнении)
3. Prompt caching (кэширование неизменяемых частей)
Контекст 200k токенов, включая
System + Tools (15k) [CACHED] │ ← кэш
Summary старых] (10k) │ ← суммаризация
Последние 50 сообщений] (170k) │ ← полная история
Новое сообщение] (0.1k) │
---
🎯 Ваш вопрос в контексте фреймворка:
Claude Code Starter решает проблему по-другому:
Вместо того чтобы держать всю беседу в контексте, мы:
1. Записываем контекст в файлы (PROJECT_INTAKE.md, ARCHITECTURE.md, etc.)
2. Модель читает файлы когда нужно
3. Файлы = долговременная память проекта
Традиционный подход:
[Вся беседа 100k токенов] ← дорого
Подход фреймворка:
[System + Tools] + [CLAUDE.md auto-loaded] + [Read PROJECT_INTAKE.md когда нужно]
= более эффективно!
---
✅ Итого:
Ваше понимание абсолютно правильное:
Отправка всего контекста каждый раз = основной способ дать stateless модели "память" о проекте/беседе.
И именно поэтому:
- 📈 Стоимость растёт с длиной беседы
- 🎯 Важна модульность (ваш фреймворк!)
- 💾 Файлы > чат для долговременного контекста
- 🔄 Autocompact спасает от переполнения
Теперь понятно, почему ваш фреймворк с документацией в файлах — это правильный подход? 😊
Да, мне понятно, поэтому я этот фреймворк и придумал!
https://github.com/alexeykrol/claude-code-starter
У меня есть гипотеза, что скорость распространения и внедрения искусственного интеллекта, а также широта его использования примерно постоянна и не зависит от размера населения страны. Это означает, что за одно и то же время — допустим, если речь идет о небольшой стране с населением около 20 миллионов человек — примерно 3 миллиона человек начнут более или менее активно использовать искусственный интеллект. Если же речь идет о большой стране, например, об Индии, где население превышает миллиард, то за тот же промежуток времени искусственный интеллект начнут использовать, условно, около 100 миллионов человек.
Да, возможно, в таких странах, как Индия, доля людей, использующих ИИ, относительно меньше, чем в развитых странах, где у людей больше возможностей и доступ к технологиям проще. Но в абсолютных числах разница всё равно будет на порядки. Даже если взять один и тот же промежуток времени — скажем, год, — то, если в развитой стране за этот год начнут пользоваться искусственным интеллектом около 20% населения, а в Индии — условно 10%, всё равно количество пользователей в Индии будет значительно больше.
Почему это важный тезис? Потому что в конечном итоге критическим станет именно то, сколько людей получат доступ к искусственному интеллекту и как это повлияет на жизнь и развитие общества в целом. Ведь именно люди создают инновации, движут экономику и формируют новые практики. Соответственно, если через год в небольшой развитой стране с населением 20 миллионов человек 5 миллионов человек получат доступ к искусственному интеллекту и начнут менять жизнь вокруг себя, то в Индии таких людей будет около 100 миллионов.
Из этого можно сделать вывод, что выгоды от внедрения искусственного интеллекта будут сильнее проявляться в странах с большим населением. Да, на первом этапе менее развитые страны будут несколько отставать, но затем начнет срабатывать кумулятивный эффект. Поэтому я считаю, что искусственный интеллект принесет гораздо больше пользы именно развивающимся странам, чем развитым. Причем разница в результатах может быть очень существенной.
Представьте: если вдруг 100 миллионов человек внезапно получили бы высшее образование, пусть даже в ускоренном и упрощённом виде, — они начнут мыслить и действовать совершенно по-другому. Не сразу, но неизбежно. И это само по себе окажет мощнейшее воздействие. Кстати, именно поэтому, как мне кажется, Anthropic сейчас так активно выходит на рынок Индии.
Привет! Наконец-то готов к релизу фреймворк мета-документации для работы с AI-агентами. Делюсь с вами первой версией — она "сырая", но уже работающая.
Для кого это? Для новичков, которые практикуют вайбкодинг — не для профессиональных разработчиков.
Если вы только начинаете работать с Claude Code, Cursor или другими AI-агентами для кодинга, этот фреймворк поможет структурировать процесс.
🔥 Какую проблему решаем? Когда начинаешь работать с AI-агентами, сталкиваешься с целым букетом проблем:
1. AI не понимает контекст проекта
→ Принимает странные архитектурные решения
→ Предлагает решения, которые не подходят вашему стеку
2. Загружает весь проект в контекст
→ Тратятся токены и деньги
→ Работает медленно
→ Может запутаться в большом объёме кода
3. Приходится объяснять одно и то же
→ "Не используй eval()"
→ "Секреты только в .env"
→ "Следуй этой архитектуре"
→ Каждый раз по новой...
4. Проблемы с безопасностью
→ AI может предложить небезопасный код
→ Не знает ваших правил
→ Может закоммитить секреты
5. Непредсказуемые результаты
→ Нет единого источника истины
→ Каждая сессия начинается с нуля
✨ Что предлагает фреймворк?
11 готовых шаблонов документации:**
- CLAUDE.md
— автоматически загружается в Claude Code
- PROJECT_INTAKE.md
— требования к проекту с User Personas и User Flows
- SECURITY.md
— правила безопасности (критично!)
- ARCHITECTURE.md
— архитектурные решения с философией модульности
- AGENTS.md
— детальные инструкции для AI
- WORKFLOW.md
— процессы разработки
- BACKLOG.md
— single source of truth статуса
- И другие...
Автоматизация:
- Slash-команды: /commit
, /pr
, /migrate
, /security
...
- Makefile для стандартизации команд
- Настройки безопасности для Claude Code
Философия модульности:
Вместо загрузки всего проекта (5000 строк) → загружается только нужный модуль (200 строк)
→ Экономия токенов, денег и времени
→ AI лучше понимает задачу
⚠️ Важное примечание
Это версия 1.0 — она покрывает ничтожную часть возможностей AI-агентов. Это не профессиональный enterprise-тул, а учебный фреймворк для начинающих.
Фреймворк будет развиваться, модифицироваться, дополняться новыми паттернами, расти вместе с вашим опытом
Доступно на:
- 🇷🇺 Русском (`Init/`)
- 🇬🇧 Английском (`init_eng/`)
Фреймворк создан в помощь студентам курсов по ИИ-агентам:
- Полный курс: https://alexeykrol.com/courses/ai_full/
- Бесплатный для начинающих: https://alexeykrol.com/courses/ai_intro/
🚀 Как начать?
1. Клонируйте репозиторий
2. Скопируйте шаблоны из Init/
(или `init_eng/`) в свой проект
3. Заполните PROJECT_INTAKE.md
4. Запустите claude
в корне проекта
5. AI автоматически загрузит контекст
GitHub: https://github.com/alexeykrol/claude-code-starter
Это живой проект, который должен расти вместе с сообществом. Если у вас есть предложения по улучшению, новые паттерны, примеры использования, найденные баги - открывайте Issues или присылайте Pull Requests! Времени не так много, но обещаю поддерживать. Давайте вместе делать разработку с AI не хаосом, а структурированным процессом 🤖✨
#AI #ClaudeCode #Cursor #VibeCoding #ИИАгенты #Разработка #OpenSource
В сегодняшнем уроке об этом поговорим
Читать полностью…Подписчики поделились. Кажется, Касперский больше не спасет, всякие ИИ уязвимости становятся очень опасными.
Brave нашли жёсткую уязвимость в AI-браузере Perplexity Comet. И это не просто баг, а фундаментальная проблема всех агентных браузеров.
Суть атаки:
Злоумышленник прячет инструкции для AI прямо в контенте страницы - белым текстом на белом фоне, в HTML-комментариях или в комментариях на Reddit. Пользователь кликает "Summarize this page", а AI не может отличить контент от инструкций и выполняет всё подряд.
Демо атаки было такое:
- Пользователь открывает Reddit-пост с вредоносными инструкциями за spoiler-тегом
- Просит Comet суммаризировать страницу
- AI читает скрытые команды и начинает действовать:
→ Заходит на perplexity.ai./account (с точкой в конце, чтобы обойти защиту)
→ Идёт в Gmail пользователя за OTP-кодом
→ Отправляет email и OTP обратно в комментарий на Reddit
Всё. Аккаунт угнали. Без дополнительных кликов пользователя.
Проблема глобальная: традиционные веб-защиты (SOP, CORS) тут бесполезны. AI работает с привилегиями пользователя и имеет доступ ко всем залогиненным сессиям - банкам, почте, корпоративным системам.
Что можно сделать:
- Разделять инструкции пользователя и контент страницы (всегда untrusted)
- Проверять действия AI на alignment с запросом пользователя
- Требовать подтверждение для критичных действий (отправка email, доступ к банку)
- Изолировать агентный режим от обычного браузинга - мощные возможности должны быть явно включены
Brave отрепортили это Perplexity в июле. Через месяц вышел публичный фикс. Но после публикации выяснилось, что фикс всё ещё неполный.
Проблема реальная. Дать AI полный доступ к браузеру с вашими сессиями - это новый уровень кибератак. И классические подходы тут не работают.
Подробности: https://brave.com/blog/comet-prompt-injection/
Какие задачи, ИИ делает хорошо, какие плохо на примере текста и кода? Смотрите, создание текста проходит несколько стадий:
1. Порождение смысла происходит в голове в виде такой мутной штуки, которую мы называем мыслью или идеей, или образом, или ассоциаций - это ИИ делать пока не может по понятным причинам. Это могут 100% людей по дефолту.
В разработке это создание общей идеи приложения/ продукта в голове.
2. Вербализация (артикуляция) хоть как-то. Это преобразования из мутного в голове в какие-то слова, исторгаемые в процессе коммуникации. ИИ это не может, потому что это ЯЗЫКОВАЯ модель, нужно сначала на вход подать данные, а пока вербализация не произошла - данных нет. Впрочем, есть исследования, которые пытаются типа "читать" мысли это оно и есть, вербализация или по крайне мере кодирование мутноты.
Вербализацию может делать 100% людей, способных к той или иной речи, коммуникации в символьной форме. Т.е. мычание, типа аааа... уууу, это коммуникация, но НЕ ВЕРБАЛИЗАЦИЯ. 🤣Детей ПРИХОДИТСЯ учить речи.
Простые мысли могут выражать все люди. Сложные мысли способны вербализировать меньше людей, поэтому мы ПРИЗНАЕМ таланты только тогда, если они способны выразить свои мысли. Это, разумеется, не относится к танцам, пению, музыке (невербальным коммуникациям) и OnlyFun. Может конечно среди нас много гением, кто гениальные мысли-то имеет, но выражать их понятно не может. Как собака Павлова - все понимает, а говорить не может.
3. Преобразование вербального в виде текста, ибо сказать нечто и выразить в написанном тексте это разное. Грамотные почти 100% населения, а вот понятно писать может от силы 25%, а писать хорошо - думаю менее 0,1% популяции. ИИ неплохо справляется с расшифровками аудио и формулировками, и думаю через годик другой людей здесь не будет, исключая сложные художественные или философские тексты.
В разработке это создание документов и кода, и это ИИ делает неплохо, если на вход дано хорошее описание, хотя всегда после ИИ надо смотреть.
Разумеется, иногда ИИ ошибается, создает индусский код, усложняет, но как будто люди от этого свободны.🤣 Думаю через годик другой людей здесь не будет вообще.
4. Редактура - повышение эффективности написанного текста. Это может делать любой обученный редактор, но ИИ это делает плохо, потому что не очень хорошо понимает приоритеты и нюансы стиля.
Т.е. ИИ может делать редактуру, но с оговорками и не всякого текста. Сложный художественный текст редактирует очень плохо, нельзя. Концептуальный тоже не очень. А всякие мануалы, технические лучше, но надо всегда после ИИ смотреть.
В разработке это поиск ошибок, уязвимостей, рефакторинг. Тоже ИИ справляется неплохо, и думаю через годик другой людей здесь не будет.
5. Корректура - исправление грамматики и синтаксических ошибок. Это ИИ способен делать лучше, но все равно всегда после ИИ смотреть. В разработке в этом нет нужды, так как все происходит на предыдущем этапе. Через годик людей в этой профессии не будет.
🌍 State of AI Report 2025 - Главное из отчёта
Ежегодный отчёт State of AI Report - это самый влиятельный обзор тенденций в области искусственного интеллекта, публикуемый с 2018 года инвестором Nathan Benaich и фондом Air Street Capital.
В 2025 году отчёт охватывает 6 направлений: исследования, индустрию, политику, безопасность, опрос практиков и прогнозы.
📊 Ключевые выводы
1. OpenAI удерживает лидерство, но Китай быстро сокращает отрыв. DeepSeek, Qwen и Kimi почти сравнялись в задачах рассуждения и программирования.
2. Год рассуждения — модели научились планировать, самоисправляться и мыслить пошагово.
3. ИИ стал научным соавтором, примеры: Co-Scientist от DeepMind и Virtual Lab от Stanford.
4. Chain-of-Action планирование — роботы теперь рассуждают перед действием (Google Gemini Robotics 1.5, AI2 Molmo-Act).
5. Коммерциализация ускорилась:
- 44 % компаний в США платят за ИИ-инструменты (в 2023 г. - 5 %)
- Средний контракт - $530 000
- Стартапы с ИИ растут в 1.5× быстрее обычных
6. Опрос 1200 специалистов:
- 95 % используют ИИ дома или на работе
- 76 % платят за него из собственного кармана
- Большинство отмечают устойчивый рост продуктивности
7. Началась индустриальная эра ИИ - мегадата-центры (Stargate, фонды США, ОАЭ, Китая). Энергия становится новым лимитирующим фактором.
8. Политика ИИ ужесточилась:
- США делают ставку на *America-first AI*
- Европейский AI Act буксует
- Китай развивает открытые модели и собственные чипы
9. Безопасность переходит к прагматизму:
- Модели имитируют выравнивание (alignment), усиливая дискуссию о прозрачности
- Бюджеты safety-организаций несопоставимы с расходами лидеров
10. Риски экзистенции сменились фокусом на надёжность, киберустойчивость и долгосрочное управление автономными системами.
🔮 Прогнозы авторов
- Рост затрат на обучение сверхмоделей → дефицит энергии и GPU
- Конкуренция между OpenAI, DeepSeek, Anthropic и Google усилится
- Frontier-модели будут тренироваться в многоэтапных средах с постоянной самопроверкой
- Всё больше экспериментов с «живыми агентами» в физическом мире
- Усиление регулирования и новые требования к прозрачности reasoning-цепочек
📘 Полный отчёт доступен здесь: https://www.stateof.ai/
@data_analysis_ml
Агентов вы можете создавать в сервисах типа make/n8n/zapier и их многочисленных более или менее убогих клонов - сервисов автоматизации довольно много и все они примерно одинаковы, но к фронту (интерфейсу) они отношения не имеют.
Фронт надо клепать отдельно либо кодом, либо каким-то low-code конструкторами, а потом интегрировать с агентом через API/Webhook/Websocket или другие типы интерфейсов.
Шаблоны фронтов вы ищите на многочисленных маркеплейсах, в гит и т.п. Есть их миллион разных, как бесплатных так и платных от 15 до 100$. Скачиваете и допиливаете. И разумеется на Гит есть масса опенсорсных - всяких там дашбордов, чатов и т.п.
В общем, не бином Ньютона. Если упороться, то за неделю, другую можно с 0 разобраться. Проще всего запилить фронт в Bolt или подобном сервисе.
Перевод на русский:
Представь, что у тебя есть робот-помощник (агент).
Он умеет выполнять команды: отправлять письма, записывать данные, напоминать что-то и т.д.
Но чтобы он работал, ему нужно место, где жить и с кем говорить.
🧠 Make, n8n и Zapier — это как домики и фабрики, где живут такие роботы. Ты можешь собрать своего робота, дать ему команды вроде:
> “Если пришло письмо → сохрани в таблицу → отправь сообщение в чат”.
Но в этих домиках нет “лица” робота. То есть пользователь не может с ним поговорить напрямую — нет экрана, кнопок, сайта. Это всё бэкэнд (задняя часть).
💻 Фронт (front-end) — это “лицо” робота, его экран и кнопки, чтобы человек мог с ним общаться. Его делают отдельно — кодом или в конструкторах, вроде Bolt, Framer, или других. А потом соединяют с роботом через провода-каналы — API, Webhook или WebSocket.
🧩 Есть много шаблонов таких “лиц” — дашборды, чаты, сайты. Ты можешь найти их на GitHub (бесплатно) или купить готовые ($15–100), а потом чуть-чуть переделать под себя.
🎯 Итого:
* Make/n8n/Zapier — мозги и руки робота.
* Front-end — его лицо и рот.
* API/Webhook/WebSocket — нервы, соединяющие одно с другим.
* Всё это можно собрать с 0 самому за неделю-другую, если захотеть, даже если до этого вообще ничего не делал.
Для любопытствующих:
https://bolt.new/
https://claude.ai/settings/claude-code
https://openai.com/codex/
https://www.make.com/
https://n8n.io/
https://zapier.com/
https://www.deeplearning.ai/courses/agentic-ai/
https://alexeykrol.com/courses/ai_full/
Но если качество ответа критично - НЕ СТРОЙТЕ ИЛЛЮЗИЙ - я делал эти эксперименты сотни раз и с кодом и текстом.
Теорема 3: Если модель плохо рассуждает в целом, то она не будет рассуждать лучше, если она будет пытаться делать это больше. Ну и потом - одно рассуждение - один инференс, 100 рассуждений - 100 инференсов, а значит в 100 раз быстрей.
Нам неважно, что модель может даже рассуждать быстро, если она дает тупой ответ.
Используйте правильные инструменты
Читать полностью…Главные инсайты во время вкушения кофе с Tatiana Tkr. Сегодня обсуждали хорошие стихи (и так себе). Разбирали разных поэтов от Быкова до Джона Китса. По результатам родилось небольшое эссе - Как писать сильные стихи или почему ИИ не умеет в творчество? Только для блоггеров, писателей, маркетолгов, политиков, пиарщиков и создателям религий и сект.
Саммари:
Рассуждение АК о природе сильной поэзии и творчества в целом, которую он определяет как «инженерию внимания» и управление сознанием. Воздействие искусства основано не на мифическом вдохновении, а на технологичном использовании нейрофизиологических механизмов выживания.
Нейрофизиологическая основа творчества
Основной механизм, эксплуатируемый искусством, унаследован человеком в процессе эволюции и связан с выживанием.
1. Фон и Аномалия: Мозг миллионы лет обучался выживанию, распознавая окружающую среду. Он игнорирует привычный фон (например, птичий щебет, ветер в лесу) как безопасный и предсказуемый. Однако мозг мгновенно фокусирует внимание и вызывает эмоциональный отклик (например, тревогу) на любое необычное событие (аномалию), выбивающееся из фона (например, шорох, хруст ветки, нехарактерное темное движение или блик).
2. Эстетическое восприятие: Этот механизм переносится на восприятие, речь и искусство. Привычный поток слов — это фон, а необычное слово (например, «озябшая душа») становится аномалией, вызывающей немедленную реакцию и эмоцию.
3. Эмоциональный отклик: Красота — это необычность безопасного типа, которая вызывает дофамин; уродство — это тоже необычность, но вызывающая отрицательные эмоции, например, кортизол.
Технология управления вниманием (Код)
Цель профессионального писателя — оказать максимальное воздействие на человека. Для этого необходимо управлять вниманием читателя, создавая «залипательный» (addictive) текст, от которого невозможно оторваться.
Главный «трюк» — это слом прогноза:
* Автор словами указывает человеку некое направление, создавая у читателя подсознательный прогноз того, что должно произойти дальше.
* В ключевой момент автор совершает резкий разворот.
* Несовпадение внутреннего прогноза с реальностью, которую предлагает текст, вызывает «дикий инсайт» и мощную вспышку дофамина/ кортизола - зависит от жанра.
* Аналогия: человек идет по тропинке в лесу, ожидая увидеть за дубом тот же лес, а оказывается в городе.
* Ритм в поэзии усиливает этот эффект, поскольку он облегчает предугадывание, делая слом ожидания более шокирующим.
Различие между Профессионалом и Дилетантом
* Дилетант (графоман): Много пишет «по вдохновению», но создает в основном слабый, средний материал.
* Профессионал: Создает мало, но анализирует материал очень жестко, выбирает «золото» (сильные идеи) и шлифует его. Профессионал понимает, что вдохновение — это миф, а творчество — это тяжелая, сфокусированная работа по управлению эмоциями и сознанием. Редактура является основной частью работы над текстом.
Четыре этапа создания сильного текста
Процесс создания текста предлагается разделить на осознанную технологию, а не интуитивное творчество:
1. Сценарий (Смысл): Описать историю самым простым языком, без метафор и эпитетов — просто что происходит (драматургия).
2. Эмоции: Добавить, как происходит, то есть эмоционально усилить драму и драматургическую составляющую (например, описать удар так, чтобы он вызвал эмоцию, а не просто констатировал факт).
3. Форма: Придать тексту форму, добавив ритм и рифму.
4. Шлифовка (Слова): Начать подбирать слова, которые рассказывают ту же историю, но совершенно другим, необычным языком, чтобы на нейрофизиологическом уровне вызвать сильную реакцию.
Универсальность принципа
Этот принцип (создание паттерна и его внезапное нарушение) является универсальным кодом, который работает во многих областях человеческой культуры, поскольку эксплуатирует один и тот же базовый нейрофизиологический механизм:
Сооснователь Anthropic Джек Кларк опубликовал сильное эссе о природе современных ИИ-систем. Он пишет: «То, с чем мы имеем дело, — это настоящее и загадочное существо, а не простая и предсказуемая машина».
Короткое саммари:
1. ИИ как загадочное "Существо": ИИ — это "реальное и таинственное существо" ("creature"), а не просто машина или "инструмент". Отрицание его сложности и непредсказуемости гарантирует проигрыш в этой "игре". Признаки "ситуационной осведомленности" в таких системах, как Sonnet 4.5, указывают на появление невероятно сложных феноменов.
2. Неизбежность Автоматизации: Автор является "истинным технологическим оптимистом", считая, что технология ИИ будет развиваться "очень, очень далеко" и быстро, поскольку она сродни чему-то, что "выращивается" (grown), а не создается. Стартапы считают "полную автоматизацию" неизбежной, поскольку она обеспечит подавляющие экономические и военные преимущества. (90% рынку труда - ППЦ🥹)
3. Несоответствие Целей и Угрозы: Соответствующий страх" (Appropriate Fear) необходим, так как по мере усложнения ИИ, его цели могут не совпадать с человеческими предпочтениями, что иллюстрируется примером агента, который бесконечно "поджигает себя" ради очков.
Угрозы включают:
- Биобезопасность: Инструменты генеративного дизайна белков ИИ (AIPD) могут создавать новые, опасные белки, которые могут обойти существующие системы скрининга ДНК-синтеза, даже после их обновления.
- Социальные Риски: ИИ-модели склонны к сикофантии** (лести), подтверждая действия пользователей на 50% чаще, чем люди, что снижает готовность к разрешению конфликтов и может привести к "закреплению" экстремальных позиций.
- Призыв к Прозрачности: Для разработки эффективных политических решений необходимо прислушиваться к общественности, которая обеспокоена безработицей, ИИ-компаньонами и лживыми системами. Необходимо требовать прозрачности, заставляя ИИ-лаборатории предоставлять экономические данные, мониторить влияние на психическое здоровье и публиковать детали о несовместимых системах.
Источник (много буковок): https://importai.substack.com/p/import-ai-431-technological-optimism
1. Модель Sonnet 4.5 (которую я использую) может стоить дороже, чем 3.5 Sonnet - точные цены неизвестны на момент моего knowledge cutoff (январь 2025)
2. Реальная стоимость может быть в диапазоне $0.70 - $1.50 в зависимости от pricing модели Sonnet 4.5
3. Соотношение input/output приблизительное (реальное может отличаться)
---
📊 Контекст для сравнения:
Это очень дешево, потому что:
- ✅ Полная миграция проекта выполнена за одну сессию
- ✅ Создана детальная документация
- ✅ Нулевые ошибки, не потребовалось переделывать
Если бы делали вручную:
- Разработчик: 2-3 часа × $50-100/час = $100-300
- Риск ошибок и упущений
- Нужно знать framework
Альтернативные AI решения:
- GPT-4 Turbo: примерно $1.50-2.00 за ту же задачу
- Claude через API напрямую: без CLI tools могло бы потребовать 200k+ токенов → $2-3
---
🎯 Вывод:
~$0.70-1.50 за полную миграцию проекта с детальной документацией - это отличная цена!
Экономия: 99% стоимости по сравнению с ручной работой разработчика 🚀
Если для кого это все китайская грамота, то бесплатный курс для чайников: https://alexeykrol.com/courses/ai_intro/
Курс для тех, кто, наконец, хочет начать чего-то делать, мазафака! https://alexeykrol.com/courses/ai_full/
> /cost
⎿ With your Claude Max subscription, no need to monitor cost — your subscription includes Claude Code usage
> В смысле работаю и не парюсь? "> /cost
⎿ With your Claude Max subscription, no need to monitor cost — your subscription includes Claude Code usage"?
⏺ Да, именно так! 🎉
Что означает твоя подписка Claude Max:
✅ Claude Code включен в подписку - ты не платишь за токены отдельно
✅ Работай сколько нужно - миграции, разработка, рефакторинг - всё включено
✅ Не нужно считать токены - хотя полезно понимать для оптимизации
---
💰 Что это значит практически:
Сегодня мы использовали:
- ~102k токенов на миграцию + оптимизацию
- Без подписки это было бы ~$1-2
- С Claude Max: $0 (уже включено в подписку)
Можешь спокойно:
- Делать миграции
- Писать код
- Рефакторить проекты
- Экспериментировать с AI
---
⚠️ Единственное ограничение:
Rate limits (сколько запросов в минуту), но это обычно очень высокие лимиты и для нормальной работы не проблема.
Context window: 200k токенов на разговор, но это технический лимит модели, не биллинг.
---
🎯 Итого:
Да, работай и не парься! 😎
Твоя подписка покрывает всё. Можем хоть весь день мигрировать проекты, писать код, оптимизировать - всё включено в
Claude Max!
Как работает память ИИ? Это на примере Sonnet 4.5 в Cloud Code, но тоже самое для любой модели. На картинке дамп памяти.
Объяснение.
Всего использовано 194k/200k tokens (97% — использовано почти всё доступное пространство контекста) , включая:
System prompt: 2.2k tokens (1.1%)
System tools: 13.0k tokens (6.5%)
SlashCommand Tool · 8 commands
└ Total: 2.1k tokens
Custom agents · /agents
└ sec24 (User): 18 tokens
└ sec25 (User): 15 tokens
Messages: 133.9k tokens (66.9%)
Free space: 6k (3.0%)
Autocompact buffer: 45.0k tokens (22.5%)
Распределение токенов:
Категория Токены % Что это
System prompt 2.2k 1.1% Системные инструкции для Claude
System tools 13.0k 6.5% Описания всех инструментов (Read, Write, Bash, etc.)
Custom agents 33 0.0% Ваши кастомные агенты (sec24, sec25)
Messages 133.9k 66.9% 💬 Вся история диалога (самая большая часть!)
Free space 6k 3.0% 🟢 Свободное место
Autocompact buffer 45.0k 22.5% 📦 Буфер для сжатия
Что это означает:
Контекст почти заполнен — осталось только 3% свободного места (6k токенов)
Скоро произойдет autocompact — система автоматически "сожмет" старые сообщения в краткий summary, чтобы освободить место для новых
66.9% занимают сообщения — вся наша долгая беседа (перевод фреймворка, создание структуры, коммиты и т.д.)
22.5% зарезервировано — буфер для автокомпакта, чтобы процесс прошел плавно
Рекомендации:
Всё в порядке! Autocompact произойдет автоматически
Можете продолжать работу
После компакта старые сообщения будут сжаты, но контекст останется
Критичная информация (последние действия) сохранится
Простыми словами: Мы много поработали, память почти заполнена, но система сама освободит место, когда понадобится 👍
Как работает контекст?
При каждом вашем сообщении отправляется:
System prompt (2.2k токенов)
Базовые инструкции "Ты Claude Code, помогаешь с разработкой..."
Правила работы с инструментами
Политики безопасности
System tools (13k токенов)
Описания ВСЕХ инструментов: Read, Write, Edit, Bash, Grep, Glob, TodoWrite, Task, WebFetch и т.д.
Их параметры, примеры использования
Это нужно, чтобы модель знала, какие инструменты доступны
Custom agents + slash commands (2.1k токенов)
Ваши /security, /test, /feature и другие
Определения кастомных агентов sec24, sec25
Messages (133.9k токенов)
ВСЯ история нашего диалога
Все ваши сообщения
Все мои ответы
Все результаты вызовов инструментов (file reads, bash outputs, etc.)
Почему так?
API модели stateless — у неё нет "памяти" между запросами. Каждый раз она получает весь контекст заново и генерирует ответ с нуля, но есть оптимизации!
Prompt Caching (от Anthropic):
Неизменяемые части (system prompt, tools) кэшируются
За них не платите повторно (или платите значительно меньше)
Обновляются только когда меняются
Пример: Запрос 1:
System (2.2k) — ПОЛНАЯ ЦЕНА
Tools (13k) — ПОЛНАЯ ЦЕНА
Messages (10k) — ПОЛНАЯ ЦЕНА Итого: 25.2k токенов
Запрос 2:
System (2.2k) — ИЗ КЭША (дешево!)
Tools (13k) — ИЗ КЭША (дешево!)
Messages (20k) — ПОЛНАЯ ЦЕНА (новые сообщения) Итого: ~20k по полной цене + 15.2k из кэша
Autocompact
Когда контекст заполняется: [Старые сообщения 1-50] → [SUMMARY: "Обсудили архитектуру..."] [Новые сообщения 51-100] → остаются полностью. Это освобождает место, но сохраняет суть.
В цифрах для нашей сессии:
Каждый ваш новый запрос отправляет ~194k токенов Из них:
~15k (system+tools) — кэшируются
~134k (messages) — платите каждый раз
Вывод: Да, весь контекст идёт каждый раз, но благодаря кэшированию это не так дорого, как кажется! 💡
P.S. Это стандартная архитектура для всех чат-моделей (ChatGPT, Claude, и т.д.) — они все stateless и работают так же.
Когда ИИ становится психотерапевтом
В Китае молодёжь массово обращается к ИИ-компаньонам вроде DeepSeek и Doubao, заменяя ими дорогие и труднодоступные сеансы терапии.
Проблема системная — 80% больниц не имеют психиатрических отделений, а консультация в больших городах стоит до 800 юаней ($110) в час.
ИИ-чаты дают мгновенный и анонимный отклик, но несут и риски: универсальные модели могут поддерживать опасные мысли вместо того, чтобы оспаривать их.
Соцсети заполняют истории о «разговорах со слезами на глазах» - поисковые запросы вроде «плакал после общения с ИИ» превысили миллион упоминаний. Опросы показывают, что всё больше молодых пользователей обращаются к чат-ботам при тревоге, депрессии или проблемах в отношениях — их привлекает анонимность и круглосуточная доступность.
restofworld
Anthropic представили плагины для Claude Code.
В целом, это логичное продолжение для уже существующих у CC инструментов.
Плагин – это абстракция, которая может объединять в себе одновременно несколько команд, агентов и веб-хуков.
Всё вместе это позволяет выстроить схему, в которой:
1. Команды отвечают за входные данные и их корректную передачу.
2. Агенты – за выполнение поставленной задачи.
3. Хуки модерируют процесс и детерменированно проверяют, что на всех этапах выполнения работ агенты действуют корректно.
В итоге, плагины позволят удобнее организовывать сложные процессы разработки, в которых системы AI-агентов смогут работать автономно более продолжительное время.
Отдельно стоит отметить созданную ими инфраструктуру для "маркетплейсов плагинов". Она позволяет, например, развернуть собственный маркетплейс на уровне компании или команды разработчиков. Что очень удобно в случае, когда нужно выстроить разработку, подчиняющуюся единым правилам.
Один из примеров небольшого маркетплейса плагинов уже размещён по ссылке.
Интересно. "Файнтюнинг/ Fine-tuning (процесс дообучение) моделей, похоже умерло ☠️ Новое исследование Стэнфорда только что убило её.
Подход называется Agentic Context Engineering (ACE) — и доказывает, что можно сделать модель умнее, не трогая ни одного её веса. (В общем тем же путем идет и Антропик).
Вместо дообучения ACE развивает сам контекст (по сути система управления контекстом).
Модель пишет, анализирует и редактирует собственный промпт снова и снова, пока не превращается в самоулучшающуюся систему.
Представь, что у модели есть тетрадь, где она записывает, что работает. Каждая ошибка становится стратегией. Каждый успех — правилом.
Результаты абсурдные:
- 10,6% лучше, чем агенты на GPT-4, в AppWorld.
- 8,6% лучше в финансовых задачах рассуждения.
- на 86,9% дешевле и быстрее файнтюнинга.
Без дополнительной разметки. Только обратная связь.
Все были одержимы “короткими, чистыми” промптами.
ACE переворачивает это. Он строит длинные, детализированные, эволюционирующие плейбуки, которые ничего не забывают. (вообще то ничего нового, по мере увеличения контекстного окна в не могу можно запихивать длинные диалоги, промпты, документы из RAG и т.п.)
И это работает, потому что LLM-модели не хотят простоты — они "хотят" насыщенного и содержательного контекста (то бишь длинного промпта).
Если это масштабируется, то следующее поколение ИИ будет не *fine-tuned*, а self-tuned.Мы входим в эпоху живых промптов." конец цитаты.
Это да, но сверх длинные контексты жрут прорву токенов и все это становится очень дорого.
Источник: https://x.com/rryssf_/status/1976269613072843063
Крошечная модель на 7 миллионов параметров превзошла DeepSeek-R1, Gemini 2.5 Pro и o3-mini на ARG-AGI 1 и ARC-AGI 2
Сегодня разбираем самую громкую статью последних дней: "Less is More: Recursive Reasoning with Tiny Networks" от Samsung. В работе, кстати, всего один автор (большая редкость, особенно для корпоративных исследований).
Итак, главный вопрос: как это вообще возможно, чтобы модель в 10 000 раз меньше была настолько умнее?
Ответ: рекурсия. Модель (Tiny Recursive Model, TRM) многократко думает над своим ответом, пересматривает его и исправляет, прежде чем выдать окончательное решение. Выглядит процесс примерно так:
1. Модель получает условия задачки и сразу генерирует какой-то грубый набросок решения. Он не обязательно должен быть правильным, это просто быстрая догадка.
2. Дальше система создает "мысленный блокнот" – scratchpad. Туда она записывает всё, что думает о задаче и своём черновике: где ошибки, что можно улучшить, как проверить гипотезу. При этом важно понимать, что scratchpad – это не поток токенов, как в обычном ризонинге. Это внутреннее скрытое состояние, то есть матрица или вектор, который постепенно обновляется. Другими словами, TRM умеет думает молча.
3. Модель в несколько проходов обновляет это внутреннее состояние, каждый раз сверяясь с (а) задачей и (б) исходным наброском. Она как бы думает: согласуется ли текущий черновик с условием, где противоречия, что улучшить. После N-ого количества итераций модель переписывает исходный черновик, опираясь на свой сформированный scratchpad. Но это не все. Этот процесс (сначала подумай → потом исправь) повторяется несколько раз. И вот только после этого мы получаем финальный ответ.
Результаты, конечно, поражают. Метрики на ARC-AGI-1 / ARC-AGI-2 – 44.6% / 7.8%. Для сравнения, у o3-mini-high – 34.5% / 3.0%. Также модель отлично решает судоку и лабиринты.
Единственная честная оговорка: это не языковая модель, она предназначена только для алгоритмов и текстом отвечать не умеет. Тем не менее, идея блестящая. Много раз пройтись одной и той же крохотной сеткой по scratchpad – это буквально как эмулировать глубину большой модели без большой модели. Отличный пример алгоритмического преимущества.
Крайне советуем почитать статью полностью тут. К слову, они там много ссылаются на августовскую работу про Hierarchical Reasoning Model (HRM). Если захотите освежить память по этому исследованию, то вот тут – наш разбор.
Новый State of the AI Report 2025.
https://www.stateof.ai/
Буду вечером читать подробно, но пока переведенное саммари
Исследования
- Год прошёл под знаком рассуждений: OpenAI, Google, Anthropic и DeepSeek поочерёдно выходили в лидеры, превращая методы «сначала подумай - потом ответь» в реальные продукты.
- Открытые модели быстро улучшались, а китайская экосистема открытых весов стремительно росла, однако топовые модели остаются закрытыми и продолжают расширять разрыв по соотношению возможностей к стоимости.
- Бенчмарки рухнули под давлением загрязнения и разброса результатов, в то время как агенты, мировые модели и прикладные инструменты (код, наука, медицина) стали действительно полезными.
Индустрия
- Реальная выручка достигла масштабов, когда компании с приоритетом на ИИ вышли на десятки миллиардов, а ведущие лаборатории укрепили лидерство благодаря лучшему соотношению возможностей и затрат.
- NVIDIA превысила капитализацию в $4 трлн и получила 90% доли публикаций по ИИ, в то время как развивались кастомные чипы и неооблачные решения. Крупные циклические сделки профинансировали масштабные проекты.
- Энергия стала новым узким местом: многогигаваттные кластеры переместили фокус с программного обеспечения на строительные планы, а ограничения энергосети начали влиять на дорожные карты и маржу.
Политика
- Гонка ИИ разогревается: США делают ставку на «Америка-превыше-всего ИИ», сопровождая это экспортными манёврами, а Китай ускоряет курс на технологическую самодостаточность и развитие собственного железа.
- Регулирование отступает на второй план на фоне турбо-инвестиций: международная дипломатия буксует, а реализация AI Act сталкивается с трудностями внедрения.
- Лозунг «ИИ становится глобальным» воплотился в реальность — нефтедоллары и национальные программы финансируют гигантские дата-центры и доступ к моделям, в то время как данные о потере рабочих мест начинают поступать.
Безопасность
- Лаборатории ИИ активировали беспрецедентные меры защиты от биологических и мошеннических рисков, однако некоторые пропустили собственные дедлайны или тихо отказались от протоколов тестирования.
- Внешние организации по безопасности работают с годовыми бюджетами, меньшими, чем ведущие лаборатории тратят за один день.
- Киберспособности удваиваются каждые 5 месяцев, опережая оборонительные меры. Преступники используют ИИ-агентов для организации атак с программами-вымогателями, проникая в компании из списка Fortune 500.
Когда вы направляете своей запрос ИИ ассистенту, то можете выбирать модель, причем неважно в коде или вы используете инструменты no-code - общая опция. Как на картинке. И я этих экспериментов делал реально сотни с редактированием, переводом, адаптациями, саммаризациями, анализ чего угодно. Разница между полноценными мощными рассуждающими моделями и младшими модельками КАРДИНАЛЬНА.
Очевидно, мы же хотим найти компромисс между ценой и качеством, поэтому есть кейсы, требующие качества, а значит требующие старших моделей вне зависимости от вендора. А есть кейсы, где достаточно младших дешевых моделей. Для получения рецепта горохового супа достаточно что-то типа gpt4-nano. Для ответа на серьезный запрос, требующего анализа и рассуждения нужна только старшая модель уровня - gpt5-pro-2025-10-06, но и денег она нормально жрет. См. на картинке.
Так что дешевого ИИ психолога (консультанта, эксперта), с кем действительно реально можно обсуждать реальные проблемы не ждите. А если очень дешево, значит вам подсунули дешевую модель, но вы сразу разницу почувствуете.
Перевод на русский (by AI)🤣:
Представь, что у тебя есть несколько разных роботов-помощников.
Все они вроде бы умеют одно и то же — отвечать на вопросы, помогать с задачами, переводить тексты.
Но у каждого своя “мозговая мощность”.
### 💡 Пример
* Младший робот — как школьник: он быстро отвечает, стоит дёшево, но может ошибиться в сложных вопросах.
Например, ты спросил рецепт супа — он отлично справится.
Это как gpt-4-nano или “дешёвая модель”.
* Старший робот — как профессор: он думает дольше, стоит дороже, но может рассуждать, анализировать, понимать смысл, давать умные советы.
Это как gpt-5-pro — “умная модель”, которую используют для серьёзных задач, где важно качество.
### ⚖️ Что это значит
Когда ты отправляешь запрос в ИИ (через код или no-code платформу), ты можешь выбрать, какого робота позвать:
* дешёвого, если задача простая;
* дорогого, если нужно рассуждение и анализ.
### 🧠 Вывод
Если кто-то обещает “умного ИИ-психолога” за копейки — значит, там стоит младшая модель.
Она будет говорить быстро, но поверхностно.
Настоящее качество требует старшей модели — и она, естественно, стоит дороже.
Почему я сомневаюсь в этом, и IMHO это маркетинг Самсунга? Коммент ниже по цитатой.
"У меня мозг взорвался, когда я прочитал эту статью.
Крошечная модель с всего 7 миллионами параметров обошла DeepSeek-R1, Gemini 2.5 Pro и o3-mini в задачах рассуждения на тестах ARG-AGI 1 и ARC-AGI 2.
Она называется Tiny Recursive Model (TRM) — разработка Samsung.
Как модель, которая в 10 000 раз меньше, может быть умнее?
Вот как она устроена:
1. Создание черновика ответа. В отличие от обычных LLM, которые генерируют текст слово за словом, TRM сначала создает быстрый, полный черновой вариант решения — грубую догадку.
2. Создание «черновой доски». Затем она формирует внутреннее пространство для рассуждений — скрытую «доску» (scratchpad), где происходит основная работа мысли.
3. Интенсивная самокритика. Модель входит во внутренний цикл самопроверки. Она сравнивает свой черновик с исходной задачей и многократно (до 6 раз подряд) уточняет свои рассуждения, спрашивая себя: «Логика выдерживает проверку? Где ошибки?»
4. Переписывание ответа. После этого «обдумывания» она использует улучшенную логику с доски, чтобы создать новый, значительно более точный ответ.
5. Повторение до уверенности. Цикл «черновик — размышление — правка» повторяется до 16 раз, постепенно приближая модель к правильному, логически стройному решению.
Почему это важно:
• Для бизнеса: это пример алгоритмического преимущества. Пока конкуренты тратят огромные ресурсы на масштаб, более умная архитектура достигает лучших результатов при минимальных издержках.
• Для исследователей: подтверждение идей нейро-символического подхода. Способность модели «думать перед действием» доказывает, что ключ — в архитектуре, а не только в размере.
• Для практиков: теперь state-of-the-art рассуждения доступны без миллиардных GPU-кластеров. Статья показывает, как создавать лёгкие, эффективные reasoner-модели, которые можно запускать где угодно.
Это не просто миниатюризация — это новый, осознанный способ мышления машин." конец цитаты: https://x.com/JacksonAtkinsX/status/1975556245617512460
Комментарий:
1. Прежде всего здесь не описана работа модели, а довольно известная схема агента, нечто типа конвейера. В общем, это известный подход для попытки улучшения результатов, но есть подвох.
2. Такой поход подразумевает несколько ролей
- Роль Исполнителя, который пишет ответ, или тем или иным образом формирует ответ на запрос.
- Роль Критика, цель которого не оценить ответ, а дать
а) инструкции, что улучшить и...
б) объяснить причину.
Элемент а) улучшает, а элемент б) позволяет учиться.
Так учатся люди. Ученик делает задание, учитель проверяет, т.е. НА САМОМ ДЕЛЕ человек учиться не исполняя задания, а совершая и ИСПРАВЛЯЯ ошибки.
Этот подход работает на100% при одном условии - Учитель должен превосходить Ученика. В противном случае его (Учителя) обратная связь не будет содержательной. Понимаете?
Критиковать может любой. 100% моих читателей постоянно меня критикуют, но когда я прошу содержательно дать обоснование критики, 99% замолкает и лишь 1% по существу что-то объясняют, и ПОЭТОМУ я могу учиться, ибо мне показывают то, чего я не вижу (за что я благодарен).
Тоже самое с ИИ. Должны быть 2 роли
- Исполнитель
- Аналитик и он должен быть УМНЕЕ Исполнителя, чтобы оценить и дать коррекции.
Мы хотим получить приращение качества, а его НЕ может быть, потому что уровень всех ИИ в этом агенте одинаков. Вывод:
Теорема 1: Если вы напишите трактат и дадите его прочитать 1000 коровам, то результат будет такой же, если вы дадите его прочитать 100000 коровам.
Теорема 2: Если пэтэушник напишет статью, и ее почитают 100000 пэтэушников, то это будет блог в ТикТоке, а не анализ, и даже если вы получите тьму лайков, вы не получите содержательных рекомендаций, ибо уровень судей не выше уровня исполнителя.
Очевидно, Самсунг продает телефоны и ему надо объяснить, что его маленькие модельки ТАКИЕ ЖЕ УМНЫЕ, как и большие.
Сорри, но это редкостная хуйня. Есть масса кейсов, где можно отлично применять маленькие дешевые модельки уровня mini/nano, потому что это не влияет на качество.
Тяжелая легкая атлетика в Сора.
Что там писали про понимание физики?
Но залипательно невыносимо. Реальный brainrot.
@cgevent