Мои мысли про стартапы и продукты. Байрам Аннаков, фаундер and CEO onsa.ai - автоматизация B2B продаж Мой YouTube: https://www.youtube.com/BaykaAnnakov Мой LinkedIn: https://linkedin.com/in/bayramannakov
Ого! Еще 500 миллиардов на AI и не только от Apple!
https://www.linkedin.com/feed/news/apple-to-hire-20000-us-workers-7184114
Подшаманили звук в соответствии с вашим фидбеком и, кажется, получилось получше - м?
новое видео тут:
https://youtu.be/lo8Qd1U8-UQ
О результатах и отсутствии оных
Интересное наблюдение: чем опытнее руководитель, тем больше он думает в терминах «обьем нового знания на затраты денег/времени» вместо просто «где результат?». Поэтому для него отсутствие результата это тоже результат, если из него сделаны выводы и намечены дальнейшие эксперименты.
Это не значит, что результат не важен, я не об этом. Я о своей «джуниорской» позиции, что лишь позитивный результат - это хорошо для заданной деятельности.
Интересная мысль-аналогия из подкаста 25 years at Google - ушел думать
Когда вы покупаете книгу, вы платите около бакса за 10 тыс токенов, с LLM же за ту же сумму вы получаете 1млн токеновЧитать полностью…
Поэтому главный вопрос: можем ли мы сделать LLM настолько умной, чтобы в пересчете на 1000 токенов мы были готовы платить в 100 раз больше, как за книгу, или в тысячи раз больше - как за программиста
В июне прошлого года я рассказывал про отчет Situational Awareness - решили выложить запись той встречи. Думаю, что вам будет интересно посмотреть/пересмотреть: удивительно, как сбываются некоторые предсказания и про наращивание компьюта (stargate + анонсы инвестиций от гиперскейлеров), и про алгоритмические прорывы (deepseek), и про unhobbling (reasoning модели)
https://youtu.be/2phugrQKors
enjoy, like & share :-)
Экономический индекс Anthropic
Прикольную тему анонсировал Anthropic: свой экономический индекс. Это такой индикатор эффекта внедрения LLM в экономику и на рынок труда по мотивам задач, для которых юзают модельки Anthropic.
Наиболее популярные, ожидаемо, задачи кодинга. Далее редактирование отчетов/докладов/ресерчей. Потом редактирование текстов/надписей. Может потенциально стать источником идей продуктов, но для этого надо глубже изучить, я покопаю на этих или следующих выходных
Вспомнил сегодня историю: уроки пения в школе. Учитель мне поставила 5 за куплет из какой то песни. В следующий урок она попросила меня перепеть и поставила 2. Я допускаю, что я мог за неделю серьезно «просесть»… но я то сам знал, что нет.
Я тогда очень ярко почувствовал субьективность оценок. И, конечно, опасную важность фидбека учителя.
Сейчас поем с друзьями в караоке и я понимаю, что та ситуация до сих пор во мне. Но, что я хотел бы: чтобы нам попадалось меньше таких «фидбеков», что мы получали, и давали фидбеки, что развивают, а не стагнируют; что вдохновляют, а не останавливают; что делают тепло, а не смущение.
Давайте будем внимательнее и не забывать, что контекст и условия достаточно сильно влияют на ВОСПРИЯТИЕ результата
Отличный read от «старины» O’Reilly про то, почему программисты будут нужны еще больше:
https://www.oreilly.com/radar/the-end-of-programming-as-we-know-it/
Не знал про CHOP - chat-oriented programming :-)
В прошлом году не удалось, но в этом поступил на Network School v2 - рекомендую всем, кто хочет создать/создаёт свое сообщество
Очень рад! Надеюсь, увижусь с кем-то из вас там в марте!
Гибкие Продукты
Я уже писал, что по моим ощущениям происходит огромный сдвиг в разработке продуктов: от детерминированного описания и поддержки юз-кейсов мы переходим к гибким llm-managed продуктам, которые «налету» могут поддержать юзкейс или edge case, который мы не закладывали или о котором даже знать не знали.
Например, недавно был шокирован тем, как модель решила, что зарплата человека не указана в linkedin, но он работает на определенной позиции в Швейцарии, а зарплаты этих людей публикуются в специальном реестре, поэтому она сходит туда и получит примерную вилку зп. Разумеется, я ни о чем таком ее не просил в явном виде.
И это все меня приводит к нескольким мыслям:
1) традиционно продакт менеджер продумывает юзкейсы, принимает решения, какие из них поддерживать, а какие можно проигнорировать, так как это усложнит продукт и/или он о них даже не знает. О тех, что не знает, он учится на фидбеке от юзеров, и вновь принимает решение, что войдет в продукт, а что - нет.
2) теперь же выходит, что мы как продакты скорее будем описывать бизнес-область продукта, очерчивать доступные инструменты модели, критерии принятия решения, поднимаясь по уровням абстракции. Мы скорее CEO, чем линейный менеджер или исполнитель. Как это правильно делать - нам еще предстоит понять и научиться
3) продукты будут более гибкими, поэтому имхо их будет становиться меньше, а поддерживаемых юзкейсов - больше. Причем именно длинный хвост юзкейсов. Ведь классически происходило так, что есть «широкие» продукты, удовлетворяющие основные юзкейсы широких масс людей, и «узкие» - сфокусированные на edge case-ах, но для аудитории, готовой за это достаточно платить. Теперь же, с этими «финтами ушами», когда налету поддерживается юзкейс, «широкие» продукты смогут относительно «дешево» прорастать вглубь.
4) Дистрибуция будет играть еще более важную роль. Я опасаюсь, что мест на рынке будет все меньше, а «power law» продуктов будет еще более выраженным.
М?
o3-mini
Мне выкатили o3-mini —> удивительно, но оно хуже на вот таком таске:
1) у нас есть транскрипт разговора, где выявлены спикеры (диаризация), но мы не знаем кто есть кто
2) у нас отдельно есть список людей, что были на звонке, но не все они обязательно говорили
3) надо заматчить спикеров с участниками звонка
o1 на этой задаче выдал более верный результат. Погоняю на других тасках, когда появится в API
А вот и свежий список идей стартапов от YC и Conviction:
1) YC - из интересного: AI App Store, AI Personal Staff, Browser & Computer Automation, ну и, разумеется, Vertical Agents. что прикольно, что на этот раз они по каждому блоку сняли небольшой ролик. Вот, например, про App Store
2) Conviction - очень зашла мысль про "Just Go Live", даже обсужали ее во внутреннем чатике, 3D генерация, и идея про выкуп бизнесов и замену людей AI тулами, о которой писал ранее.
В общем, выбирайте понравившееся и just go live :)
Pete на днях читал в Гарвардской школе бизнеса лекцию про фаундер продажи.
Вот презентация: https://docs.google.com/presentation/d/1XE1yuEAqdiLPntkLnSKnSNXNOvNUidZuP3QGx_-ejMs/edit#slide=id.g2022411f57_0_19
Первые продажи
Еще один видео-отрывок из школы фаундера - про первые продажи:
00:00 - интро
00:45 - первые пользователи App in the Air
04:47 - главное про запуск
06:10 - первые пользователи RuBeacon
10:24 - первые пользователи onsa.ai
11:50 - первые продажи вручную
12:35 - барьеры в процессе продаж
13:01 - "делай то, что не масштабируется"
16:22 - основы продаж
17:30 - главное уравнение стартапа
29:42 - чем управляем полностью, а на что можем влиять
31:54 - ваша цена = их затраты + доп затраты
37:18 - продукт vs ценность
40:34 - цена = 30-50% * ценности
45:50 - динамика ценности vs стоимости
Присоединяйтесь к 3му потоку, если отзовётся содержание. Стартуем 8 февраля
Не гадай, а найди того, кто знает
Вчера болтали с классными фаундерами и обсуждали такую ситуацию: они парсят и эмулируют работу пользователей на одном сайте-агрегаторе и их постоянно блочат. И мы размышляли какие эвристики надо применить, чтоыб поведение бота было больше похоже на настоящее (сайт не хочет договариваться по хорошему)
Но потом возникла мысль, что надо просто найти разработчика из этой компании и нанять/расспросить его про механизмы защиты от ботов )
Иногда самый простой способ - не гадать, а спросить у тех, кто знает. Например, как выше, или у своего пользователя, откуда он пришел или почему сделал так, как сделал
удачи нам, экономическим исследователям (привет Полу Грэму)
"Enterprise does not need a model, Enterprise needs an outcome"
Это слова Аарона Леви, CEO Box из свежего подкаста YC. Вообще, мне часто в последнее время доводится и говорить, и размышлять на тему. Безусловно, в b2b легче обьяснить, как защититься от того, что разработчики LLM просто добавят вашу фичу нативно в модель или в свой продукт: вам надо интегрироваться с B2B системами, продуктами, регулированием. Для b2c же часто ответ вида - слишком нишевая, читай <1B, аудитория (frequent flyers) или слишком высокие риски для репутации (character.ai).
Но, делая продукты в b2b, я вижу еще 3 важных критерия для b2b продуктов - приведу их в метафоре промптинга моделей:
1) унификация - вся компания должна промптить одинаково
2) адаптация - все промпты должны иметь единый и правильный контекст
3) контроль - контроль как за аутпутом моделей для последующего улучшения этого же аутпута, так и с точки зрения его использования для взаимодействия с внешней средой. Контроль даунсайда и владение апсайдом
Руководители бизнеса не хотят, чтобы каждый сотрудник по своему промптил chatgpt на стиль и контент сообщений
Руководители бизнеса не хотят, чтобы недоступность/забывчивость какой-то важной инфы для заданного сотрудника снижала качество общей выдачи компании
Руководители бизнеса не хотят, чтобы результаты аутпута модели неконтролируемо просачивались во внешнюю среду: как с точки зрения бренд соображений, так и конкуренции.
Поэтому, как Аарон и говорит, думать об угрозе со стороны openai/anthropic/etc проще в режиме b2b, чем b2c. На школе фаундеров я призываю b2c участников хотя бы допустить мысль о точке в пространстве b2b, поразмышлять в стиле "что если", чем бросаться сразу пилить. Потому что есть важный закон систем:
"Информация появляется в сравнении"
Посмотрите на это фото внимательно: что на нем происходит? Что будет или может произойти? А что если вы - водитель автомобиля? А если собака была бы на поводке у мужчины, а не женщины?
Моя любимая Мелани Митчелл написала классную 2х серийную статью про один из центральных споров в LLM: формируют ли LLMки внутреннюю модель мира (как мы при взгляде на фото выше), помогающие нам прогнозировать ситуацию на более скомпрессированном, абстрактном и энергетически-эффективном уровне, или они просто, благодаря безумному количеству параметров, запоминают эвристики/правила, но не формируют реальной картины мира.
Лагерь ML ресерчеров разделился практически 50/50: одни утверждают, что да, формируют (Илья Суцкевер, например), другие - обратное (Ян ЛеКунн из Meta).
Tldr: пока, кажется, это лишь набор эвристик. Почитайте обязательно, чтобы лучше понимать, чего стоит ожидать от LLM и чего - нет. Например, если это большая коллекция запомнившихся эвристик, то не стоит ожидать оригинальных решений от нее (говорил недавно на этом выступлении).
Мое мнение:
1) что можно дропнуть пункт про энергетическую эффективность пока
2) что есть миллиард ситуаций, где большая коллекция эвристик - уже более чем достаточно для эффективной замены человеческого труда и на этом нам, практикам, пока надо сфокусироваться
3) надо управлять ожиданиями (в первую очередь, своими!) о том, чего ожидать от LLM.
Мое недавнее выступление в Алматы: "GenAI - State of the Union", где я говорил про то, что уже возможно благодаря GenAI и что нас ждёт в ближайшие годы, а также почему агентское поведение (агентность) - ключевой навык в эру, когда у каждого будут миллионы PhD в загашнике.
Более детальные таймкоды:
00:00 - интро
02:02 - xrai glass
04:15 - Gartner Hype Cycle
08:36 - AI news
09:09 - Platform Shift
10:56 - кривая производственных возможностей
17:38 - IQ test results
25:30 - AI пишет код
31:52 - AI видео
36:46 - роботы
39:14 - AI исследования
45:30 - Automation vs Augьentation
50:59 - Future of Work
53:30 - AI агенты
Enjoy и спасибо коллегами из Most IT Hub за то, что захостили! Хотели митап, а получится - Митап :-)
P.S. презентация тут
3 наблюдения про AI экономику
Сэм Альтман поделился 3мя наблюдениями об экономике AI:
1) Интеллект модели примерно равен логарифму ресурсов, затрачиваемых на его тренировку и выполнение - я, если честно, до конца не догнал. Мне понятен стейтмен а ля пропорционален, но почему логарифм? В чем измеряются ресурсы и интеллект?
2) Каждые 12 мес цена падает в 10 раз - я писал про это раньше: надо закладывать это в ваш бизнес и спокойно делать дорогие операции, понимая что к моменту выхода в продакшн и скейлинга, цена уже станет адекватной. И учитывайте в ценообразовании, разумеется
3) Социально-экономическая ценность линейно растущих способностей ИИ - суперэкспоненциальна. Поэтому выгодно экспоненциально инвестировать в его развитие.
Далее он рассуждает про, как раз, coding агента. Скажу честно, когда Сэм тизерил в ближайшее время их первого агента, в твиттере я предположил, что это будет coding, но оказалось deep research. Но я жду :-)
И было очень приятно читать про важность agency и желания что-то менять, имея в армии миллионы PhD —> именно про это в воскресенье я говорил на лекции в Алматы. Скоро выложу видео
YC конфа
В июне YCombinator устраивает конференцию: участие бесплатное, но нужно пройти отбор. Это исключительно для computer science людей, так что если вы таковой, то смело подавайтесь. Будет Илон, Сэм, Карпатый, Наделла и другие топовые чуваки
https://events.ycombinator.com/ai-sus
Кстати, даже оплачивают $500 на билет
Voice Агенты
Отличный обзор voice агентов от a16z, де факто продолжение этой статьи.
Мне особо зашла картинка эта про основные юзкейсы:
1) обработка звонков в нерабочее время
2) звонки, которые не делаются, по экономическим причинам
3) бекофис звонки
4) звонки, которые «стремно» делать :-))
Митап в Алматы
Я буду в Алматы в конце недели: добавляйтесь в эту группу, кто хочет встретиться - можем сделать небольшой митап в воскресенье 9го февраля
OpenAI Deep Research
Я выше писал про Gemini Deep Research, вот и ответ OpenAI с таким же названием o__O
Попробовал на той же задаче с конкурентным анализом + на задаче поиска subscription бизнесов, о которой также писал недавно - мои впечатления:
1) В Google мне понравилось, что перед стартом он показывает план ресерча и позволяет тебе скорректировать. OpenAI же этого не делает, но уточняет детали: а ля бизнесы в какой локации искать или по какому аспекту сравнивать конкурентов.
2) Я понимаю все про загрузку и тп, но у Google все работало гораздо быстрее и без ограничений а-ля "ваш ресерч поставлен в очередь"
3) Результат OpenAI мне очень понравился, вышло сильно глубже и качественнее, чем Gemini. Думаю, что это потому что он реально "прочитывает" страницы. Google наверняка берет из своего индекса. Правда, при экспорте в CSV он почему-то потерял 2/3 результатов по задаче с поиском бизнесов, ну это проблема уже не DeepResearch. Конечно, экспорт у Gemini сразу в Google Docs сильно удобнее
4) Gemini быстрее решал такие же задачи раза в 3-4, но, опять же, возможно из за пункта про "прочитывание".
В общем, это хорошо, но не вау имхо. Все это в той или иной степени уже было у конкурентов или open source; даже в o3-mini + web search можно было получить схожие результаты
Сизифово счастье
Камю как-то сказал, что Сизифа следует представлять счастливым. Вы наверное помните про Сизифа, который катит в гору тяжелый камень, который, едва достигнув вершины, скатывался вниз. Мне предпринимательство порой представляется таким же.
И я заметил, что многие вокруг считают Сизифа несчастливым или сумасшедшим: близкие и не очень люди. Пытаются помочь, перенаправить, убедить делать другое, пожалеть.
Хотя, может, как завещал Камю, нам просто следует считать Сизифа фаундера счастливым?!
Неожиданно о дешевом искусственном интеллекте
Неожиданный кейс: допустим, вы автоматизируете LinkedIn-рассылку, а у человека в имени указана англоязычная версия (например, "Heng (Henry)"), произношение ("Burcu (Bur-ju)") или даже эмодзи (да, некоторые реально используют эмодзи в имени на LinkedIn).
Дешёвые модели могут легко исправить это с помощью простого промпта:
Given the prospect's first name from LinkedIn profile, return the most appropriate name to use in a message. If the name is not clear, return the first name only. Return only the name, no other text. First name: {name}
3 года. От идеи до запуска прошло 3 чОртовых года. 2 войны, переезд и куча других приключений.
WIP is a community-driven recruitment platform that minimizes hiring time and errors using the unique blend of Web3-tech, behavioral and monetary incentives for companies & talents.
С промокодом EDU20 скидка $80 на оплату stake.
Приколы LLM программирования
Меня иногда так бесит писать всякие if <api result> is None и тп подобные обороты, чтобы защищаться от неверных или неполных ответов всяких апишек. Сегодня поймал себя на таком: вместо того, чтобы вновь писать генерить все эти проверки и потом безопасно проверять значение ответа на какое-то условие (например, индекс цитирования больше определенного значения) я просто отправляю это в R1 и прошу ее просто сразу дать ответ про индекс. Код становится таким чистым и простым.
Даже не знаю, к добру это или нет, но мне понравилось :)
response = client.chat.completions.create(Читать полностью…
model=DEEPSEEK_R1_MODEL,
messages=[{"role": "user", "content": f"Is researcher's Google Scholar h-1 index over 10 or not? Respond with 'Yes' or 'No'. Researcher's Google Scholar profile: {researcher_profile}"}],
max_tokens=10,
)
Видео-отзыв одного из участников - Айбека - про его опыт прохождения школы фаундера
1) Value vs Price vs Cost
2) Jobs to be done
3) Не бояться запускаться
4) Сначала продавать
5) Не придумывать, а учиться у пользователей, что им нужно
Если вы тоже на этапе запуска или уже есть первый traction, то присоединяйтесь к 3му потоку