14671
Привет! Я Леша Хахунов, основатель Dbrain.io, и это мой канал про искусственный интеллект.
Заглянул на арену GPT. Если вы там не бываете, но интересуетесь борьбой GPTs - рекомендую заглядывать: [https://chat.lmsys.org/?leaderboard]
Интересные новости:
1. OpenAI все еще (или снова) лидирует, оставаясь единственной с ELO оценкой 1300+. Вообще каждый раз ощущение, что у них есть модель на порядок умнее, но релизить они ее будут только, когда другие покажут что-то достойное против текущей модели.
2. Впервые зашел в раздел тестов на русском языке – здесь Google сопоставим с OpenAI. Кто-нибудь знает, как было раньше?
3. Опенсорсные модели от Meta и Mistral близки к "прошлому" поколению моделей, которым 3-5 месяцев.
Про опенс сорс прикольно — эти модели требуют много вычислительных ресурсов, но и возможностей у них достаточно.
Также ждем полноценного релиза Grok 2 от Маска (последний раз оценка была 1281).
Вообще фан иногда "поиграть" в арену. Можно тут:
https://chat.lmsys.org/
И если вы не знаете как работает ELO score, короткое объяснение:
ELO рейтинг в LMSYS Chatbot Arena рассчитывается на основе парных баталий между моделями, где пользователи голосуют за лучшую, по их мнению, модель. После каждой баталии рейтинг моделей обновляется. Если модель с более высоким рейтингом проигрывает, она теряет больше очков, чем если бы выиграла.
@aihappens
Регулярно сталкиваюсь с комментариями в фб о том, что AI — это пузырь, и в отрасли наступила "зима". Решил покопаться в числах и сравнить "классические" бизнесы с компанией OpenAI на фоне текущего рынка. Взял компании, близкие к AI, и добавил супер параметр — Value/Revenue, который показывает, как заработок компании соотносится с её оценкой.
Справочно:
- B — миллиарды
- Revenue — все получаемые деньги
- Market Cap — по какой оценке можно купить долю в компании
Хронология:
- В конце 2022 года оценка компании OpenAI составляла 10B$ (на самом деле меньше, но опустим этот факт).
- Май 2023 года: Revenue — 1.6B$.
- Май 2024 года: Revenue — 3.4B$.
- Market Cap 2024 года — 80B$.
- Value/Revenue ≈ 25 (скорее ближе к 20).
Сравним с рядом стоящими гигантами:
- Meta:
Market Cap — 1.33T
Value/Revenue — 8.76
- Nvidia:
Market Cap — 2.90T
Value/Revenue — 36.16
- Amazon:
Market Cap — 1.79T
Value/Revenue — 3.03
Пу-пу-пууууум. Ну коэффициент высоковат, но учитывая, что это частный бизнес, являющийся топ-1 в индустрии, он не выглядит драматично. Поискал данные по perplexity и Midjourney, там все непонятно. В Midjourney была инфа, что выручка около 200М$, оценки не было, а работает всего 11 человек. А у perplexity 35M$ выручки и 1B$ оценка.
К этому надо добавить, что в текущий момент вся история в LLM/GPT - проходит стадию лишь early adopters, то есть в среднем только 2-3% населения так или иначе используют эти технологии. Посмотрим как на это повлияет Apple, так как Google явно не справляется :)
@aihappens
Мне очень сложно с моими постами. Одни кажутся мне слишком простыми, другие — слишком сложными для чтения. Иногда я думаю, что мои мысли и опыт в среднем бесполезны для людей (зачем знать и думать про проблемы технологических предпринимателей?), а иногда мне кажется, что я пишу слишком скучно. Был момент, когда я делал опрос: "А что вы вообще хотите здесь видеть?"
В последние дни у меня сформировался вывод, который изменил мое отношение. Я веду этот канал не для вас, а для себя. Вам интересно его читать, потому что я пишу о том, что интересно мне. Мне не нужна валидация моих идей, я не хочу зарабатывать деньги на канале. Я хочу рефлексировать здесь, постить мемы, репостить людей, которые мне интересны. Делать все это с глубоким кайфом, делиться такими наблюдениями, как это и не думать "блин, у меня в названии стоит AI, а это не он". Принимать, что какие-то посты будут приводить к оттоку аудитории, а какие-то — набирать сотни репостов. Эта попытка ориентироваться на внешние реакции и приводила к тому, что я бросал писать здесь. Сил не хватало. Посмотрим, насколько меня хватит в этот раз. ❤️
Как вам уровень генераций современных моделей с ценой в 1$? Хотите проведем тест AI или настоящее? :)
@aihappens
Дошли руки до тестов Gen 3 Alpha. Оказалось, что получить нормально по физике видео очень сложно. Но вот вам видео коровы, которая вносит данные в arka.dev
@aihappens
Пересмотр позиции HRD: Внутренний фокус и философия
В современном корпоративном мире позиция HRD (Human Resources Director) остается одной из самых недооцененных и зачастую неправильно понимаемых ролей. Часто HRD воспринимается как человек, занимающийся исключительно рекрутингом — поиском, наймом сотрудников, проведением интервью, организацией перформанс-ревью и периодическим проведением тимбилдингов. Однако это только верхушка айсберга.
Глубинная роль HRD
Мое представление о ключевых обязанностях включают:
1. Развитие менеджерской команды: Это включает в себя обучение, коучинг и менторство, чтобы каждый менеджер мог раскрыть свой потенциал и внести вклад в общую стратегию компании.
2. Запуск новых процессов: Особенно важно управление кросс-командными проектами, где необходимо объединять усилия разных департаментов для достижения общих целей.
3. Создание безопасной среды: Организация индивидуальных и групповых сессий, где сотрудники могут откровенно делиться своими переживаниями и проблемами, что способствует улучшению внутренней культуры компании.
4. Обучение разрешению конфликтов: Это включает не только обучение сотрудников, как справляться с конфликтами, но и, при необходимости, их медиацию.
5. Формирование HR-бренда: Разработка и реализация стратегий, которые помогут компании быть привлекательной для потенциальных сотрудников и удерживать текущих.
6. Работа с удаленными командами: Понимание и решение проблем, связанных с удаленной работой, и создание способов поддержания «человечности» в онлайн-среде.
Философия и подходы
Фокус HRD, по моему мнению, должен быть направлен не только наружу, но и внутрь компании. Это означает активное участие в формировании корпоративной культуры, которая способствует развитию каждого сотрудника и команды в целом. Важность позиции HRD можно сравнить с советником генерального директора (CEO), ведь работа HRD напрямую влияет на успех компании через управление ее самым важным ресурсом — людьми.
Хоровиц писал - в компании важны люди, продукт, прибыль. Именно в такой последовательности. Я с этим полностью согласен.
Если ты вдруг тот HRD, что я описал выше - приходи работать ко мне, а то мой уходит в декрет.
А с чем из списка у вас в компании занят HRD?
@aihappens
Я смотрел интервью Лекса у команды Neuralink. Оно короткое — всем советую, я успел, правда, пока только 4,5 часа посмотреть. Пока слушал их рассказ, вспомнил, что давно хотел написать пост на тему “ думания из первых принципов”.
Думать из "первых принципов" (first principles) означает:
1) Разбивать сложные проблемы на базовые, фундаментальные элементы.
2) Отбрасывать предположения и общепринятые идеи.
3) Анализировать ситуацию с нуля, опираясь только на неоспоримые факты.
4) Создавать новые решения на основе этого фундаментального понимания.
Давайте на примере — вы проект-менеджер в компании. У вас есть процесс — ежедневные звонки с командой. Догматичный подход: всем командам надо созваниваться каждый день, иначе всё сломается, и телега никуда не поедет.
В варианте думать и понимать, зачем вообще это было нужно. Какую проблему для нас решает синк? Это может быть про эмоциональный контакт с командой? Может, мы не умеем писать документацию, и поэтому говорить нам проще? Или, может быть, наш проект-менеджер хочет маниакально контролировать всё, и когда есть звонки, он спит лучше? Разобравшись с этим, можно понять, как мы можем поменять синк или создать что-то вообще заместо него. Но чаще я вижу, как люди строят процессы из состояния — ну, так правильно, я видел, так делали (или в книжке так писали).
Раз наш канал про ИИ, то вот как можно использовать GPT, чтобы думать из первых принципов. Рассуждая на тему того, куда поставить в комнате батарею — на полу или на потолке, вы можете начать думать, не ради ли дизайна её ставят снизу. Тут вас и спасет GPT — задайте вопрос: “А почему это было сделано так?”. Маск где-то точно говорит, что “только физика — это ограничение (точнее даже закон)”. Батарея снизу — потому что холод в комнате снизу, а тепло сверху.
И мне кажется, что на этом подходе стартапы выигрывают у корпораций, переизобретая из первых принципов привычные вещи вокруг. Будь то телефон, заказ такси или нейроимпланты в мозг. Надеюсь когда-то переизобретут и государство.
А что вам кажется, что пора перепридумать и как?
@aihappens
То ли я дурак, то ли моделей GPT-4😮 черт знает сколько, но в официальном письме от OpenAI сказано, что модель знает информацию до октября 2023 года. В веб-браузере, где мне (ура!) сразу выдали эту модель, она знает до начала 2022 года. Простой тест на финал Лиги Чемпионов 2023 года (лето 2023) модель пошла гуглить.
Но вообще новая модель просто восторг. Казалось бы, простая продуктовая фича - скорость ответа - меняет качество диалога настолько, что это сложно передать словами. Бомба.
@aihappens
Сегодня была весенняя презентация OpenAI.
Я поначалу думал стримить сюда все, что там происходит, но решил, что это все же слишком для гиков и лучше соберу для вас главное. А рассказать есть о чем:
Первое и самое главное для многих - новая модель GPT4o будет доступна без регистрации и бесплатно.
Второе - новая модель по сути очень близка к привычному нам человеку. Видит, слышит, реагирует быстро, отвечает голосом и даже с эмоциями! (Пока не очень понятно, как на языках, отличных от английского, посмотрим).
Третье - приложение для вашего ПК, куда вы можете стримить части своего экрана и говорить с ассистентом о своих вопросах прямо в реальном времени, как с человеком.
Последнее - все это доступно через API, дешевле, быстрее, ну и вот это вот. Вы поняли.
Когда все это ждать у себя? Да хер его знает. Обещают через 2 недели, но я думаю, что снова будет постепенно и не для всех.
фул видео
фул статья
@aihappens
Как я историю чата обрабатывал с помощью GPT моделей с шокирующим результатом! (детям не смотреть).
Дано:
Чат, где сейлз команда задает вопросы тех команды.
Total Messages: 3848
Total Characters: 417353
Русский язык.
Хотим получить FAQ - самые частые вопросы и ответы, чтобы добавить их в документацию.
Число токенов в начальном запросе около 450к, в общедоступные модели нормально не впихуивается. Что делаем?
шаг 1 - вычищаем json выгрузку из тг от всего кроме Отправитель:Сообщение и конвертим данные в txt формат с помощью GPT4.
шаг 2 - открываем google translate и пихаем туда файл для автоперевода
на этом этапе вместо 450к токенов получаем около 100к токенов, значит уже влезают в большинство моделей.
шаг 3 - берем в Poe Claude 200k и пихаем туда файл с задачей собрать FAQ на основе переписки.
шаг 4 - радуемся!
ни-хе-ра....Opus обрабатывает данный супер криво. Очевидно, что проблема неравномерного внимания к началу\концу относительно середины встала во весь рост. Ну ладно, у нас же Poe в руках, давай пихнем этот же запрос в Gpt4-128k. ВУАЛЯ!
СНОВА ВСЕ ПЛОХО!
шаг 5 - удаляем все GPT модели, нанимаем аналитика, пусть руками разбирает все.
ладно, случайно по рекомендации Poe жмем кнопку повторить запрос в Gemini-1.5-Pro-128k, модель от Google в которую веры 0. И бинго! Она делает классную структуру, читает явно все, и сама даже делает красивую разметку ответа на FAQ. А мы в них не верили.
@aihappens
В чём проблема с добавлением новых данных в GPT-модели?
Возможно, вы заметили, что с каждым обновлением продвигается дата "knowledge cutoff" — момента, до которого модели знают, что происходило в мире.
Какова же проблема? На самом деле, существует два этапа при обучении моделей:
1) Создатели собирают всевозможные данные из интернета, тратя сотни миллионов на обучение модели.
2) Создатели собирают основные новости по разным направлениям и делают дообучение модели.
ChatGPT Knowledge Cutoff — 12/23, Opus — 8/23.
Какие последние версии библиотеки python-telegram-bot знают сети:
GPT-4 — 13.12 (выпущено 2022-05-26), Opus — 20.3 (выпущено 2023-05-07).
Версии библиотек — это самый простой пример, хотя OpenAI и GitHub, находясь в одной компании, могли бы постараться сделать больше! Если вы погрузитесь глубже в любые вещи за пределами новостей, ситуация будет такой же. Статьи, мемы в интернете и т.д.
Проблема здесь в том, что собирать массу новой информации и делать incremental learning на текущий момент почти нереально, насколько я знаю - технически эта задача не решена, а это на самом деле достаточно сильно ограничивает области применения моделей, особенно в написании кода и в индустриях, где все меняется очень быстро (условный маркетинг в интернете, где хуки, работающие год назад, становятся совершенно не актуальны). Такие дела.
@aihappens
ну и еще (не пропустите пост выше) - дядюшка Сэм был на втором месте лучших моделей меньше недели. Новая модель OpenAI снова в топ "человеческого" лидерборда. Смотреть тут. Я думаю у них в загашнике есть модели и покруче текущей. И кстати - теперь дата обновления знаний конец 2023 (был апрель).
@aihappens
Почти год лидером среди открытых решений для распознавания речи был Whisper от OpenAI. Но теперь пальму первенства среди API сервисов перехватила новая модель Universal-1 от AssemblyAI.
(я постестил на длинном звонке - работает правда хорошо. Можно 100 часов бесплатно потестить)
Universal-1 превосходит Whisper и другие коммерческие решения по нескольким ключевым параметрам:
Качество: на 10% и более точнее распознает речь на английском, испанском и немецком языках в сравнении с лучшими протестированными аналогами. При этом генерирует на 30% меньше некорректных вставок слов (так называемых "галлюцинаций") на обычной речи и на 90% - на фоновых шумах.
Скорость: в 5 раз быстрее благодаря оптимизации архитектуры и распараллеливанию инференса. Теперь 1 час аудио обрабатывается всего за 38 секунд на одном GPU.
Многоязычность: умеет распознавать речь сразу на нескольких языках в рамках одного аудиофайла (code switching).
В 71% случаев пользователи предпочитают транскрипции Universal-1 по сравнению с предыдущей моделью Conformer-2.
Новая версия Universal-1 уже доступна клиентам AssemblyAI через API. Похоже, лидерство в гонке решений для speech-to-text переходит от открытого Whisper к проприетарному Universal-1.
Учитывая такой технологический рывок, теперь AssemblyAI может составить серьезную конкуренцию гигантам вроде OpenAo, Google, Amazon и Microsoft на быстрорастущем рынке Speech AI.
Классный блог-пост про модель Sora.
https://openai.com/blog/sora-first-impressions
Лучшим (по мнению компании OpenAI) художникам предоставили ранний доступ к модели, чтобы получить обратную связь о ее работе, и знаете, какой основной был фидбек?
"ААААА, ОНА УБЬЕТ НАШУ РАБОТУ!!!"... Нет.
Working with Sora is the first time I’ve felt unchained as a filmmaker,” he states. “Not restricted by time, money, other people’s permission, I can ideate and experiment in bold and exciting ways.”
Генеративные модели расширяют возможности профессий, снимают ресурсные ограничения и бесконечно усиливают тех, кто проявляет к ним любопытство.
@aihappens
Ян Лекун шарит:
Язык имеет низкую пропускную способность: менее 12 байт/сек. Человек может прочитать 270 слов/минут или 4,5 слова/секунду, что составляет 12 байт/с (предполагая 2 байта за токен и 0,75 слов за токен). Современный LLM обычно тренируется с двухбайтовыми жетонами 1x10 ^13, что составляет 2x10 ^13 байт. Это займет около 100 000 лет для чтения (по 12 часов в день).
Зрение гораздо выше пропускная способность: около 20 МБ/с. Каждый из двух оптических нервов имеет 1 миллион нервных волокон, каждый несет около 10 байт в секунду. 4-летний ребенок не спит в общей сложности 16 000 часов, что означает 1х10 ^15 байт.
Другими словами:
- Пропускная способность данных визуального восприятия примерно в 16 млн раз превышает пропускную способность данных письменного (или разговорного) языка.
- Всего за 4 года ребенок увидел в 50 раз больше данных, чем самые крупные LLM, обучаемые по всему тексту, доступному в интернете.
Это говорит нам о трех вещах:
1. Да, текст излишен, а визуальные сигналы в оптических нервах еще лишнее (не смотря на 100-кратные сжатые версии выходов фоторецептора в сетчатке). Но избыточность данных — это *точно* то, что нам нужно для Самоконтрольного Обучения для улавливания структуры данных. Чем больше избыточности, тем лучше для SSL.
2. Большая часть знаний человека (и почти все знания животных) исходит из нашего сенсорного опыта физического мира. Язык - это вишенка на торте. Нам нужен торт для поддержки глазури.
3. Нет *абсолютно ни за что* мы никогда не достигнем ИИ на человеческом уровне без того, чтобы машины обучались на сенсорных входов с высокой пропускной способностью, таких как зрение.
Да, люди могут умнее без зрения, даже довольно умнее без видения и прослушивания. Но не без прикосновения. Прикосновение тоже довольно высокая пропускная способность.
@aihappens
Я ненавижу компании, которые злоупотребляют нашим дофамином. Соцсети, рилсы и тиктоки, мобильные игры, маркетплейсы. Особенно мне не нравится, что от них страдает самая незащищённая часть населения — подростки. Недавно было проведено большое исследование, и его краткий вывод таков:
“One of the notable trends we observed was a sharp rise in the rates of anxiety, depression, and stress in adolescents and young adults over the past 20 years. Rates increased by more than two-fold for those aged 16–24, and understanding what is underlying these patterns is of critical importance.”
[Источник]
Но пост будет не про это. Я хочу рассказать про компании, которые через взлом дофаминовой системы как будто ломают проблему моего поколения. И это трекеры, которые следят за вашим здоровьем — часы, браслеты, кольца, матрасы. Чего только нет, но если задуматься, это же просто замещающий способ проявления заботы о себе. И я сам — самый яркий представитель этого. Мне очень сложно нормально спать. У меня сбивается цикл, я сплю по 6 часов, засыпаю с телефоном и ем перед сном. Но как только у меня на руке появляется Whoop или Oura — всё, спать плохо нельзя. У меня будет низкий балл. А у нас в Whoop есть команда менеджеров, и там видно, кто как восстановился. Это вообще жесть. Социальное давление за твой отдых! Очень круто, хоть и хочется научиться давать себе внимание и заботу без этих девайсов, но пока ладно — абьюзьте меня полностью.
@aihappens
Выбирая тему для сегодняшнего поста из папки, выбор стоял между:
1) Презентацией Google с обзорами самых лучших, самых быстрых и самых умных моделей и нового телефона,
2) Рассказом про новую слабоцензурированную LLM от Маска,
3) Обсуждением важной для меня проблемы, которую я пока боюсь обсуждать публично.
Как вы понимаете, обсуждать мы будем пункт 3. Итак, рядом с облаком тегов вокруг моего имени предлагаю добавить новый — «маскулист». Скорее всего, вы не слышали это слово или слышали его в качестве обзывательства от феминисток. Хотя в нём нет ничего плохого — это человек, который борется за права мужчин.
Женщины, любые мои читательницы, перед тем как начать писать мне разные неприятные вещи, прошу дочитать этот пост до конца. К чему я это всё. Последний год ко мне пришло осознание, что в обществе очень часто поднимаются проблемы женщин. Они существуют в нашем сознании, мы пытаемся что-то изменить вокруг нас. Но проблемы мужчин почему-то в это пространство (по крайней мере в моё) практически не попадают. Я пару раз пытался вступать в дебаты вокруг этой темы и понял главную ошибку — я не хочу сравнивать «тяжесть» или «важность» проблем разных полов. Мне кажется, это просто не требуется. Их надо формулировать не вокруг того, «кто виноват», о них не надо спорить, их хочется просто поднимать. И я хочу начать.
Хочу поделиться некоторым количеством статистики:
1) Мужчины совершают самоубийства почти в три раза чаще, чем женщины (по данным Всемирной организации здравоохранения). В РФ в 6 раз.
2) В 2019 году ожидаемая продолжительность жизни у мужчин составляла 73,2 года, что на 5 лет меньше, чем у женщин (78,2 года).
3) Мужчины в два раза чаще страдают алкогольной зависимостью, чем женщины (по данным Национального института по проблемам злоупотребления алкоголем и алкоголизма).
4) Более 90% убийц в мире — это мужчины (по данным ООН).
5) Мужчины в 1,5–2 раза реже обращаются за психологической помощью, чем женщины (по данным NHS).
Как вам? Мне страшно. И, как будто, об этом стоит же говорить, нет? И я повторюсь — мне не нужно противопоставлять этой информации проблемы женщин, пожалуйста. Я не хочу этой информацией влиять на вас. Я лишь хочу, чтобы все люди — и мужчины, и женщины — имели возможность озвучивать свои проблемы. И я считаю, что из-за норм поведения сложившихся в обществе мужчинам нужно помогать говорить, потому что нас учили, что нужно терпеть, нужно тащить, нужно страдать. Ныть нельзя, ты же не нытик. А потом выходить в окно или пропасть в зависимости.
Сил вам, мужики, да пространства где можно поплакать и не чувствовать себя в этом ничтожеством.
@aihappens
У меня есть курс про GPT: gptcourse.io, на нём обучалось множество компаний разных размеров — от 10 человек до 1000. И я заметил одну интересную закономерность, имеющую много общего с жизнью.
Сначала небольшое отступление: я считаю, что GPT — это технология, которая должна интегрироваться в первую очередь не на уровне процессов, а на уровне обычных людей. Каждый может найти способы разгрузить свою жизнь с её помощью СВОИМ конкретным способом. И то, произойдёт это или нет, по моим наблюдениям, коррелирует с одной простой метрикой: насколько топ-менеджеры вовлечены в процесс. Очень часто я слышу запросы формата "научите моих сотрудников уму-разуму". На логичный вопрос, а последуете ли вы за ними, часто следует ответ: "НЕТ".
Почему я считаю, что это сильно коррелирует с жизнью? Для меня это сродни родителям, которые учат детей не курить, при этом выкуривая пачку в день. Это создаёт асимметрию. Дети проникаются увлечениями, привычками и ценностями тогда, когда их родители когерентны с этими принципами.
А у вас как, лидеры действуют со всеми или отдельно?
@aihappens
Как бы научиться отдыхать?
В общем я на теоретическом уровне супер разобрался с тем, как на самом деле давать отдых себе. И нет - это не просто про надо поменять вид деятельности. Снизу читай в чем для меня с этим проблемы. Делюсь:
1. Отсутствие ответственности:
- Работает. Временное освобождение от обязанностей и ответственности позволяет снизить уровень стресса и психического напряжения. Отдых с дополнительной ответственностью? Не уверен. Лежать у моря, где тебя кормят? Да, если ты так можешь.
2. Контакт с природой:
- Работает. Пребывание на свежем воздухе и взаимодействие с природой действительно способствует снижению стресса. Контакт с водой, лежание на земле, смотрение на горы и любые другие формы плентинга.
3. Качественный сон:
- Работает. Оптимизация сна является одним из наиболее важных аспектов полноценного отдыха. Качественный и достаточный сон помогает восстанавливать физические и психические силы, улучшает когнитивные функции и общее самочувствие. Про это писал уже много постов.
4. Избегание дофаминовой перегрузки:
- Работает. Ограничение чрезмерного потребления цифрового контента, социальными сетями и другими стимулами, которые перегружают дофаминовую систему, может помочь избежать нервного истощения и улучшить способность отдыхать.
5. Любые способы контакта с телом:
- Работает. Йога или медитация, баня или холодная купель, массаж или просто объятия с партнером. Все что переключит ваше внимание с логических рассуждений в тело.
А теперь, в чем у меня тут проблема. Чем хуже у меня состояние, тем хуже я отдыхаю. Я не понимаю, как с этим справиться. Как только уровень тревоги увеличивается, 3/4/5 отваливаются сразу, и возвращаться к этому очень сложно. А как ты провел субботу?
@aihappens
Как я обращаюсь с деньгами
В моей семье никогда не умели обращаться с деньгами. Они как-то появлялись, как-то тратились. Основной принцип был прост: работать так, чтобы хватало на то, что нужно. Но что именно нужно и кому, это никогда не уточнялось. С этой установкой я и вошел в сознательную жизнь.
Со временем я понял, что с этим надо что-то делать, и разработал для себя стратегию, которую опишу ниже.
Первая часть: Логика откладывания
Я постоянно оцениваю свой «уровень финансовой безопасности». Чем он выше, тем больший процент от своего дохода я откладываю. В данный момент мой максимум (совпадающий с текущим) составляет 30%, но моя мечта — достичь 50%. Кажется про это было у Баффета: «Не копите то, что остается после трат, а тратьте то, что остается после сбережений».
Вторая часть: Как обгонять инфляцию в своих накоплениях
Здесь все просто: криптовалюта, акции и валюта расходов. Для меня криптовалюта не является источником спекуляции и заработка, а лишь максимально ликвидным вариантом денег, который я могу использовать в любой стране. Акции я покупаю, исходя из принципа «хай-тек + 2-3 индустрии, в которые я верю в данный момент». Сейчас это металлургия, так как в мире напряженная обстановка, и все пытаются воевать со всеми, а танки строить нужно, и биотехнологии. Рынок сейчас благоприятный, и это дает 15-20% в год. Крипта — это эфир и биткоин. Валюта — облигации Нидерландов. Распределение: 50% акции, 25% крипта, 25% валюта.
Третья часть: Дисциплина
Дисциплина — самая сложная часть. Каждое первое число месяца, вне зависимости от обстоятельств, я докупаю все вышеописанное. Я не задумываюсь, упали ли акции или что происходит с криптовалютой, я просто покупаю. Это избавляет от тревоги и постоянного мониторинга ситуации.
Мечта о будущем
У меня есть мечта — создать удобный способ управления деньгами для сотрудников внутри компании. Представьте, что вы можете попросить перевести 20% зарплаты в инвестиции, видеть отчеты и получать полный расчет при увольнении. Это было бы действительно круто, не так ли?
@aihappens
Недавно вышла новая большая модель от Meta — LLama 3.1 405B. Эти цифры означают, что у неё 405 миллиардов параметров. Запускать такие модели на собственном компьютере — дело неблагодарное, но протестировать самую мощную модель, доступную в опенсорсе, очень хочется. Что делать? Тестировать её в POE!
Мои стандартные тесты:
1. Написание сейлз писем (русский \ английский).
2. Коррекция моих кривых текстов (русский \ английский).
3. Написание Telegram-бота на Python.
4. Коучинг \ редактура эмоционального окраса сообщений.
5. Поисковый запрос (на этот раз я просил порекомендовать, где искупаться между Дюссельдорфом и Амстердамом).
Во всех задачах я измерял мой непредвзятый уровень удовлетворенности.
Участники эксперимента: GPT-4o, GPT-4mini, LLama 3.1 405B, Gemini 1.5 Pro, Claude 3.5 Sonnet.
Лист победителей:
1. GPT-4o: 89%
2. GPT-4mini: 84%
3. LLama 3.1 405B: 81%
4. Gemini 1.5 Pro: 93%!!!!!
5. Claude 3.5 Sonnet:85%
После этого я решил проверить,а что там на Арене ЛЛМок - и там тоже лидирует гугл(хотя я думаю это разные модели). Кажется они забыли, что такое хороший пиар, иначе свою не информированность мне объяснить сложно. Но да - модель остается ужасно цензурированной и в сравнении с лламой доступной в версии без цензуры это выглядит грустно.
@aihappens
Вчера прошла презентация Apple, на которой рассказывали о том, как большинство людей будут использовать AI (любая другая аудитория любых GPT моделей меньше количества активных iPhone). На 2024 год в мире насчитывается около 1,334 миллиарда активных пользователей iPhone.
Обзор всех "фич" можно почитать, например, тут: [vc.ru]. По моему субъективному мнению, ключевых две:
1. Siri теперь стучится в ChatGPT для решения вопросов. Отправлять туда будет не только текст, но и картинки, и, предполагаю, видео. Вроде будет уточнять, ок ли тебе это.
2. Запили свою модель, которая будет работать на девайсе с данными без интернета.
Теперь мысли:
1. Вообще не ясно, как неконкуренция относительно Apple - OpenAI будет работать. Если даже 100 миллионов человек начнет пользоваться моделью GPT-4о и Apple видит вход-выход, то обучить свою станет очень просто.
2. Мне с этими моделями, видимо, павербанк лучше сразу не вынимать? Новый iPhone 15 Pro умирает у меня ровно за сутки. Если даже на М процессорах сетки, например, в камерах убивают аккумулятор, то что будет с кучей фоновой работы, я боюсь представить.
3. Что будет с Siri, которая распознает голос? Их старые модели? Если да, то с английским будет все ок, а с другими может быть не очень.
Отдельно хочу сказать про "вой", что Apple украдет ваши данные. Мне кажется это а) глупо, б) популистски. Почему я так считаю:
1. А кто вообще лучше Apple защищает ваши данные из крупных игроков? Вы давно пробовали покупать таргет рекламу? Там Apple отдает наружу ровно ни-ху-я, как говорит Тиньков. Все действительно у вас на устройстве и зашифровано.
2. Также там был интересный блок про Private Cloud Compute. О чем это вообще? Это говорит, что с вашего устройства в облако (не в OpenAI) Apple будет уходить недешифруемый кусок данных. Давно ждал, когда такие вещи начнут использовать крупные игроки.
@aihappens
Примеры возможностей нового GPT4o ассистента – серьезно, фильм "Her" теперь реальность
Читать полностью…
💜 шанс повидаться и поговорить про GPT
запланировали сделать лекцию вместе с бизнес-медиа Справочной. Пройдёт 14 мая ака завтра в 17:00мск (16:00 CET), зарегистрироваться можно в боте. На лекции посмотрим на практические кейсы из моей жизни. Приходите, буду рад вас видеть.
Смешная история!
GPT очень любит слово "delve" (англ. "копаться") в текстах. Это слово стало встречаться в десять раз чаще во многих публикациях, включая медицинские. (см твиты)
Причиной этого стало его большое распространение в англоязычных странах Африки, где работает большинство разметчиков моделей GPT.
Вот так культурный контекст переносится через океаны и континенты.
@aihappens
Тестируем разные форматы с @Matskevich. Подкасты сложно делать, долго монтировать. Новый формат! Записали два видео про разборы кейсов с GPТ, держите первое. В нем мы обсуждаем и смотрим кейсы из инсты + рассказываю как работает suno и мы генерим бомбический трек (он будет ниже, послушайте!).
Читать полностью…
Год я исследую вопрос - как научить людей пользоваться GPT моделями (тут остались те, кто считает это бесполезным навыком?). Главный вывод такой:
Нужно не давать сложные промпты, замороченные примеры дообучения опенсорс моделей или информацию о том, как работает векторный поиск, а нужно закрыть для человека базовые проблемы: доступы, простые бытовые примеры, азы того, как это устроено, и познакомить со всеми функциями внутри (со всеми не знаком, мне кажется, никто). Казалось бы - если это дать, то точно все получится! Но ни-хре-на. Часто, чтобы учиться и меняться нам еще нужны другие люди :)
Из этого концепта появился gconf.io - интенсив, где ты изучаешь все про GPT вместе с хорошими людьми (еще есть много инфы тут @gptlovers). Мы его придумали с Олей Маркес и Димой Мацкевичем, где они помогают сдерживать мою гиковость, за что я им очень благодарен.
Мы провели этот формат в прошлом году, и отзывы были супер. В этом году мы часть вещей поменяли - контент записан сразу, и на звонках только обсуждаете и решаете задачи. Появились мини-клубы:
·помогающие профессии
·контент
·автоматизация личных дел
·про детей, семья
·как найти партнера
Которые проводим даже не мы, а приглашенные фасилитаторы и участники с прошлой конференции.
В общем, сообщество и формат меняются, и туда еще можно запрыгнуть. Ближайший интенсив начинается 15 апреля, будем тебя ждать на нем.
@aihappens
миджорни перестанет быть доступным только через дискорд (с которым у всех было кууууууча проблем). Ну и наконец мне куда-то прислали early access!
Еще чуть-чуть и дадут промпты писать на человеческом языке, а не по их сложным шаблонам.
Хочется попробовать предсказать будущее; Чтобы понять, что будет с ИИ в ближайшие годы, давайте взглянем на ожидаемые тенденции:
- От GPT-3 к GPT-4, а потом к GPT-5. Это как переход от лошадиной тяги к автомобилю, а затем к беспилотникам (которые, к слову, ещё не стали повседневной реальностью). То есть должны быть действительно качественный переход, а не просто быстрее разгон или меньше расход;
- Вот как выглядят модели в цифрах (весах): GPT-3 имеет 0,18 триллиона параметров, GPT-4 — около 1,7 триллиона, а у GPT-5, скорее всего ждем, будет порядок 15 триллионов.
- Интересный момент: последние чипы от NVIDIA рассчитаны на модели с 27 триллионами параметров, что в точку соответствует нашим прогнозам.
Соответственно, я не верю в слухи о том, что модели следующего поколения выйдут в 2024 году, новые "патчи" - да, кардинально переходы - нет. Но готов поспорить, что увидим их в 2025. Еще раз - с качественным переходов пользовательского опыта.
А ещё вот вам интересный факт: крутое интервью с Сэмом Альтманом, которого я считаю ключевой фигурой в мире технологий, за два дня посмотрели всего миллион человек. И это при том, что интервью на английском. Странно, правда?
(линк интервью)
@aihappens
Хорошие специалисты на помойке не валяются. Поэтому ищем здесь. Помогайте искать (пожалуйста)
Ищем специалистов в команду Dbrain. Если ты крутой менеджер проектов по интеграции (B2B API) или специалист техподдержки, пиши нашему HR-Яне в ТГ: @lupandina
Если ты SMM-щик и можешь сделать этот пост круче, а ещё продвинуть его и задизайнить в фигме, пиши нашему контент-райтеру Кристине:
kristina@dbrain.io
@dbrainfriends