boris_again | Unsorted

Telegram-канал boris_again - Борис опять

12936

life = curiosity + irreducible noise Whois: https://t.me/boris_again/1652 Лс: @btseytlin

Subscribe to a channel

Борис опять

Новый поиск в ChatGPT реально хорош.

На запросах вида "как приготовить куриный суп" выдача намного лучше, чем у Google. Просто по делу и не нужно продираться через стену копирайта.

Можно придраться только к цензуре. Поисковик который не хочет искать порно какие-то вещи на свое усмотрение это неприятно.

Но не все пока закрыто наглухо, торрент трекеры выдает :)

Читать полностью…

Борис опять

## Масштабы продаж

Издательство не может просто взять права на распространение, положить их на полку и ничего не выпустить. По договору они обязаны напечатать хотя бы один тираж. Размер этого обязательного тиража намекает на то, каких продаж можно ожидать. Как думаете, сколько? Ответ: 2 - 4 тысячи.

Если было продано несколько тысяч экземпляров, то книга считается бестселлером. Подавляющее большинство книг выпускается только в виде первого тиража, который потом утилизируется, потому что не продается.

Продажи книг это мир power law распределений: победитель получает все.

## Сроки

6-9 месяцев вы пишете рукопись. В процессе периодически показываете материал продюсеру от издательства, который дает обратную связь.

Вы сдаёте рукопись и 3-4 месяца идут редактура, корректура, дизайн обложки и прочее. Далее книга появляется в продаже. Примерно за месяц до этого начинается продвижение.

Пока что я пишу слишком медленно и не укладываюсь в сроки, что вызывает трясучку.

В случае самиздата, я уверен, все сроки умножаются на два.

———

В общем, со всех сторон план надёжный как швейцарские часы: денег не будет, продаж можно не ждать (но стремиться к ним я буду!), времени не много, а работы очень много. Зачем тогда? Потому что хочется сделать что-то стоящее и есть основания считать, что у меня получится.

Интересующимся очень советую эту серию постов на Хабре, где девушка описывает весь процесс написания, продаж и продвижения книги как раз по моей схеме от опенсорса к самиздату и до издательств. Она очень подробно разбирает все моменты, сравнивает предложения разных издательств и прочее прочее.

Читать полностью…

Борис опять

Наконец-то закончил работу над большим пет-проектом.

Я смог запустить Llama 3.1-8b прямо в браузере на cpu с помощью нашего нового алгоритма сжатия AQLM+PV.

Можно потестить демо здесь

видео

Читать полностью…

Борис опять

https://x.com/jack_frodo/status/1850577496082706722

Читать полностью…

Борис опять

Claude обновился, так что время протестировать его на единственном достойном бенчмарке: рисовании svg.

Напомню промпт:

Using SVG, draw a blue cube half behind a red cube on top of a yellow cube, with a purple cube in the background to the right


Читать полностью…

Борис опять

https://fxtwitter.com/KaiLentit/status/1848843623808540679

Читать полностью…

Борис опять

Хочу порекомендовать вам канал про инди-хакинг, который читаю сам: @its_capitan

Мне нравится как они в реальном времени показывают как разрабатывают, продвигают и сколько зарабатывают на запусках небольших-проектов.

Подборка постов, которые мне зашли:
- Пост про то, почему американцы платят $40 за простой конвертер картинок, который сделали за 4 недели несмотря на то, что вокруг полно бесплатных аналогов.
- Пост про то, как за 2 недели запустили темную тему с тарифами от $5 до $99. Четыре таких продукта пассивно приносят как зп среднего разработчика.
- Как все может грустно закончиться, если 2 года пилить сложный продукт, не показывая его рынку.

Здесь можно подписаться на канал, чтобы подглядеть за их запусками. А может, и попробовать сделать такой простой продукт самому)

Читать полностью…

Борис опять

Бро: я присоединился к стартапу

Стартап:

Читать полностью…

Борис опять

/channel/books_thoughts_trips/145

Читать полностью…

Борис опять

В связи с появлением аллокаторов памяти на LLM мы с другом придумали несколько перспективных продуктов:
1. requests_ai.post: отправляет HTTP запрос тело которого пишет LLM.
2. assert_ai принимает что-то на вход, внутри LLM проверяет что считает нужным.
3. AI менеджер процессов. Раз в минуту открывает ps aux и убивает процессы по своему усмотрению.
4. AI антивирус: проверяет каждый файл и делает с ним что хочет.
5. HTTPS, но тело запроса шифруует и дешифрует LLM.
6. AI менеджер паролей.
7. AI менеджер доступов. Меняет пароли и учетки на компьютере.
8. AI родительский контроль. Раз в час спрашивает тебя, что ты делаешь. 2 минуты на ответ. По результатам делает, что посчитает нужным, чтобы сделать тебя счастливым. Имеет полный доступ к компьютеру.
9. AI с доступом ко всем твоим банковским и инвестиционным счетам. Может оплачивать что угодно в интернете. Ты можешь тратить деньги только попросив его.
10. AI DNS: отправляешь ему имя домена, а он возвращает тебе IP адрес.

Читать полностью…

Борис опять

Goal Misgeneralisation от Deepmind. Spheres

Иллюстрация к пункту о том, что агенты могут плохо работать в продакшене, даже если были обучены на полностью корректных вознаграждениях, и преследовать нежелательные цели, даже при обучении с правильно заданной спецификацией (пост).

Красивый пример тут - это задачка «Spheres» из коллекции фейлов агентов от Deepmind - под катом

Читать полностью…

Борис опять

Шутка удачно зашла, хорошо, что я ее записал...

Читать полностью…

Борис опять

# Language Models Learn to Mislead Humans via RLHF

Давно было известно, что alignment техники отупляют модели. Можно было проследить как ChatGPT становится хуже с каждой версией по мере того как OpenAI закрывает найденные способы заставить ее сказать что-нибудь расистское.

В этой работе авторы изучают почему. Они тестируют способность людей верифицировать ответ модели за короткое время до и после RLHF alignment.

Оказывается, что после alignment:
- Фактическое качество ответов ухудшается.
- Однако людям кажется, что качество сильно выросло.
- Людям становится сложнее понять дала ли модель правильный ответ.

В какой-то момент моделям становится проще научиться дурачить людей, чем действительно сделать ответы лучше. Они начинают выдумывать авторитетно звучащую статистику, делать более стройные и хитрые аргументы за неправильные позиции и писать более сложный код, чтобы его было тяжелее проверить.

Здесь есть важный вывод по части безопасности. Если вы надеялись, что мы тренируем модели на человеческих текстах и они воспримут оттуда нашу этику, что врать не хорошо и все такое, то обломитесь. Они глупенькие и будут делать все, чтобы уменьшить лосс самым коротким путем.

ML это злой джин, который исполняет все желания, но не всегда так, как вам хочется.

RLHF все еще очень крутая штука, но нужно хитро придумывать награду, чтобы избегать такого поведения.

Читать полностью…

Борис опять

Дико смешно как ГПТ ботов корежит от постов про ИИ

Идея для пет проекта: сделать телеграм бота, который будет постить в канал простыню текста максимизирующую использование токенов, ждать первого комментария от гпт бота, удалять пост, постить снова, и так далее пока у господ ботоводов не рухнет экономика

Читать полностью…

Борис опять

Нейронная сеть Хопфилда

🏆 На этой неделе нобелевскую премию по физике дали Джону Хопфилду и Джеффри Хинтону за 

основополагающие открытия и изобретения, которые позволяют использовать машинное обучение с помощью искусственных нейронных сетей.


😲 Я, как и многие в моем окружении, сначала недоумевал, почему так и причем здесь физика. И решил заботать, что вообще такое нейронная сеть Хопфилда, и получил дикое удовольствие. Оказывается, что сама концепция заметно отличается от тех нейронных сетей, к которым мы привыкли. В этих сетях гораздо больше связи с физикой и биологией, чем в полносвязных/сверточных слоях.

🔬 Что это такое

В простейшем случае это однослойная нейросеть, в которой все нейроны соединены со всеми и каждый нейрон может принимать два значения (-1 и 1 - как знак заряда или спин). Поэтому текущее состояние сети легко нарисовать в виде бинарной картинки. При этом значение каждого нейрона определяется как взвешенная сумма остальных нейронов с пороговой активацией (здесь все похоже на обычный полносвязный слой).

Состояние сети зависит от весов и значений нейронов. Такому состоянию можно поставить в соответствие энергию. Если изменить значение нейрона или веса, это может повлечь за собой изменение остальных нейронов (возмущение). В начале существует простой способ подобрать такие значения весов, чтобы минимальное состояние энергии этой сети соответствовало каким-то заранее заданным паттернам.

🧠 Нейросеть как память

Таким образом, мы зафиксируем матрицу весов, соответствующую нашей текущей памяти. То есть процесс обучения сети Хопфилда - это один шаг (никаких градиентных спусков и итерационных алгоритмов - одна формула).

А потом можно возмутить состояние нейронов как угодно (при выученных весах это гарантированно приведет к увеличению энергии системы) и посмотреть на пошаговую эволюцию состояний сети во времени - она сойдется к одному из стационарных состояний, которыми являются выученные паттерны. Но когда паттернов для запоминания становится много, то появляются новые стационарные состояния, которые мы не вкладывали в сеть (их называют химерами).

🧲 Принцип минимизации энергии и магниты

В этой модели каждый нейрон функционирует подобно магнитному моменту в магните. Мы сначала сильным внешним магнитным полем ориентируем спины в нужном направлении, потом убираем поле, а намагниченность остается.

При этом если теперь вывести их из равновесия, они будут потихонечку возвращаться в устойчивое состояние, минимизируя энергию через переориентацию спинов. Удивительно, что можно использовать концепции физики для объяснения и реализации процессов, связанных с памятью и самоорганизацией.

⚔️👁⚔️ Выводим ящеров на чистую воду

Например, в этой анимации я обучил сеть запомнить 2 состояния - турбославянина и ящера. А потом дал ей несколько разных картинок (чтобы посмотреть, кто есть кто на самом деле), которыми инициализировал значение нейронов (возмутил систему) и нарисовал эволюцию каждой из них. Видно, как они сходятся к стационарным состояниям. Хопфилд показал, что количество паттернов, которые может запомнить такая сеть растет примерно линейно с количеством нейронов.

📺 Крутейший видос, поясняющий базу.
🖥 Статья на N+1 с объяснением.
🐱 Ссылка на код для построения анимации.

Читать полностью…

Борис опять

Олимпиадники опять не дают делать комментарии под последним постом, так что пишите под этим

Читать полностью…

Борис опять

# Кратко про книги

Когда мне предложили писать научно-просветительскую книгу я изучал вопрос почти месяц и поговорил с несколькими лауреатами премии "Просветитель." Поделюсь с вами тем, что узнал.

## Деньги
Денег не будет. Сразу это обозначим. Если вы работаете с издательством, то получаете роялти около 20% от оптовой цены печатного экземпляра. Если книга стоит 400 руб, то автор получит примерно 20 рублей. Можно задрать цену книги, но тогда ее никто не купит. С электронными и аудио книгами порядок такой же. Успешные по меркам рынка книги продаются всего по несколько тысяч экземпляров, так что можете сами посчитать потенциал.

В случае самиздата вы получаете больше денег с продажи, но скорее всего гораздо меньше продаж.

На Хабре есть статья писательницы, которая выпустила нон-фикшн книгу про карьеру в IT и за два года заработала 26 тысяч рублей. Это выручка, то есть не считая расходы.

## Издательство или самиздат?
Есть два пути.

Самиздат: делаешь, что хочешь и публикуешь рукопись в электронном виде через Ридеро или ЛитРес. Эти площадки предоставляют услуги издательства по модели pay2win. То есть дерут с вас деньги везде, где могут. Вы сами платите за корректуру, редактуру, обложку, иллюстрации, запись аудиокниги и так далее.

Главный плюс этого пути: полный контроль. Второстепенный: вы забираете почти все деньги с продаж. Но денег не будет, так что это не важно.

Меня интересовала такая схема:
1. Публикую книгу в open-source по главам.
2. С выходом каждой главы собираю обратную связь и навожу суету.
3. Когда книга готова публикую через самиздат.
4. Когда книга успешно продаётся через самиздат иду в издательства и предлагаю масштабировать.
Звучало хорошо, но ниже расскажу, почему отказался от этой идеи.

Издательство: вы передаете исключительную лицензию на распространение на 5-7 лет, получаете роялти от продаж в районе 20%, а взамен они делают примерно все кроме написания рукописи от редактуры до продвижения. Последнее важно: издательство может продать вашу книгу в сетевые книжные магазины, а попасть туда самостоятельно у вас фактически нет шансов. Издательство может номинировать книгу на премию "Просветитель", а сами вы этого не можете сделать если не являетесь академиком РАН или кем-то еще очень особенным.

Взамен вы отдаете контроль. Вы больше не можете выбрать название или обложку. Конечно никто не сделает чего-то не спросив вас, но в конце концов решающий голос по многим вопросам у издательства. Так же вы теряете возможность выбирать где и как продается книга на время действия лицензии. Например, вы не можете продавать ее у себя на сайте.

В конечном итоге я решил работать с издательством. Я понял, что для меня критично, чтобы книга случилась, и чтобы ее прочитало как можно больше людей. Для обоих целей лучше писать с издательством.

По части моей схемы с open-source: никто так не делает. Слишком непредсказуемо. Даже если все получится издательства могут не взяться распространять книгу, которая уже лежит в открытом доступе. Мне конечно кажется, что самостоятельно я бы сделал все лучше всех, но объективно это не так. Наконец, я просто не потянул бы целую вторую работу в незнакомой сфере.

К тому же, мне само написало хорошее издательство и мне понравилось с ними взаимодействовать.

## Ты предлагаешь или тебе предлагают

Обычный сценарий написания книги: автору неймётся, он пишет рукопись, потом ходит и пытается кого-то убедить её напечатать. В большинстве случаев издательства отказываются, выдвигают не лучшие условия или делают все за деньги автора.

Другой сценарий этоткогда приходят к вам. Мой случай. Значит о вас узнали и есть запрос. Здесь вы минуете самую болезненную фазу.

Однако это не значит, что все схвачено. Сотрудник издательства предлагает вам писать, но далее вы готовите документ в свободной форме, где продаете свою книгу. Пишете о чем книга, для кого, кто вы, почему вас будут читать, как планируете продвигать и пример текста. Питчдек в мире книг. Редакционный совет издательства читает и решает, работать с вами или нет.

Одобрение совета было для меня дополнительным сигналом, что стоит писать.

Читать полностью…

Борис опять

Сбер проводит Конкурс красоты кода 2.0.

Это конкурс в пяти категориях, среди которых есть AI. В AI треке нужно решить задачу построения модели прогнозирования оттока.

Интересно, что решения оцениваются не по принципу побитой метрики как на Kaggle, а по качеству кода в нескольких номинациях.

Призы: iPhone 16, колонка SberBoom и возможность получить оффер в Сбер. Награждение пройдёт на конференции HighLoad в Москве 2 и 3 декабря.

Принять участие можно до 28 октября включительно, времени осталось немного.

Читать полностью…

Борис опять

По сравнению с предыдущей версией все параллелипипеды стали кубами, правда с недостающими сторонами, но добавился лишний темно-красный куб и перепутан порядок. Старый справился лучше. Правда если сделать несколько генераций, то можно получить то, что выдавал старый.

Что это говорит о моделях и искусственном интеллекте? Ничего.

Читать полностью…

Борис опять

Claude заставили играть в Universal Paperclips

https://www.oneusefulthing.org/p/when-you-give-a-claude-a-mouse

Читать полностью…

Борис опять

https://fixupx.com/mengk20/status/1849214171591909700

Читать полностью…

Борис опять

Тезисно:
— Anthropic представили новую возможность для публичного тестирования: использование компьютера (уже доступно в API). Разработчики могут давать Claude использовать компьютер так, как это делают люди — глядя на экран, перемещая курсор, нажимая кнопки и печатая текст.
— Claude 3.5 Sonnet — первая передовая модель, предлагающая использование компьютера в публичной бета-версии (ну, из коробки да, но для других моделей это уж было года два...на GitHub. А тут они прям уверены!)
— этими возможности уже тестируют Asana, Canva, Cognition (которые Devin делали), DoorDash, Replit, и The Browser Company (это браузер Arc, на котором я сижу; они делают большую ставку на AI в браузере для выполнения действий вместо вас)
— The Browser Company отметили, что при использовании модели для автоматизации веб-задач Claude 3.5 Sonnet превзошла все модели, которые они тестировали до этого (но без деталей. Ждём обновление браузера? 🙂)
— новая модель сильно прокачалась в кодинге. На бенчмарке по внесению изменений в код на уровне целого большого репозитория (десятки тысяч строк кода) SWE-bench Verified качество выросло с 33.6% до 49% — это если сравнивать старый Sonnet и новый с использованием SWE-Agent (открытый фреймкорк из Berkley). Но были и другие решения, которые заточены именно на улучшение оценки, но недоступны нам — они выдавали 45.2%. Они, наверное, пробьют 55% просто через замену модели.
— Haiku (младшая версия, дешёвая) получает 40.6% на этом бенчмарке, что лучше старого Sonnet 3.5. Видно, что Anthropic вложились в ИИ-агентов и/или reasoning

Что это за "использование компьютера"? Claude транслирует ваши инструкции вроде «возьми данные с моего компьютера и из Интернета для заполнения вот этой формы и пройдись по всем полям») в компьютерные команды (прочитать таблицу на экране; переместить курсор, чтобы открыть веб-браузер; перейти на соответствующие веб-страницы; заполнить форму данными с этих страниц и т. д.)

Пока работает с достаточно базовыми командами и на разных бенчмарках вроде OSWorld выдаёт всего 22% (прошлый лучший результат был 7.8%, если использовать только скриншоты экрана, без трансляции в специльную форму для слабовидящих). Однако компания ожидает быстрых улучшений в ближайшем будущем через сбор обратной связи от разработчиков. Тут они сильно обошли OpenAI и других — как мы знаем, данные это новая нефть, и каждый день отставания других игроков приносит ценность. Очень ждём, что ответят OpenAI.

Читать полностью…

Борис опять

Школа Высшей Математики запускает курс по LLM "Построй свой ChatGPT."

Я решил прорекламировать его из-за добротной программы целиком по делу, смотрите скриншот. Покрываются основы глубокого обучения, NLP, LLM, файнтюнинг и RLHF, ускорение и деплой. Я буквально не знаю ни одного подобного все-в-одном курса по LLM.

К тому же ведут преподаватели из ВШЭ, ШАД и топовых компаний.

Важно, что курс не рассчитан на совсем новичков. Он требует базовой математики, программирования на Python и ML. Курс начинается с введения в глубокое обучение, так что рассчитывайте свои силы соответственно. Обещают, что будет сложно я но полезно.

Смотрите подробнее в этом видео: /channel/shvmxyz/38, или можно заглянуть в телеграм канал @shvmxyz.

Курс стартует уже через семь часов, задумайтесь

Читать полностью…

Борис опять

./ai_rm <prompt> — описываешь какой файл хочешь удалить, LLM находит его и удаляет

Читать полностью…

Борис опять

Goal Misgeneralisation от Deepmind. Tree Gridworld

Еще пример из той же подборки. Тут обучение непрерывное - без эпизодов. Агент действует в среде, где он может получать вознаграждение, рубя деревья, что приводит к их удалению из окружающей среды. Новые деревья появляются с частотой прямопропорциональной колличеству оставшихся деревьев: чем больше деревьев на поле, тем чаще появляются новые. Оптимальная политика подразумевается в бережном (sustainable) рублении деревьев: агент должен рубить меньше деревьев, когда деревьев мало.

Однако агент не сразу научается поступать именно так, что печалит одну Гретту Тунберг.

На картинке динамики производительности агента (ниже):
- полученное вознаграждение показано оранжевым цветом,
- распределение количества оставшихся деревьев зеленым.

1. Когда агент только учится выполнять задачу, он еще не умеет хорошо рубить деревья, поэтому их количество остается высоким (точка А на картинке).
2. Агент научивается эффективно рубить деревья, и не стесняется этот навык применять - срубает все (точка В).
3. Это приводит к полному обезлесению и длительному периоду почти нулевого вознаграждения (между точками В и С)
4. До тех пор, пока он наконец не научится рубить деревья бережно (точка D).

Вот где-то между точками B и C агент находится на стадии goal misgeneralisation. Пока он был неопытен и рубил деревья медленно - он всегда получал вознаграждение за более быструю рубку леса, и выучил нежелательную цель - рубить деревья как можно быстрее, что привело к обезлесению и низкому вознаграждению.

Читать полностью…

Борис опять

Т-Банк выложил в открытый доступ свою библиотеку для дообучения и alignment LLM:
https://github.com/turbo-llm/turbo-alignment

Это целый набор инструментов для SFT тюнинга, DPO, end2end RAG и др., а также замера метрик. Из коробки идет multi-gpu и multi-node обучение с помощью deepspeed и inference на vLLM.

Насколько я могу судить идея библиотеки состоит в том, что можно положить на диск датасеты и конфиги в заданном json формате и запустить готовый пайплайн без необходимости переизобретать код на Python.

Насколько я понимаю сейчас все компании вынуждены делать похожие велосипеды для этих уже ставших популярными юзкейсов, так что очень классно, что появляются решения, которые можно переиспользовать.

Ранее Т-Банк выложил шуструю русскоязычную LLM T-lite, которая хорошо показала себя на двух аренах. Круто, что ребята продолжают вкладываться в open-source.

Читать полностью…

Борис опять

С 2 по 17 ноября пройдет XLABS AI Hack: хакатон, в котором участним предстоит разработать нейросеть для создания вокала на русском языке по текстовым инструкциям.

👉 Могу участвовать команды из РФ и РБ от 2 до 5 человек.
👉 2 недели на разработку решения.
👉 Призовой фонд 2 миллиона рублей.
👉 Возможность стать сотрудником в передовой AI-лаборатории и выступить на международной конференции в Минске.
👉 Первый этап онлайн, а защита решений финалистов проходит очно в Москве.
👉 Можно найти команду чате хакатона.

Редко бывает хакатон, где нужно решать необычную DL задачу, очень круто.

Подавайте заявки до 1 ноября 23:59

Читать полностью…

Борис опять

https://diamond-wm.github.io/

Играем в диффузионный CSGO

Читать полностью…

Борис опять

Познакомился с сетями Хопфилда в гениальном курсе по теории информации от David McKay. Невероятно прикольная штука которая пока не взлетела и не нашла практических применений. Самоорганизующаяся память! Лично для меня выглядит как то чего не хватает нейросетям, а RAG и обращения к внешним хранилищам это костыли, которыми мы пытаемся закрыть эту потребность.

Есть какие-то попытки привнести их в современные нейросети и даже слой в Pytorch. Никак не доберусь прочитать, но постараюсь сделать обзор.

В общем сети Хопфилда это покемон за которого я болею

Читать полностью…

Борис опять

Та самая компания которая делает посредственные оверпрайснутые электрокары известные ответственностью за 2/3 всех auto assist аварий, кривым качеством сборки и тем, что ломаются чаще Dacia Logan. Но при этом каким-то образом едва ли не доминирующая на рынке

Читать полностью…
Subscribe to a channel