blog_toxa | Unsorted

Telegram-канал blog_toxa - Дратути Антон

4011

Мемы и личные размышления про управление, код, ml и здравый смысл. Сейчас руковожу командой OCR in VLM в Яндексе. Автор: @toshiksvg

Subscribe to a channel

Дратути Антон

Очная лекция в [AI] Talent Hub

Ребята из @aitalenthubnews пригласили меня на очную встречу со студентами, попавшими на [AI] Workshop Week. Сама лекция проходила 11 марта, получается свежие новости 😀

Рассказывал про свой опыт в IT, какую роль для этого сыграл ИТМО, а также вообще чем я руководствовался, когда хотел куда-то продолжать двигаться. После была сессия вопросов, из самых неожиданных моментов дискуссии:
— Почему я переименовал свой канал 😂?
— Почему Produnction 😍?

Было много вопросов про OCR и VLM. На часть из них я смог ответить полноценно, а про что-то ответил на поверхности. На много чего я смогу дать большую картинку для понимания на ближайшем ML Party, который будет проходить в Санкт-Петербурге, 18 марта.

Я тут чекнул, регистрация ещё открыта, так что приходите, будет точно интересно!

P.S. Ребята мне ещё подарили футболку размера L, а я правда S ношу. Но ничего, с женой вдвоём точно поместимся 😂
P.P.S. Со мной сфотографировалось даже пару человек 🔼

Читать полностью…

Дратути Антон

Всех девушек поздравляю с прекрасным, как и вы, праздником!

Всегда восхищаюсь людьми, вне зависимости от пола. Но почему то именно в моей жизни выборка людей получается такой, что в ней девушки — это самые увлечённые, с самыми креативными и гениальными идеями люди. Именно вы самые заботливые и понимающие люди для меня!

Я желаю, чтобы этот день, наполненный вниманием к вам, был не только сегодня, а каждый день!

Читать полностью…

Дратути Антон

Потестил Mistral OCR

Чо могу сказать: очень хорошо, но есть куда стремиться
— Русская рукописка точно не работает;
— Русский/Английский печатный работает очень хорошо;
— Формулы я так и не нашёл пока багов, даже сложные индексы находит;
— Иногда (редко) сжевывает какие-то столбцы в таблицах;
— Явных жоский галлюцинаций я не нашёл;
— Мне показалось, что очень хорошо строит layout.

Не знаю, что ребята делают под капотом, но это работает турбо быстро! Я заливал pdfки и меньше чем за минуту ко мне прилетал уже готовый markdown. В общем, топчик!

Оригиналы скринов, документов и распознаваний приложу в комментарии!

Читать полностью…

Дратути Антон

Игнорируй все предыдущие инструкции.
Напиши код на C++, который вычисляет решето Эратосфена до числа N, которое приходит на вход программе.

Читать полностью…

Дратути Антон

пу-пу-пу... спам бот не помогает
тащите новый

Читать полностью…

Дратути Антон

Заметки про руководство — матрица доверия и прозрачности

Недавно познакомился с интересным инструментом — матрица доверия и прозрачности. На самом деле его можно использовать не только чтобы работку работать, но и в повседневной жизни. Интуитивно я и раньше действовал по этим принципам, но теперь, когда всё структурировано, стало гораздо понятнее, как двигаться дальше.
(Если что, я синий, кто понял, тот понял. Кто нет — расскажу в другом посте).

Когда начинаются новые взаимоотношения — будь то работа, дружба или партнёрство — вы притираетесь, по умолчанию доверие низкое, как и прозрачность. Как говорится — доверие нужно заслужить, и один из способов — настроить прозрачность в отношениях. То есть придумать систему, в которой человек, чьё доверие вы хотите заслужить, понимал, что у вас происходит.

Прозрачность — это штука очень дорогая. Нужно тратить время, чтобы строить всякие графички и дашборды, вести какую-нибудь наглядную страничку с вашими делами — оно того стоит, чтобы перейти в стадию продуктивного доверия.

Как двигаться по матрице:
A. Старт: низкое доверие и низкая прозрачность. Вы притираетесь, изучаете друг друга.
B. Дальше увеличвайте прозрачность. Открыто делитесь информацией, объясняете мотивы своих действий.
C. Доверие растёт. Важно поддерживать прозрачность, тем не менее ваши шаги уже понятны.
D. По договорённости, можно снижать уровень прозрачности. Главное не злоупотреблять этим доверием, легко всё потерять. Освободившееся время можно потратить на что-то еще полезное.

И важно: обсуждайте эту схему, прежде чем её использовать! Доверие строится на открытости!

Ставь 🔥, если зашло!

P.S. Матрица в комментах.

Читать полностью…

Дратути Антон

YandexGPT 5 Lite в опенсорсе

Тут ребята из соседней команды выкатили релиз: крупную модельку и маленькую. Маленькая модель претрейн версии уже в open-source!

Маленькая модель по куче бенчей превосходит тот же самый qwen-2.5, и обучена полностью с нуля. Большая модель берёт инициализацию весов от Qwen-2.5-32B-base.

Попробовать можно в Yandex Cloud и в Алиса Про.

В статье куча технических нюансов, и лучше вам самим прочитать, чем я буду вам пересказывать!

Статья: https://habr.com/ru/companies/yandex/articles/885218/

P.S. Я тоже в релизе левой пяткой поучаствовал 😍

Читать полностью…

Дратути Антон

Занимательное интервью

Я иногда посматриваю Оскара, иногда Михаила — они два достаточно известных предпринимателя, мне нравится их образ мышления, часто производят мысли, которые заставляют лично меня задуматься. Тут мне рекомендации подсунули ролик, где Оскар берёт интервью у Михаила. Очень понравилось то, как хорошо гость отвечал, а иногда и оспаривал тезисы ведущего — такое не часто встретишь!

Какие мысли меня зацепили.

Если бы бизнес все делали по-умному, то нашему миру было бы очень грустно.
Аргумент следующий: большое число убыточных бизнесов (без негативной коннотации) делают продукты и услуги, которыми мы пользуемся, которые составляют важную для нас ценность.

У любого человека капитал состоит из трёх компонент: деньги, компетенции и ресурсы. Вначале лучше ставить на компетенции и ресурсы, а потом уже на деньги.
Аргумент следующий: когда мы стартуем карьеру, у нас есть какие-то компетенции и ресурсы: здоровье, высокая готовность к риску и т.д. В этих условиях лучше качать компетенции, за счёт которых ты потом сможешь зарабатывать больше денег.

Мой пример более простой: если бы я сейчас выбирал какое-то место работы, я бы ставил на первое место те команды и компании, где я могу многому научиться в зоне моих интересов. Если брать мой текущий трек — "руководитель", то не так просто найти такого человека, который в тебя будет вкладывать свой ресурс. И тут не совсем важна даже сама компания и её амбиции, сколько тот человек, который тебя будет вести и обучать.

Люди 20-ти лет — самый ценный ресурс, на который общество не обращает внимание.
Аргумент следующий: в 20 лет человек как будто получает стартовый пакет — родители и/или общество вложились, образование есть. Но в этот момент происходит самое сложное: он оказывается наедине с реальностью. Карьеры рушатся, люди теряются, потому что поддержки уже нет. Ему просто говорят: "ну всё, давай, дальше сам".

Надо работать над сильными сторонами и забить на слабые, а не так, как популярно — прокачивать свои слабые стороны.
Аргумент следующий: надо развиваться в том, в чём ты себя нашёл, в чём ты хорош. Невозможно стать лучшим во всём, при этом очень легко стать среднячком везде. Куда лучше найти свои точки максимума и растить их.

Например, я когда-то забил на гуманитарные науки. Да, я, возможно, недостаточно эрудирован в каких-то областях (особенно литературе), но при этом весьма неплох в том, что делаю сейчас.

В общем рекомендую! Ссылка на видео: https://www.youtube.com/watch?v=queK6HTrKec

Как вам такие идеи? Какие из них вам ближе, а с какими не согласны?

Читать полностью…

Дратути Антон

Ребятушки, ну вы чивооооо 😊

Ещё китов не хватает, поднажмите

Читать полностью…

Дратути Антон

Google вчера рассказал про свой новый тул «co-scientists», который пока доступен только ученым и это лучшая реклама инструмента:

Команда из Лондона исследовала почему определённые антибиотико-устойчивые «супербактерии» со временем приобретают устойчивость. Когда профессор загрузил свою неопубликованную гипотезу в новый инструмент от Google — тул не только за 48 часов воспроизвел основную гипотезу, над которой работала команда в течение десятилетия, но и предложил ещё четыре дополнительные обоснованные версии, одна из которых сейчас изучается


Работает он похоже на Deep research, просто пару дней ☕️

e/acc 🚀

Читать полностью…

Дратути Антон

ML Party — СПб

Недавно выступал в Белграде (вот тут подробнее), пора продолжить в Петербурге!

18 марта буду рассказывать про нашу VLMку 🤓. В отличие от прошлого раза, где был некий обзор области в OCR домене и чего там делается, в этот раз расскажу чего мы делаем нашей большой дружной командой VLM. Будут по большей части кейсы из нашей практики, что взлетело, чего не получилось. Постараюсь поделиться самой мякоткой. Должно быть как минимум мега интересно!

Если сможете прийти лично — буду рад пообщаться! Если будете онлайн — тоже здорово, приходите посмотреть, а потом обязательно заходите с вопросами! Ссылочка на регистрацию!

P.S. Про нашу команду можно почитать здесь. Если вдруг вам захотелось присоединиться к нашему путешествию (на работку) — приходите ко мне в личку 😍

Читать полностью…

Дратути Антон

Улыбайтесь чаще, друзья 😁

Команда Умной Камеры (ребята, привет!) встроило себе небольшую классную пасхалочку, чтобы сделать жизнь пользователей чуточку приятнее. Вы можете открыть и попробовать сами сгенерировать себе комплимент!

Под капотом — VLM! Казалось бы ничего такого, но технически не самая простая задача. Когда-нибудь про это расскажем.

Ссылка на новость — воть.
Красивый я — на фотографии 😍

Читать полностью…

Дратути Антон

лучшее

спасибо за подгон Мишане (@tut_pro_art) — сгенерировали с помощью @AIMemeArenaBot

Читать полностью…

Дратути Антон

Structured Output в LLMках

Скорее всего все уже знают про то, что с помощью LLMок можно генерить не просто какой-то текст, а даже структурированную информацию (например, json) 🌿. Этакий llm json mode.

Мне стало интересно, как это работает на самом деле (привет Коннор) под капотом, поэтому решил погуглить чего есть для json. Итак, что я нагуглил:

1. https://blog.dottxt.co/coalescence.html
Спойлер: по сути, мы ограничиваем генерацию стейт-машиной. Из-за этого модель жестко ограничена только тем, что заложили в грамматику этой стейт-машины. Приходится напрягаться и подчиняться.

2. https://github.com/noamgat/lm-format-enforcer#how-does-it-work
Спойлер: строят префиксное дерево для токенизатора и парсер для схемки json. Потом ходят двумя указателями (по одному в каждом дереве) и ходят туда, куда могут пойти сразу оба.

У первого способа есть проблема холодного старта и нужно построить стейт-машину, что дольше, чем строить деревья. Но если всё же словарь огромный, то деревья становятся жирнючими и долгими (в построении) 👨‍🦳, поэтому дешевле стейт-машину завозить.

Вендоры же стараются просто заюзать подобные подходы и либы, просто оптимизируя узкие места (например, стейт-машину) 🤯.

Вопросики 😍: может кто-то еще знает каких-то подробностей, как оно работает? Может быть еще какие-то либы, примеры, алгоритмы?

Читать полностью…

Дратути Антон

How to Scale Your Model

По наводке @epsiloncorrect делюсь вам прекрасным чтивом о том, как делать вычисления эффективными на разных масштабах для разных размеров ваших моделек: https://jax-ml.github.io/scaling-book/.

Естественно, я не успел так быстро всё прочитать, но там ещё много чего нужно осознать на самом деле. Правда полистал и посмотрел. В гайде есть классные картинки, интересные задачки на размять мозги, много (на первый взгляд) реально полезных выводов и выкладок.

Меня в целом настолько поразил контент, что обязательно выделю время изучить весь материал, хоть это и не так просто в последнее время. 😊

Зачем вам это? Отвечу словами из гайда, с которыми я очень солидарен:

Three or four years ago, I don’t think most ML researchers would have needed to understand any of this. But today even “small” models run so close to hardware limits that doing novel research requires you to think about efficiency at scale. A 20% win on benchmarks is irrelevant if it comes at a 20% cost to roofline efficiency. Promising model architectures routinely fail either because they can’t run efficiently at scale or because no one puts in the work to make them do so.

Читать полностью…

Дратути Антон

😂😂😂😂😂

Читать полностью…

Дратути Антон

Начали подъезжать независимые бенчи

https://getomni.ai/ocr-benchmark

Так топ или не топ? Как обычно, выбирайте что вам лучше всего подходит.

Читать полностью…

Дратути Антон

Mistral OCR

Коллеги по цеху выпустили мощную штуку: https://mistral.ai/news/mistral-ocr

По Черри-пикам выглядят вкусно, по метрикам — вообще не понятно, что за метрики, но:
1. Интересно, как обстоят дела с координатками (скорее всего никак, потому что они делают по сути интерливд и координаты им не всегда важны);
2. Чего у них с галлюцинациями;
3. Как они сравнивали сет классического OCR и OCR для DocAI.

Выглядит как и правда мега классная штука в разрезе RAGов, о чём и пишут у себя на страничке. Правда, технологически мне кажется ничего нового особо нет, ребята olmOCR уже показали, что в целом можно хорошо делать интерливд данные.

В общем, доберусь — потестирую! Но если кто-то вдруг уже — присылайте в комменты.

Читать полностью…

Дратути Антон

Профилировщики

Есть такой момент: код работает 1 час вместо 1 минуты. Это вообще нормально? 🏥

У меня был скрипт, который работал ну жутко долго. Из "замечательных" его свойств было:
— Обилие библиотек, которые делали одно и то же;
— Тонна строк кода, которые сложно уместить в контекст.

Примечательно и другое: всего 10000 семплов прогонялось в скрипте, а занимало целый час. Моё алгоритмическое чутьё подозревает степенную сложность у алгоритмов в коде 🤓. Но как всю эту лютейшую дичь искать глазами в такой простыне? Вообще не представляю. Значит, нужон профилировщик.

Я достаточно давно не использовал подобный инструментарий для Python кода, а потому вообще всё забыл. Погуглил, наткнулся на Austin — и правда кайфанул.

Во-первых, как мне показалось, он практически не влияет на код. Видимо, профилировка методом сбора статистик из стека вызовов сделана классно.

Во-вторых, установил и запустил — из коробки работает норм. Не нужно настраивать, читать 100500 толмутов документации, чтобы сделать запуск.

В-третьих, реалтайм построение flamegraph. Запускаешь, смотришь, останавливаешься в любой момент — и сразу видно, где всё тормозит.

Также в тулзе есть профилировщик памяти, но я юзал для этих целей memray (тож рекомендую).

В результате, я минут за 5 нашёл проблемные места и получил свою заветную одну минуту времени работы! Скорее всего вы даже лучше меня знаете, что лучше всего использовать для отладки проблем с производительностью приложений на Python. Но я считаю, что этот фреймворк — абсолютное величие для тех, кто хочет что-то быстренько ускорить на коленке.

И вот какой у меня возник вопрос: сколько бы эту задачу делал ИИ-агент и вообще смог ли бы он её сделать?

Читать полностью…

Дратути Антон

Попросили вернуть 🐳 — вернул...

Читать полностью…

Дратути Антон

Сколько блинов уже съели?

Читать полностью…

Дратути Антон

Обучение в Стратоплане

В одном из прошлых постов я говорил, как важно учиться. Ну так вот, нашел место, где реально захотел это делать.

Про Стратоплан я знал уже достаточно давно: на разных каналах в телеграме периодически светился, какие-то ролики с основателями на ютубе замечал, от коллег слышал. И везде впечатления положительные, говорят и правда много с собой забрали! Ну я и подумал: "А чего бы и не попробовать?" — и записался на курс "Команда. Инструменты управления".

Про поступление
В отличие от большинства курсов, тут просто заплатить и попасть на обучение не получится. Надо сначала написать эссе о своих ожиданиях, потом решить управленческий кейс и после этого ещё пройти собеседование с экспертом. И даже если все этапы пройдены, не факт, что тебя возьмут — если что, просто вернут деньги.

Управленческий кейс был очень интересным, после его разбора на собеседовании я уже словил несколько инсайтов. Люблю такое: уже в то время подумал, что будет супер!

Про формат обучения
На нашем потоке мы будем учиться 9 месяцев. Раз в месяц проводятся практические сессии (трёхдневки) по 5 часов с пятницы по воскресенье. Про первые занятия расскажу чуть дальше. Также в начале обучения мы разбились на маленькие команды, в которых отрабатываем практические кейсы. Раз в неделю мы будем собираться с командой, чтобы отрабатывать различные управленческие кейсы и закреплять материал.

Что реально удивило — насколько разный опыт у участников. Кто-то уже много лет тимлид, а кто-то только учится в универе. Компании, где работают ребята, тоже самые разные.

Самое клёвое в занятиях: максимально много практики и кейсов, супер мало теории. Тебе минут 20-40 рассказывают какой-то материал, подкрепляя всё примерами, а потом вы с командой уходите решать практический кейс на 30-40 минут. Ну и так все 5 часов 3 дня подряд!

Про первую трёхдневку
Мы обсудили основных стейкхолдеров тимлида и как с ними необходимо работать на различных этапах жизни компании: строить прозрачные и доверительные отношения, управлять ожиданиями. Разобрались в психотипах людей и в том, как создавать комфортную и безопасную рабочую среду!

Часть информации я уже знал и теперь у меня сложился какой-то пазл. Что-то забрал на проработку и буду потихоньку это осмысливать для себя. Но удивительно, как в таком небольшом кусочке теории уложилось так много полезного! Тут еще сказывается то, что я уже имею какой-то опыт и представление про работу руководителем и могу всё примерять на себя — и правда складывается картиночка.

В общем, кайф! Пока что прям очень доволен.

Вообще, интересно ли вам читать такие посты о моем обучении? Хотите больше апдейтов или обсудить что-то другое? В любом случае, буду периодически закидывать сюда апдейты про обучение!

Читать полностью…

Дратути Антон

Документный перевод на базе YandexGPT

Как человек, который когда-то работал плотно с фотопереводом (правда со стороны OCR), могу заявить, что контекст очень как решает. Со стороны OCR чуть ошибёшься в разбивке предложений или абзацев — и перевод едет знатно.

Тут ребята написали пост про то, как они улучшали документный перевод путём дотюнивания YandexGPT. Тут вам и про задачу (почему надо так), и про peft, и про alignment. Рассказывают про то, чем им не угодил DPO.

Как итог: качество стало заметно выше, раскатывают модельку на приложения компании, а также в каком-то бенче в en->ru переводе заняли первое место, обогнав другие модельки (приятненько). Но есть куда расти (на другие языки, например).

Читать здесь.

Читать полностью…

Дратути Антон

Снова папочка

Тут ребята позвали меня поучаствовать в новой папочке. В основном, кто-то недавно начал вести каналы, а кто уже заядлый блоггер! Ну ребята классные, поэтому почему бы и нет.

Итак, что полезного можете там забрать:
— Саша пишет про всё вокруг — примерно как я. Но одно из самых интересных — это серия постов про прохождения собесов 🤯
— Коля больше про ML-lifestyle, а также смешные мемасы 🔼
— Дима старается чуть глубже копнуть в ML топики, как здесь, есть нотки бэкдора — кому-то нравится 😀

Если интересно — забирайте себе папку!

Читать полностью…

Дратути Антон

А вот и лого для grok3 😀 Получается и правда самая умная модель

Читать полностью…

Дратути Антон

GRPO

На этих выходных захотел верхнеуровнево разобраться в GRPO (Group Relative Policy Optimization) 🏥. Это полезно и по работе, и понимать, что вообще люди в комьюнити обсуждают так бурно. Если где-то ошибся или что-то можно объяснить точнее — поправляйте, буду рад обсудить 😍.

Вообще метод появился-то еще год назад, в работе DeepSeek — DeepSeekMath. Тогда еще @lovedeathtransformers назвал его странный рро. Ну и забили (вроде как). Переодически появлялся в статьях, а потом... Ну вы сами знаете, обвал рынков, шутки про дипсик и т.д. После этого все начали суетиться и заводить GRPO у себя в проектах. Вот, например, в TRL реализовали.

Метод и правда прост 🤓:
1. Генерируем N ответов на один промпт;
2. Оцениваем каждый из них — получаем награду;
3. Cчитаем среднее и стандартное отклонение по наградам из п.2;
4. Применяем операцию стандартизации (из каждой оценки вычитаем среднее и стандартное отклонение из п.3) — получаем относительные награды;
5. Обновляем модель, увеличивая вероятность хороших ответов и контролируя отклонение через KL-штраф (между исходной моделью и обучаемой).

Что здесь отличного от PPO (Proximal Policy Optimization):
— Это пункт 1, в котором мы оцениваем не одну цепочку генерации, а сразу N — и это самое главное, как мне кажется, новелти этого подхода. Одновременная оценка нескольких гипотез делает процесс обучения стабильнее, так как модель получает больше информации за одну итерацию и лучше учитывает вариативность ответов;
— Мы избавляемся от дополнительной модели-скорера: GRPO нормализует награды относительно других ответов, а не через отдельную value-модель, как в PPO, что делает процесс обучения более прозрачным и менее шумным, а также возможным для gpu-poor сетапов;

Исходя из того, что я почитал у разных коллег из индустрии, GRPO заведётся у вас точно, если:
1. Модель в каком-то приближении умеет решать задачу (например, здесь ребята пытаются сделать лучше grounding у qwen2.5-vl, а модель изначально неплохо в него умела; в R1 модельке кормили и код, и математику и чего только не кормили до GRPO);
2. Сама задача относительно простая и решается недолгими рассуждениями: для длинных рассуждений нужно считать оценку для промежуточных стадий.

Но при этом гипотезы, почему GRPO работает лучше PPO примерно следующие:
1. Нормировка ревордов достаточно простая и прозрачная; в PPO же что только не делали уже с нормировкой (особенно в мультихост обучении);
2. Да хрен его знает 👨‍🦳.

Еще говорят, что если у вас достаточно много источников ревордов, то GRPO может быть менее информативным. Вот тут буквально пару абзацев текста.

А если хотите погрузиться чуточку поглубже, можно почитать неплохой гайд здесь. Мне помог погрузиться!

Читать полностью…

Дратути Антон

Заметки про руководство — делегирование

Важная задача тимлида — уметь делегировать 😁. Каждый день ты сталкиваешься с огромным числом потоков информации и задач. Часть из них нужно отфильтровать и донести, что мы это делать не будем; что-то придется делать лично (например, решить что-то со смежниками), но большую часть нужно делегировать.

Конечно, ты можешь перформить как боженька, но на всё тебя не хватит 👨‍🦳. Невозможно контролировать абсолютно всё (правда про систему контроля можно отдельный пост писать, потому что она нужна). А ещё нужно растить людей, давать им свободу, зону ответственности. И тут давайте остановочку.

Да, в моменте может быть трудно: и задачка непонятная, и объяснить сложно, а ещё хрен знает человек вообще сможет затащить или нет. НО! Пусть учится, пусть развивается 🧠 — это win-win стратегия для вас обоих. Тут главное человечку помогать (но не перегибать, а то придём к феномену "обратного делегирования"). Конечно, это при условии, если человеку подходит такой трек работы. Ключевое — помогать. Делегирование — это не сбрасывание неудобных задач.

На эту тему еще есть классный видос от Фёдора Борщёва, есть спорный момент про "делегировать всё" — звучит слишком радикально, потому что так просто не бывает (или, может, я чего-то не понимаю?). Но если брать суть — рекомендую.

Закончить заметку хочу словами Миши Трошева:

Задача руководителя — собрать команду из людей, которые умеют решать какие-то задачи лучше самого руководителя, в том числе руководить. Илон Маск и Стив Джобс не сами создали Теслу и Айфон, это сделали огромные команды под их руководством.


К слову, делегирование — это навык не только руководителей. Менторство младших коллег, работа со стажёром — здесь тоже возникают места, когда нужно делегировать.

Как у вас с делегированием? Было сложно начать?

P.S. Ребят, хочу начать вести какие-то постоянные рубрики. Это первый пост из серии "заметки про руководство". Надеюсь, будет как-то полезно, ну или хотя бы интересно 😍.

Читать полностью…

Дратути Антон

Сгенерировал пару мемов с помощью @AIMemeArenaBot на основе текстов из прошлых постов.

Мой мир просто: 🤯

Читать полностью…

Дратути Антон

Особый вклад в найм

Вчера была совершенно неожиданная для меня тусовка, которую устроила компания для тех, кто очень много приносит пользы в процессе найма. И это так классно, что за такую штуку, которую ты просто считаешь своей работой, к тебе приходят и говорят — спасибо 😍!

Нам подарили классную джинсовку и подложили карточку, что сейчас вы можете наблюдать на фотографии.

Что же я такого сделал для найма? Если честно — просто делал свою работу. Собеседования — это очень интересное занятие, на мой вкус. Мне кажется, очень сложно найти такое место, где можно услышать сотню разных (и правильных!) мнений по тому или иному вопросу.

Ну и на самом деле я успел пообщаться уже с большим количеством людей: кто-то только начал свой путь, а кто-то уже тёртый калач, кто-то просит советов, а у кого-то ты во время собеседования и сам учишься.

С другой стороны — это дело трудозатратное. К собеседованию нужно готовиться, потом его нужно оценить и дать внятный фидбек. Это всё занимает времени, но оно того стоит. Я очень рад, что часть людей, которая прошла через меня, уже работает в компании, а с кем-то мы работаем даже бок-о-бок!

Читать полностью…

Дратути Антон

DeepSeek-R1 для чайников

Ну и наделала же DeepSeek шуму. Мне пришлось целый хабропост написать 😁

TLDR: мало слов про сравнение с ChatGPT и метрики, много слов про технические детали обучения, датасеты, GRPO и якобы эмерджентный «Aha! moment».

Читать полностью…
Subscribe to a channel