Это канал школы deepschool.ru. Здесь мы будем: - напоминать вам теорию ML/DL в виде коротких постов, - задавать вопросы с собеседований, - рассказывать про полезные фреймворки - и делиться советами, которые помогут вам в работе. @deepschool_support
DeepSchool Digest⚡
Собрали материалы за май в одном посте:
✔️ Как обучить текстовый эмбеддер на домен — разобрали последовательность действий для обучения текстового эмбеддера на домен, рассказали, как обернуть специфику задачи вам на пользу и всё-таки нарастить конечное качество.
✔️ Современные подходы к NER — разобрали постановку задачи NER, существующие коробочные решения и их ограничения, рецепты, когда и как стоит обучать свой NER, применимость LLM для решения задачи.
✔️ Как построить RAG с нуля — вместе с Ильей Димовым показали, как собрать простейшую RAG-систему.
✔️ Большой обзор LLM-бенчмарков — сравнили популярные бенчмарки в одной статье.
Как построить RAG?
Знания LLM ограничены данными, которые она видела в процессе обучения. Поэтому ответы на вопросы по актуальным новостям могут быть неполными или неточными. Чтобы решить эту проблему без частого и дорогого дообучения на новых данных, придумали RAG — технику, добавляющую в контекст LLM внешнюю информацию.
В новом ролике Илья Димов показал, как собрать простейшую RAG-систему. Смотрите новый выпуск по ссылке!
А больше о том, как строить реальные RAG-системы, типовых проблемах и их решении рассказываем на наших курсах: LLM и LLM Pro.
Как превратить текст в структурированные данные?
Распознавание именованных сущностей (Named Entity Recognition, NER) — ключ к превращению сырого текста в структурированные данные. Но как выбрать подходящий инструмент, когда вокруг десятки библиотек? Когда стоит брать готовое решение, а когда — учить свою модель? Правда ли, что LLM уже умеют всё сами?
В нашей новой статье разберём:
✔️ Постановку задачи NER
✔️ Существующие коробочные решения и их ограничения
✔️ Рецепты, когда и как стоит обучать свой NER
✔️ Применимость LLM для решения задачи
А также конкретные примеры и лайфхаки для тех, кто хочет выжать максимум из своих данных.
Читайте по ссылке и узнайте о современных подходах к решению задачи NER! 🙂
Как обучить текстовый эмбеддер на домен?
Представьте: перед вами, как перед ML-инженером, стоит задача — нарастить качество в некотором сервисе. У вас есть доступ к текстовым данным в домене решаемой задачи, а аналитики собрали вам разметку. Вы взяли любимую BERT-like модель, которую всегда использовали, завели обучение и уже потираете руки в ожидании хорошей оценки на ревью, но… Качество на тесте не растёт. Вы крутите параметры, а ничего не помогает.
Решить эту проблему вам поможет наша статья по обучению текстового эмбеддера под домен.
В этой статье мы разберём последовательность действий, которую стоит предпринимать при обучении текстового эмбеддера на домен, узнаем, как обернуть специфику задачи вам на пользу и всё-таки нарастить конечное качество. Подробнее остановимся на этапе предобучения, рассмотрим RetroMAE, модификацию MLM для retrieval-моделей и контрастное обучение с InfoNCE, основной подход к улучшению семантики представлений в области.
Читайте новую статью по ссылке
DeepSchool Digest⚡️
Собрали материалы за апрель в одном посте⬇️
✔️ Score Distillation Sampling в задаче text-to-3D - разбираем основную идею метода, а также, в каких ещё задачах применяется такой подход.
✔️ Masked Image Modeling - знакомимся с одним из самых перспективных направлений SSL в Computer Vision — Masked Image Modeling и рассказываем, что это, как появилось и где стоит использовать.
✔️ Сбор данных и разметка: как с нуля собрать хорошие данные под реальную задачу? - рассказываем, как меняется подход к разметке и что уже работает на практике. Плюс: советы, хаки и кейсы с цифрами.
✔️ Из ML в разработку. Почему? Подкаст «Под Капотом» с Константином Носоревым - поговорили с Костей Носоревым, senior backend-разработчиком Yandex Pay и спикером курса «Деплой DL-сервисов», обсудили, почему Костя решил перейти в высоконагруженный backend из машинного обучения, почему исследовательский МЛ подходит далеко не всем и как общение с близкими людьми помогает принимать верные карьерные решения.
Через 3 часа встречаемся на лекции
Сегодня расскажем, что действительно влияет на качество ответов, как выстроить пайплайн правильно и превратить RAG из хаотичного набора компонентов в надёжный рабочий инструмент!
А также представим программу курса LLM Pro и подарим скидки 🔥
Регистрируйтесь и приходите сегодня в 18:00 МСК!
Как стать сильнее как CV-инженер
Работая с CV-задачами, вы наверняка сталкивались с нестабильными данными, компромиссами между качеством и скоростью, ошибками разметки, сложными кейсами, в которых нет однозначного решения.
Мы подготовили курс Computer Vision Rocket для практикующих инженеров, чтобы вы могли разобраться с такими задачами и освоить цикл создания и поддержки CV-моделей: от сбора данных до поиска ошибок и интерпретируемости.
В рамках курса вы научитесь:
🔹готовить данные под реальные задачи: искать, размечать, синтезировать
🔹находить и устранять ошибки в данных и разметке, улучшать качество
🔹настраивать пайплайны metric learning и векторного поиска, включая построение индексов
🔹адаптировать детекторы, сегментаторы и OCR-системы под сложные кейсы
🔹диагностировать деградацию моделей и находить проблемы через интерпретируемость
🔹проектировать CV-систему целиком: от данных до поддержки
Лекции проходят онлайн в Zoom, поэтому вы сможете задавать вопросы по ходу занятия.
Вы узнаете про подходы и best pratices от senior-инженеров из разных доменов и компаний. Они проверят ваши домашние задания и дадут развёрнутый фидбек!
CV Rocket цифрах:
4 месяца, 13 лекций, 13 заданий с фидбеком от опытных инженеров.
🗓 Начинаем 13 мая!
🔥 До 12 мая вы можете присоединиться к обучению со скидкой!
Переходите по ссылке, изучайте подробности и записывайтесь на обучение!
Если у вас есть вопросы, то пишите в нашу поддержку @deepschool_support, будем рады помочь.
До встречи на курсе! 🎓
Сбор данных и разметка: как с нуля собрать хорошие данные под реальную ML-задачу?
Хорошие данные — залог успеха.Но на практике это недели и месяцы разметки, потраченные ресурсы, спорные инструкции и баги.
Хорошая новость: эти проблемы уже решаются — с помощью LLM, гибридных пайплайнов и продуманных процессов.
В статье расскажем, как меняется подход к разметке и что уже работает на практике:
- как использовать LLM в роли разметчика и быстро получить данные
- где всё ещё нужен человек и зачем
- как выстроить крауд-пайплайн, которому можно доверять
Плюс: советы, хаки и кейсы с цифрами.
Читайте подробнее по ссылке!
Из ML в разработку. Почему? Подкаст «Под Капотом» с Константином Носоревым
Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри. В новом выпуске подкаста поговорили с Костей Носоревым, senior backend-разработчиком Yandex Pay и спикером курса «Деплой DL-сервисов». Обсудили, почему Костя решил перейти в высоконагруженный backend из машинного обучения, почему исследовательский МЛ подходит далеко не всем и как общение с близкими людьми помогает принимать верные карьерные решения.
Смотрите выпуск по ссылке: https://youtu.be/uYiSMOR0AB0?si=qnMTRP8zOcTi5wlp
Новый поток курса «Деплой DL-сервисов» с участием Кости стартует в июле. Подробнее на нашем сайте!
Masked Image Modeling
Когда в мире существуют огромные запасы неразмеченных данных — книги, статьи, фотоальбомы, видеоролики, возникает естественный вопрос: «Как можно использовать такой почти неограниченный ресурс для обучения нейронных сетей без трудоёмкой ручной разметки?».
Здесь нам на помощь приходят методы Self-Supervised Learning (SSL) — они позволяют извлекать полезную информацию напрямую из самих данных.
В новом посте мы познакомимся с одним из самых перспективных направлений SSL в Computer Vision — Masked Image Modeling, а также узнаем, что это, как появилось и где стоит использовать.
Читайте новую статью по ссылке!
DeepSchool Digest⚡️
Уже по традиции: собрали все материалы за прошедший месяц в одном посте⤵️
✔️ Внедряем модель c использованием model-serving фреймворков, NVIDIA Triton и Torchserve — рассказываем о процессе внедрения нейронных сетей и фреймворках сервинга — инструментах, которые помогают его упростить.
✔️ End-to-End модели OCR — знакомим с End-to-End решениями — решениями задачи детекции, распознавания и извлечения ключевой информации всего лишь одной моделью.
✔️ Ускорение диффузионных моделей за счёт кэширования — рассматриваем ещё одну парадигму ускорения диффузионных моделей — ускорение самого шага сэмплирования. В этом обзоре разбираем две работы про кэширование при сэмплировании для свёрточных диффузионных моделей.
✔️ Как избежать хаоса в разметке данных и улучшить качество ML-моделей — разбираем, как можно избежать хаоса в разметке данных, и почему это влияет на качество ML-моделей.
✔️ YOLO history. Part 7 — продолжаем разбор моделей из семейства YOLO. В этой статье разобрали сразу две архитектуры: YOLOv7 и YOLOv9.
Как избежать хаоса в разметке данных и улучшить качество ML-моделей
Модель — вершина айсберга при построении качественного DL-решения. Почти всегда залог успеха — большое количество хорошо размеченных данных. И наоборот: даже самая сложная архитектура не спасёт, если данные размечены с большим количеством ошибок.
Плавающие инструкции, непроверенные аннотации, пограничные случаи и «интуитивная» логика разметчиков — всё это снижает точность и надёжность ML-систем.
В новой статье мы поговорим о том, как навести порядок в разметке:
📌 что такое Data-Centric AI и зачем он нужен
📌 какие ошибки чаще всего встречаются в разметке
📌 как организовать процесс, чтобы не переделывать потом весь датасет
📌 почему даже «простая» инструкция требует версионирования, онбординга и метрик
Читайте статью по ссылке!
✉️ Ответим на ваши вопросы!
Мы готовим материалы с разбором проблем DL-инженеров в рабочих проектах и хотим узнать, какие темы для вас интереснее всего!
Напишите, какие у вас есть вопросы по текущим задачам или в чём давно хотите разобраться, а мы выберем самые популярные темы и подготовим по ним статьи, видео и лекции!
Собираем идеи до 7 апреля включительно.
Оставляйте свои предложения в комментариях к посту или заполняйте форму.
Продвинутый Computer Vision
В базовых туториалах редко акцентируются на том, что сплошь и рядом встречается в реальных задачах: специфичные корнер-кейсы, шумные данные, трёхэтажные постпроцессинги и прочее.
Мы создали курс CV Rocket для практикующих CV-инженеров, чтобы показать инженерный взгляд на Computer Vision и помочь вам решать трудные задачи! На программе мы разберём большинство задач компьютерного зрения, погрузимся в сложные случаи, возможные проблемы с данными и интересные корнер-кейсы, вы узнаете лучшие практики и поймёте «а как же правильно».
Обучение начинается 13 мая!
Скоро мы будем знакомить вас с необычными задачами из Computer Vision и рассказывать подробнее про курс.
А сейчас изучайте программу и записывайтесь в лист ожидания!
Мы свяжемся, когда начнём собирать группу, расскажем о тарифах и подарим скидки на обучение первым участникам.
🔥 Ищем практикующего DL-инженера на роль главного редактора канала!
Простыми словами, главный редактор управляет генерацией идей для контента и даёт последний апрув на публикацию материала.
Если подробнее, главред отвечает на вопросы:
— какую тему из предложенных лучше выбрать для публикации?
— как рассказать в блоге про определённый курс школы?
— что будет интересно и полезно написать по теме Х?
— доступно ли написан текст для читателей канала?
— какие новые форматы и рубрики можно ввести?
Что мы даём:
— доступ ко всем курсам школы
— добавим в сообщество школы, где проводим литклубы и другие встречи со спикерами и выпускниками
— ежемесячный оклад
— свободный график, нагрузка 4-6 часов в неделю
Что ожидаем от вас:
— умение писать простым языком о сложных вещах
— готовность писать статьи в блог и посты в телеграм
— широкие познания в DL: быть знакомым с различными DL-задачами и их решениями
— опыт в индустрии от 4 лет
— желание создавать понятный и полезный контент
⚠️ Опыт в роли главреда совершенно не важен! Важны только желание создавать контент и опыт в DL. Создатели школы передадут стиль и подход к созданию материала и будут поддерживать во всех вопросах на старте!
Если вы тоже хотите учить людей через блог, который рекомендуют в индустрии, заполните, пожалуйста, анкету!
Большой обзор LLM-бенчмарков
Чтобы выбрать подходящую под задачу LLM, надо сравнить разные модели ➡️ чтобы сравнить модели, надо выбрать бенчмарки ➡️ чтобы выбрать бенчмарки, надо в них разобраться.
Но их так много, что непонятно с чего начать. Мы решили вам в этом помочь и сравнили популярные бенчмарки в одной новой статье.
Читайте по ссылке!
Скоро стартует летний поток курса LLM
Если вы только знакомитесь с LLM или уже работаете с ними и хотите разобраться, как устроены современные LLM, как их обучать, запускать и оптимизировать — приходите на ближайший поток курса LLM, который начинается в июне.
На курсе вы научитесь:
— использовать доступные LLM под свои задачи
— работать с RAG, агентами и tool calls
— эффективно тюнить свои модели
— деплоить и ускорять инференс LLM
А если до этого не работали с доменом NLP, то разберетёсь в нём и его особенностях.
📅 Старт — 25 июня, а сейчас вы можете записаться в лист ожидания, чтобы первыми занять место на курсе и получить самые выгодные условия на обучение.
Изучайте подробности о программе и спикерах и записывайтесь на новый поток!
Напоминаем, что места ограничены, часть уже занята! Поэтому если планировали обучение летом, то рекомендуем не откладывать ✍️
Если возникают вопросы — пишите нам в @deepschool_support
Начался курс Computer Vision Rocket 🚀
Вчера на курсе прошла вводная встреча, а через неделю будет первая лекция — про подготовку данных. На ней мы разберём основные источники открытых данных: научимся находить и курировать датасеты. Обсудим инструменты для inhouse-разметки и формирование ТЗ, а также внедрение авторазметки.
CV Rocket — это продвинутый курс для CV-инженеров, на котором вы разберёте большинство задач компьютерного зрения, погрузитесь в сложные случаи, возможные проблемы с данными и интересные корнер-кейсы, узнаете лучшие практики и получите ответы на накопившиеся вопросы.
Вы ещё успеваете присоединиться! Для этого переходите на сайт, изучайте подробности и присоединяйтесь к обучению 🎓
Если у вас есть вопросы, то будем рады помочь в нашей поддержке @deepschool_support
Скоро стартует курс «Ускорение нейросетей»
Если вы сталкивались в работе с оптимизацией инференса и ускорением нейросетей, пробовали фреймворки вроде ONNX, TensorRT, OpenVINO, знаете про квантование, прунинг и дистилляцию, но при этом:
— большинство решений приходится собирать на ощупь
— гайды не работают на ваших моделях
— не уверены, как сочетать методы без потери качества
— возникают сложности при деплое на CPU, мобильные устройства или одноплатники
Или если только начинаете погружаться в тему ускорения нейросетей и хотите в ней разобраться — тогда приходите на ближайший поток «Ускорения нейросетей», который стартует 11 июня! ⚡
На курсе вы научитесь:
- ускорять нейросети, понимая теорию каждого алгоритма
- комбинировать разные подходы: квантизацию, дистилляцию, прунинг
- оптимизировать инференс, сохраняя точность
- запускать сети на различных устройствах: как на GPU/CPU, так и на мобильных телефонах и одноплатниках
- использовать особенности железа и фреймворков OpenVino, TensorRT, RKNN
👨🏫 Лекции ведут опытные инженеры, а хэдлайнер курса — Александр Гончаренко, CTO ENOT.аi, стартапа по ускорению нейросетей.
📅 Обучение начинается 11 июня и продлится 4 месяца.
Изучайте подробности на сайте и записывайтесь в лист ожидания, чтобы первыми узнать подробности о курсе и получить самые большие скидки на обучение!
LLM-системы, которые реально работают
Вчера на открытой лекции мы представили наш новый курс LLM Pro 🎉
Это продвинутая программа для тех, кто уже работает с LLM и хочет решать сложные задачи!
На обучении вы соберёте полноценные LLM-системы с учётом требований к качеству и нагрузке, разберёте сложные кейсы и дизайны NLP-решений: от кластеризации и эмбеддеров до сложных RAG-систем и агентов.
В рамках курса вы научитесь:
🔹проектировать и запускать NLP-системы под реальные продуктовые задачи
🔹адаптировать LLM и эмбеддинги под специфичный домен и «живые» данные
🔹собирать и размечать датасеты — даже если данных изначально почти нет
🔹решать задачи классификации, поиска, кластеризации и NER — с ограничениями продакшн-среды
🔹собирать свою RAG-систему: от ретривера и реранкера до генератора и оценки качества
🔹строить AI-агентов с нуля — на основе сценариев, функций и взаимодействия с внешней средой
Вы разберёте реальные кейсы и научитесь применять похожие подходы в своих проектах, получите фундамент для уверенного прохождения NLP system design интервью и перехода на следующий грейд.
🤖 Старт 22 мая, а до 21 мая для вас действует скидка 5%
Переходите на сайт, изучайте подробности и присоединяйтесь к обучению!
Пишите в нашу поддержку @deepschool_support, если остались вопросы!
И до встречи на курсе!
Ванильный RAG не работает. Как исправить?
RAG — один из самых популярных подходов для интеграции LLM в реальные продукты. Его выбирают, когда нужно давать точные, верифицируемые ответы на основе собственной базы знаний. Но на практике такие решения почти никогда не работают «из коробки»: вместо полезных ответов — галлюцинации, поверхностные обобщения или просто тишина.
Причин много: эмбеддер не улавливает смысл запроса, поиск не находит нужные документы, генератор не может извлечь то, чего нет в извлеченном контексте. А когда всё ломается — непонятно, с чего начать: тюнить эмбеддер? дообучать генератор? улучшать данные?
В эту среду мы проведём открытую лекцию, на которой разберём, как в этой системе навести порядок: что действительно влияет на качество ответов, как выстроить пайплайн правильно и превратить RAG из хаотичного набора компонентов в надёжный рабочий инструмент.
На лекции расскажем:
- почему ванильная схема «ретривер + генератор» почти никогда не даёт нужного качества
- с чего начинать улучшения: эмбеддер, поиск, реранкер, генератор, данные или что-то ещё
- какие задачи приходится решать, чтобы RAG действительно работал
- как из разрозненных компонент собрать надежный RAG-продукт
Также на лекции мы представим курс LLM Pro — продвинутую программу, на которой вы научитесь строить системы, которые работают в реальном мире!
А участникам лекции подарим скидки на обучение 🎁
📅 Лекция пройдёт 30 апреля в 18:00 МСК
Регистрируйтесь по ссылке и до встречи на лекции в среду!
Начинаем через 3 часа
Сегодня на лекции расскажем, зачем нужна поддержка модели, с какими проблемами сталкиваются инженеры и как выстраивать работу!
И в конце представим программу курса Computer Vision Rocket 🔥
Участники лекции смогут занять место на программе на выгодных условиях!
Регистрируйтесь и приходите сегодня в 18:00 МСК!
Жизнь CV-модели после релиза
После релиза работа не заканчивается — и именно здесь начинаются реальные сложности. Как понять, что модель начала деградировать? Как построить поддержку, если в команде нет лишних рук? Как мониторить предсказания CV-модели?
Мы подготовили открытую лекцию, на которой разберём, где и что может пойти не так после релиза, как это вовремя заметить, и что делать, если количество моделей растёт, а команда всё та же.
На лекции расскажем:
- как в реальности выглядит цикл жизни CV-модели
- как выстраивать поддержку: что можно автоматизировать, а что — нет
- как следить за качеством модели: дрифты, аутлаеры, шум, ключевые метрики
- какие есть подходы для автоматизации мониторинга модели
- и спроектируем возможное решение на примере реальной задачи
А также представим программу курса CV Rocket и подарим скидки на обучение всем участникам лекции!
Обо всём этом расскажут:
— Анастасия Старобыховская — руководитель CV-направления НЛМК ИТ
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer, KoronaPay
🗓 24 апреля, четверг, 18:00 МСК.
Регистрируйтесь по ссылке — увидимся в четверг!
⚡️Почти через месяц стартует курс Computer Vision Rocket
Вы погрузитесь в продвинутый Computer Vision: от сложностей и корнер-кейсов в «обычных» задачах до мультимодальных моделей и дизайна CV-систем.
А пока вы ожидаете, предлагаем прочитать подборку статей по CV!
1. Введение в OCR. Часть 1
2. Как избежать хаоса в разметке данных и улучшить качество ML-моделей
3. DINO: Self-distilation with no labels
4. Few-shot learning
5. Интерпретация моделей компьютерного зрения
Изучайте статьи и записывайтесь в лист ожидания на курс, который стартует 13 мая
Score Distillation Sampling в задаче text-to-3D
Диффузионные модели активно используются в задачах генерации 2D, будь то изображения или видео. Современные text-to-image модели обучались на огромном корпусе данных и в результате научились генерировать разнообразные картинки высокого качества. Однако как применить диффузионные модели в 3D?
Одно из возможных решений этой проблемы — метод, предложенный в работе DreamFusion — Score Distillation Sampling. Авторы предлагают использовать знания, которые есть в предобученной text-to-image модели для обучения 3D генератора.
В новом посте разберём основную идею метода, а также, в каких ещё задачах применяется такой подход. Рассмотрим интуицию, а также математику идеи и посмотрим, какие результаты можно получить.
Читайте по ссылке!
YOLO history. Part 7
Продолжаем разбор моделей из семейства YOLO 😉
2024 год, похоже, стал рекордным по количеству релизов: сразу четыре новые модели пополнили семейство YOLO. Чтобы за ними успеть, сегодня мы разберём сразу две архитектуры: YOLOv7 и YOLOv9. Обе они разработаны авторами YOLOv4, но при этом демонстрируют разные подходы к архитектуре и обучению.
В этой статье мы узнаем:
- что общего между 7-ой и 9-ой версиями и чем они отличаются от 4-ой
- чем отличаются аббревиатуры ELAN, E-ELAN и GELAN
- зачем нужны вспомогательные модели и как их можно использовать для ускорения обучения
Читайте новую статью по ссылке!
Как перейти от простого обучения моделей к созданию полноценных NLP-систем?
Вы обучили свою LLM, построили эмбеддер или воспользовались API, но:
— RAG-решение галлюцинирует и не выдерживает нагрузку
— AI-агент не справляется с реальными сценариями
— Эмбеддинги плохо работают на специфичном домене
— Классификация и поиск дают нестабильные результаты
— Качество модели со временем падает
Эти проблемы — не редкость. Обучение модели — это только часть решения. Чтобы запустить рабочую NLP-систему, нужно уметь адаптировать её под домен и ограничения.
Мы готовим новый курс LLM Pro, на котором разберём, как строить системы, которые работают в реальном мире:
🔹 Соберём свою RAG-модель: от ретривера и реранкера до генерации ответов и оценки качества
🔹 Построим AI-агента, который сможет выполнять сложные сценарии
🔹 Настроим BERT и эмбеддинги под домен
🔹 Решим задачи классификации, поиска, кластеризации и NER с учётом ограничений
Это продвинутый курс для тех, кто хочет научиться строить надёжные NLP-решения!
🚀 Обучение стартует 22 мая!
📢 Записывайтесь в лист ожидания, чтобы первыми узнать подробности о курсе и получить лучшие условия на обучение.
Ускорение диффузионных моделей за счёт кэширования
При генерации диффузионными моделями мы много раз вызываем достаточно большую модель. Это делает процесс генерации очень долгим в сравнении с теми же GAN'ами, поэтому важно ускорять диффузионки.
Ускорить их можно двумя способами:
1. уменьшить количество шагов генерации
2. ускорить каждый шаг генерации
О втором методе мы и поговорим в новой статье. В ней мы рассмотрим две работы: DeepCache и Cache Me if You Can — в которых предлагают кэшировать часть фичей декодера UNet. Статьи вышли примерно в одно время, но в них есть различия, которые мы также обсудим.
Подробнее читайте по ссылке!
Стартовал 2 поток курса «Деплой DL-сервисов» 🚀
На этой неделе мы провели вводную встречу, на которой студенты нового потока познакомились друг с другом. А уже 25 марта ребят ждёт первая лекция по настройке репозитория🔥
Если вам тоже интересно научиться создавать и деплоить DL-сервисы и стать частью коммьюнити, которое объединяет опытных и начинающих специалистов из разных компаний и стран, то до первой лекции ещё можете присоединиться к курсу!
Узнать подробнее о программе и оплатить курс можно по ссылке!
End-to-End модели OCR
В серии статей по OCR мы уже познакомились со всеми вводными, CRAFT’ом, детекторами текста на основе трансформеров (раз и два), Differentiable Binarization и CLIP4STR.
У традиционных многостадийных решений OCR бывает непросто уследить за всем зоопарком моделей, датасетов и постпроцессингов, которые они порождают. А при несущественном (на первый взгляд) изменении формулировки задачи может потребоваться весь этот зоопарк реализовать заново.
В новой статье мы рассмотрим End-to-End методы анализа документов и расскажем, как можно решать различные задачи OCR с помощью всего лишь одной модели. В обзоре мы рассмотрим такие модели, как Dessurt, Donut и OmniParser, и поймём, почему иногда специализированную модель применять лучше, чем универсальную VLM.
Читайте статью в нашем блоге по ссылке!