bigdatai | Unsorted

Telegram-канал bigdatai - Big Data AI

15160

@haarrp - админ Вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейроннным сетям @data_analysis_ml - анализ данных @ai_machinelearning_big_data @itchannels_telegram - важное для программиста

Subscribe to a channel

Big Data AI

✔️ Jan-nano от Menlo Research — модель на базе Qwen3 всего на 4B параметров, созданная для Deep Research.

Модель заточена и оптимизирована для интеграции с Model Context Protocol (MCP).

📊 На SimpleQA (agentic / MCP) — Jan-nano набирает 80.7

Это серьёзный результат для модели такого размера!

Модель работает через Jan — open-source альтернативу ChatGPT, которая запускается локально.

🔍 Jan-nano — ещё один пример того, как компактные модели могут конкурировать с большими моделями благодаря обучению и агентной архитектуре.

HF: https://huggingface.co/Menlo/Jan-nano

@ai_machinelearning_big_data


#LLM #JanNano #MCP #OpenSourceAI

Читать полностью…

Big Data AI

🚀 NVIDIA ежегодно обновляет инфраструктуру для ИИ, выводя производительность инференса на новый уровень — от чипов до систем и программного обеспечения.

NVIDIA Blackwell — передовая AI-платформа на рынке:
• Лидерство в скорости инференса и точности
• Поддержка популярных моделей: DeepSeek-R1, Llama 3.1 405B, Llama 3.3 70B и другие
• Второе поколение Transformer Engine с поддержкой FP4
• TensorRT Model Optimizer для квантования моделей в FP4

С помощью NVFP4 и TensorRT Model Optimizer Blackwell способен запускать самые сложные open-source модели с выдающейся точностью.

Именно это делает Blackwell самой мощной платформой для инференса, созданной на сегодняшний день. 🙌

Читать полностью…

Big Data AI

👩🏻‍💻 mcp-agent — фреймворк для создания интеллектуальных агентов с Model Context Protocol.

Этот проект реализует идеи Anthropic по стандартизации взаимодействия ИИ-ассистентов с внешними сервисами. Вместо того чтобы писать сложные интеграции, вы можете подключать агентов к MCP-серверам и использовать готовые шаблоны для построения рабочих процессов.

Фреймворк поддерживает все паттерны из Building Effective Agents, включая параллельное выполнение задач, маршрутизацию запросов и swarm-оркестрацию агентов. При этом он остается легковесным и позволяет комбинировать разные подходы.

🤖 GitHub

@bigdatai

Читать полностью…

Big Data AI

NVIDIA’s New AI: Next Level Games Are Coming!

https://www.youtube.com/watch?v=76VYzhs-0FE

Читать полностью…

Big Data AI

Как масштабировать машинные модели и работать с огромными объемами данных? Откройте для себя возможности Spark ML на открытом уроке от OTUS!

Spark ML — это мощный инструмент для масштабируемого машинного обучения, который позволяет обучать модели на больших данных, не переходя на специализированные ML-системы. Мы покажем, как интеграция с Spark SQL и DataFrame API упрощает ETL-подготовку данных и фичуризацию для реальных проектов.

Убедитесь, как Spark ML решает задачи отказоустойчивости и распределённых вычислений, позволяя вам легко строить промышленные ML-пайплайны.

Посетите открытый урок 11 июня в 20:00 МСК в преддверие старта курса «Spark Developer» и получите скидку на обучение: https://otus.pw/kzQH/?erid=2W5zFH32Kha

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.

Читать полностью…

Big Data AI

🧠 OpenThinker3-7B — новая открытая LLM для математики, кода и науки

Команда Open Thoughts представила OpenThinker3-7B — модель с 7B параметров, натренированную на 1.2M задач по математике, программированию и естественным наукам. Построена на базе Qwen2.5-7B-Instruct и удивляет точностью даже без RLHF.

🔍 Что внутри:
• 850 000 математических задач
• 250 000 задач по программированию
• 100 000 научных вопросов
• SFT (без RL) — но обходит модели до 32B

📊 Результаты (AIME24 / MATH500 / CodeElo):
• OpenThinker3-7B: 69.0 / 90.0 / 32.2
• DeepSeek-R1-Distill-32B: 51.3 / 88.0 / 21.1
• OpenThinker2-7B: 60.7 / 87.6 / 26.6

🧩 Ключевые фишки:
• Полностью открытая модель: веса, код, датасеты
• Работает с Evalchemy, CodeElo, GPQA, JEEBench
• Умеет точно рассуждать без цепочек промптов
• Превосходит модели в 3–5 раз больше по параметрам

⚙️ Технические детали:
• GPU: 512 × A100
• Время обучения: 48 часов
• PyTorch 2.3, Transformers 4.46
• Оптимизатор: AdamW, LR: 8e-5, cosine scheduler

🔗 Полезные ссылки:
https://huggingface.co/open-thoughts/OpenThinker3-7B
📂 Датасет: https://huggingface.co/datasets/open-thoughts/OpenThoughts3-1.2M
📄 Статья: https://arxiv.org/abs/2506.04178
💻 GitHub: github.com/open-thoughts/open-thoughts

Читать полностью…

Big Data AI

Yandex B2B Tech обновила платформу SourceCraft и сделала её общедоступной. Ранее она использовалась только внутри компании, теперь с ней могут работать любые разработчики.

Обновление включает ряд новых функций. Среди них — инструменты безопасной разработки: сканер секретов в коде, анализ зависимостей и сводка по выявленным рискам. Это позволяет снижать вероятность ошибок и повышать безопасность ИТ-продуктов.

Также появилась возможность зеркалировать репозитории с GitHub, подключать сторонние приложения через публичный API и использовать корпоративную учётную запись для командной работы.

По словам руководителя платформы, обновления направлены на сокращение затрат и ускорение вывода продуктов на рынок — с сохранением требований к качеству и безопасности.

Читать полностью…

Big Data AI

Вы когда-нибудь задумывались о том, что с помощью ИИ можно значительно ускорить время, затрачиваемое на поиск информации и повысить точность бизнес-решений? На вебинаре “LLM и RAG в действии: как ИИ уже помогает бизнесу работать эффективнее” мы покажем конкретные кейсы, включая реализованный проект внутри компании DSSL. А также:

1. Разберём, чем RAG отличается от fine-tuning.
2. Какие архитектуры применяются, и что выбрать для себя — облако или on-prem.
3. Как интегрировать AI-ассистента с Вашими системами и повысить эффективность исследований.

Вебинар будет полезен тем, кто ищет практическое применение ИИ в компании уже сегодня.

📅 5 июня в 14:00 по Москве

➡️ Зарегистрироваться

А еще все слушатели вебинара получат запись и презентацию выступающего, которые можно использовать в работе!

Реклама. ООО "ДССЛ-ПЕРВЫЙ". ИНН 7701081730. erid: 2W5zFHrRukc

Читать полностью…

Big Data AI

✔️ Black Forest Labs презентовала FLUX.1 Kontext.

FLUX.1 Kontext — семейство моделей для генерации и редактирования изображений, которые работают "в контексте". Это значит, что модели умеют не только генерировать картинки по тексту, но и принимать на вход изображения, чтобы модель поняла, что именно вы хотите сохранить или изменить. Возможности: сохранение стиля или персонажа из вашего референса, точечное редактирование без искажения и добавление инструкций шаг за шагом.

Есть 3 версии: FLUX.1 Kontext [pro] — универсальная для генерации и инпейнта, работает в разы быстрее аналогов и сохраняет консистентность при многошаговых правках. FLUX.1 Kontext [max] — экспериментальная модель с улучшенным следованием промптам и типографикой. Обе уже доступны через партнеров: KreaAI, Freepik, LeonardoAI, Replicate и др.

Для исследователей и энтузиастов открыли доступ по запросу к приватной бета-версии FLUX.1 Kontext [dev] с открытыми весами (12B). А чтобы просто потестить возможности, запустили демо - Playground.
bfl.ai

@bigdatai

Читать полностью…

Big Data AI

💡 Исследователи представили тщательно отобранный датасет для общего рассуждения: из более чем миллиона примеров из открытых источников они отобрали около 350 тысяч наиболее ценных с помощью серии абляционных экспериментов.

Модели, обученные на этом наборе данных, показали сопоставимые или даже более высокие результаты, чем дистиллированные модели от DeepSeek — как в задачах по математике и программированию, так и на научных бенчмарках вроде GPQA.

Авторы также подтвердили эффективность "добавочного подхода", предложенного в работе Phi-4-reasoning: датасеты можно оптимизировать отдельно для каждой области рассуждений, а затем объединить в единую итоговую смесь — это действительно даёт сильный прирост качества.

huggingface.co/datasets/open-r1/Mixture-of-Thoughts

Читать полностью…

Big Data AI

❓Хотите овладеть Spark на профессиональном уровне?

Приглашаем дата-инженеров 26 мая в 20:00 на открытый урок «Spark в Kubernetes».

На занятии мы рассмотрим особенности и варианты запуска Spark в Kubernetes.

🔊 Вебинар проведет Вадим Заигрин, Team Lead команд инженеров данных на разных проектах.

Продолжить освоение инструментов дата-инжиниринга вы сможете на онлайн-курсе «Spark Developer» от OTUS. Воспользуйтесь велком скидкой по промокоду Early_Spark_5

➡️ Ссылка для регистрации: https://tglink.io/f2441a94523f?erid=2W5zFHhdh28

#реклама
О рекламодателе

Читать полностью…

Big Data AI

Стань частью масштабного ИТ-события от МТС

True Tech Day 2025 — третья технологическая конференция МТС для профессионалов ИТ‑индустрии. Одна из главных тем в этом году — тренды и практики искусственного интеллекта.

В программе:
— Доклады от ученых и зарубежных спикеров с индексом Хирша более 50.
— Кейсы применения современных ИИ‑решений — от AI‑агентов, тестов LLM и бенчмарков до вопросов регулирования.
— AI-интерактивы и технологические квесты.
— Пространство для нетворкинга,
…а еще after-party со звездным лайн-апом.

Когда: 6 июня
Где: Москва, МТС Live Холл и онлайн
Участие бесплатное, но мест мало. Регистрируйся по ссылке.

Читать полностью…

Big Data AI

🧠 String‑Membrane‑Nets и фрактонные фазы через gauging симметрий
📝 arXiv:2505.13604 (май 2025)

Эта статья предлагает нетривиальный способ построения фрактонных фаз в 3+1D через механизмы gauging 1‑формных симметрий.

🔹 Что предложено?
Вместо традиционной конденсации p‑струн (p‑string condensation), авторы используют калибровку (gauging) 1‑формной симметрии. Это позволяет получить фрактонные фазы с контролируемыми свойствами, без приближений.

🔹 Основные итоги:
• Связь между 2+1D anyon condensation и 3+1D фрактонными фазами
• Построение string‑membrane‑net моделей — обобщение string-net на 3D
• Чёткая связь между field-theoretic и lattice описаниями
• Получение X‑Cube модели через gauging стекинга \(\mathbb{Z}_N\) gauge теорий

🔹 Почему это важно?
• Новый путь для создания устойчивых квантовых кодов и фрактонной материи
• Математически строгий и универсальный подход для генерации фрактонных возбуждений
• Расширение инструментов топологического фазового инжиниринга в 3D

🔬 Для кого это?
Физики, изучающие квантовые топологические фазы, исследователи квантовой информации и теоретики, работающие над фрактонными системами и higher-form symmetries.

📖 https://arxiv.org/abs/2505.13604

Читать полностью…

Big Data AI

Data Fest 2025 в гостях у VK — офлайн 24 мая 🤩

Открываем конференцию Data Fest 2025 — в офисе VK. Приходите познакомиться с опытом дата-инженеров и исследователей в направлениях LLM, NLP, MLOps и других. Эксперты VK подготовили секцию докладов о RecSys, Reliable ML и карьере тимлида. Афтепати с розыгрышем призов и нетворкингом прилагается.

📍 Встречаемся 24 мая по адресу: Ленинградский проспект, 39, стр. 79, БЦ Skylight, башня А.

🤗 Регистрация уже открыта.
Количество мест ограничено, поэтому заполняйте анкету внимательно.

Читать полностью…

Big Data AI

✔️ OpenAI запускает HealthBench.

OpenAI представила HealthBench - бенчмарк для тестирования ИИ-систем в сфере здравоохранения. Разработанный при участии 262 врачей из 60 стран, он включает 5000 реалистичных диалогов, имитирующих общение пациентов и медиков. Каждый сценарий оценивается по индивидуальным критериям, созданным экспертами: точность данных или ясность ответов.

Всего в бенчмарке 48 562 параметра оценки, что позволяет глубоко анализировать работу моделей. Особый упор сделан на надежность: даже один ошибочный ответ в медицине критичен. HealthBench включает подборки сложных кейсов (HealthBench Hard), где современные ИИ еще отстают. Все данные и методики уже доступны в GitHub-репозитории OpenAI .
openai.com

Читать полностью…

Big Data AI

📄 Dolphin — новая OCR модель ByteDance для понимания сложных документов в виде изображений

Dolphin — это мультимодальная модель, которая умеет разбирать сканы и фотографии документов, включая текст, таблицы, формулы и графики.

Подойдет для автоматизации чтения и структурирования PDF-файлов, отсканированных отчётов и научных статей.

Как работает модель:
1️⃣ Анализ страницы — модель определяет порядок элементов доцентов так, как читает человек
2️⃣ Разбор содержимого — параллельно обрабатываются абзацы, таблицы, формулы и другие элементы, используя специальные встроенные промпты

Архитектура:
• Визуальный энкодер — Swin Transformer
• Текстовый декодер — MBart
• Управление через промпты

📌 Возможности:
• Постраничная обработка документа
• Точечный парсинг отдельных элементов (например, таблиц)
• Высокая точность и скорость работы модели
• Открытая MIT-лицензия

Установка:
git clone https://github.com/ByteDance/Dolphin.git
cd Dolphin


Github
HF
Demo

@ai_machinelearning_big_data


#ocr #ByteDance

Читать полностью…

Big Data AI

🚀 Cosmos-Predict2 — новая открытая видео-модель для Physical AI от NVIDIA!

Cosmos-Predict2 — ключевая часть экосистемы World Foundation Models (WFMs), созданная для Physical AI. Модель умеет предсказывать будущее состояние визуального мира, используя текст и видео. Cosmos разработан для ускорения обучения моделей, которые понимают физику, среду и действия — от автономных автомобилей до роботов. Выглядит очень интересно.

Это самое мощное поколение моделей в экосистеме Cosmos. Модель заметно улучшена по сравнению с Predict1:

🎯 лучшее качество видео
🧠 точнее соответствует текстовому описанию
🎥 более реалистичная динамика движения

📊 Cosmos-Predict2 превосходит другие open-source видео foundation-модели.

Веса
Полный код для инференса и обучения (с туториалами)

@ai_machinelearning_big_data


#Cosmos #NVIDIA

Читать полностью…

Big Data AI

🎯 5 ИИ-проектов, которые ты можешь собрать за выходные

Хочешь прокачать навыки ML и Python без математики и Kaggle? Лови 5 готовых идей, которые можно собрать за 1–2 дня:

🔹 Голосовой ассистент — Whisper + GPT + озвучка
🔹 Чат-бот для PDF — LangChain + FAISS + OpenAI
🔹 Генератор картинок — Stable Diffusion + Gradio
🔹 Подписи к фото — BLIP + HuggingFace
🔹 TL;DR бот — BART или GPT для суммаризации текста

✅ Примеры кода
✅ Деплой на HuggingFace / Streamlit
✅ Всё реально собрать за выходные

📎 Забирай гайд — и добавь проекты в резюме: «AI developer: checked»

Читать полностью…

Big Data AI

📄 Это исследование оценивает 14 техник prompt-инжиниринга для 10 задач в области Software Engineering, используя 4 разных LLM.

Методология 🔧:

● Эффективность оценивалась с помощью метрик: Accuracy, F1 score, CodeBLEU, BLEU.

● Анализировались лингвистические характеристики prompt'ов: лексическое разнообразие, число токенов и их связь с качеством ответа.

● Применялась контрастивная интерпретация, чтобы выявить ключевые факторы, влияющие на результативность техник.

📌 Выводы помогут понять, какие типы prompt'ов реально работают в инженерных задачах и почему.

Читать

Читать полностью…

Big Data AI

💡 Встречайте Water — простой и гибкий фреймворк для многокомпонентных AI-систем.

🌊 Что такое Water:
• Лёгкий, модульный и open-source
• Изначально рассчитан на работу с несколькими агентами
• Совместим с любыми популярными платформами: OpenAI Agents SDK, LangChain, Google ADK и другими
• Поддерживает структурированные сценарии: последовательные, параллельные, циклы, условия

Идеален для тех, кто хочет собирать сложные AI-цепочки без лишнего кода и ограничений.

🔗 GitHub: https://github.com/manthanguptaa/water
📘 Docs: https://manthanguptaa.in/posts/water/

#AI #Agents #MultiAgent #Framework #opensource

Читать полностью…

Big Data AI

🌟 Microsoft GUI-Actor: взаимодействие ИИ с GUI без использования координат.

GUI-Actor — методика на базе VLM, которая вместо традиционной генерации координат текстом при визуальной обработке интерфейса использует внимание внутри модели.

Чтобы уйти от координатного подхода, в GUI-Actor используется специальный токен <ACTOR>, который "учится" связываться с визуальными патчами, соответствующими целевой области экрана. За один проход модель может запомнить сразу несколько кандидатов на действие.

Например, все кнопки "Сохранить" в сложном интерфейсе. Это очень похоже на человеческое восприятие: видеть сам элемент, а не его позиции по осям Х и Y.


Выбрать наиболее подходящий вариант из элементов-кандидатов помогает "верификатор". Это отдельная модель, оценивающая кандидатов от <ACTOR> и отбирающая самый подходящий для действия. Она не только улучшает точность, но и универсальна: ее можно подключить к другим моделям.

Обучение требует минимум ресурсов. Можно заморозить основную VLM (Qwen2-VL-7B) и дообучить только новый action head и токены. Это всего ~100М параметров для 7B-модели.

Комбинация из такого быстрого обучения + верификатор почти догоняет полноценно обученные аналоги, сохраняя общие способности базовой модели. Никакого "катастрофического забывания" - агент учится кликать интерфейсы, не разучиваясь описывать картинки.

Результаты тестов на сложном бенчмарке ScreenSpot-Pro с высоким разрешением и незнакомыми интерфейсами (CAD, научный софт) GUI-Actor-7B с Qwen2-VL показал 40.7 балла, а с Qwen2.5-VL — 44.6, обойдя даже UI-TARS-72B (38.1).

На других тестах (ScreenSpot, ScreenSpot-v2) он тоже лидирует, особенно в иконках и текстовых элементах, демонстрируя крутую адаптацию к разным разрешениям и версткам.

▶️В открытый доступ опубликованы веса моделей:

🟢GUI-Actor-7B-Qwen2-VL;
🟢GUI-Actor-2B-Qwen2-VL;
🟠GUI-Actor-Verifier-2B.

В планах - выпуск еще двух моделей на основе Qwen2.5-VL (3B и 7B), демо GUI-Actor, код для модели-верификатора и датасеты для обучения.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #VLM #GUIActor #Microsoft

Читать полностью…

Big Data AI

🧠 Что такое Word Embeddings и зачем они нужны в NLP?

В новой статье на Machine Learning Mastery объясняется, как word embeddings (векторные представления слов) преобразили обработку естественного языка.

📌 Что такое word embeddings?

Это способ представить слова в виде плотных векторов в многомерном пространстве, где семантически похожие слова располагаются рядом. Например, вектора для слов "король" и "королева" будут близки друг к другу. Это основано на гипотезе распределения: слова, встречающиеся в похожих контекстах, имеют схожее значение.

🔧 Как их использовать?

- Предобученные модели: можно использовать готовые embeddings, такие как Word2Vec, GloVe, FastText или ELMo.
- Обучение с нуля: с помощью библиотек, например, Gensim или PyTorch, можно обучить собственные embeddings на вашем корпусе данных.

### 🤖 Embeddings в современных языковых моделях

В трансформерах, таких как BERT, embeddings являются первым слоем (`nn.Embedding`), преобразующим токены в векторы. Эти вектора затем обрабатываются слоями внимания для понимания контекста и значений слов в предложении.

📚 Подробнее

Читать полностью…

Big Data AI

🧠 Gemini Fullstack LangGraph — умный AI, который реально умеет гуглить

Этот проект — готовый fullstack-пример с фронтендом на React и backend-агентом на LangGraph, который умеет проводить глубокие исследования по пользовательскому запросу. И делает это по-взрослому: генерирует поисковые фразы, гуглит, анализирует пробелы в знании и уточняет запросы, пока не соберёт обоснованный ответ с источниками.

🚀 Что под капотом:

💬 Fullstack-приложение: React + LangGraph
🧠 LangGraph-агент, управляемый Google Gemini
🔍 Динамическая генерация поисковых запросов
🌐 Поиск через Google Search API
🤔 Умная самооценка: где не хватает знаний — туда и копает
📄 Ответы с цитатами и источниками
🔄 Горячая перезагрузка — удобно в разработке (и фронт, и бэк)

📦 Подходит для тех, кто хочет собрать исследовательского AI-ассистента с реальным выходом в веб.

🔗 Репозиторий

Читать полностью…

Big Data AI

🧠 Adaptive Deep Reasoning — умная система от Hunyuan, которая сама выбирает, **как много думать*.

Вместо одного фиксированного способа рассуждать — модель динамически переключается между короткой и длинной цепочкой **рассуждений в зависимости от сложности задачи.

Без потери качества. Без избыточных токенов.

🔧 Как это работает:

1️⃣ Supervised Fine-tuning — обучает модель сразу двум режимам: short и long reasoning
2️⃣ Reinforcement Learning (GRPO) — адаптивная стратегия наград:
• Анализирует сложность запроса
• Подбирает подходящую длину рассуждения
• Оптимизирует выбор reasoning-режима

⚙️ Встроенная logit-based switching loss — с первого токена выбирает нужную траекторию (длинную или короткую).

✅ Что получаем:
• Мгновенное переключение между режимами
• Экономия ресурсов без потери точности
• Повышение эффективности reasoning без усложнения архитектуры

🚀 Adaptive Deep Reasoning — это как если бы модель *думала ровно столько, сколько нужно*. Ни больше, ни меньше.

arxiv.org/pdf/2505.20101

@bigdatai

Читать полностью…

Big Data AI

🖐 Apple решила проблему нехватки данных для имитационного обучения!

📦 Представляем EgoDex — крупнейший в мире датасет ловких действий человека:

• 829 часов видео от первого лица
• Синхронизированные 3D-позы рук
• 194 уникальные задачи манипуляции предметами

🎯 Почему это важно?
Имитационное обучение требует масштабных и реалистичных данных. EgoDex даёт ИИ возможность учиться у человека — видеть, как двигаются руки, и точно повторять действия.

🔬 Подходит для:
— Робототехники
— AR/VR интерфейсов
— Исследований моторики

Apple делает шаг к более ловкому ИИ 🤖

arxiv.org/abs/2505.11709 (

Читать полностью…

Big Data AI

📊 Free LLM API Resources — бесплатные облачные модели для разработчиков. Для тех, кто хочет экспериментировать с LLM без затрат на API, появился исчерпывающий гайд по бесплатным ресурсам. В списке — десятки провайдеров с лимитами от 50 запросов в день до 1 млн токенов.

Из них можно выделить:
— Google AI Studio с Gemini 1.5 Flash (500 запросов/день)
— Mistral La Plateforme — доступ к Codestral и другим фирменным моделям
— Cloudflare Workers AI — 10k нейронов ежедневно для Llama 3 и Qwen

Есть и временные кредиты: $30 у Baseten, $10 у AI21 для Jamba. Главное правило не злоупотреблять, иначе бесплатные лимиты могут исчезнуть.

🤖 GitHub

@bigdatai

Читать полностью…

Big Data AI

Прогресс искусственного интеллекта поистине стремителен

#Veo3

@data_analysis_ml

Читать полностью…

Big Data AI

✈️ Apache Avro — универсальная система сериализации данных. Этот проект с открытым исходным кодом позволяет компактно упаковывать данные с сохранением схемы, что особенно ценно при работе с Kafka, Hadoop и другими системами потоковой обработки.

Инструмент выделяется кросс-языковой поддержкой и эффективным бинарным форматом, который минимизирует накладные расходы по сравнению с JSON или XML. Сейчас проект активно развивается: в CI-пайплайнах появилась поддержка ARM-серверов, а для разработчиков — devcontainers, ускоряющие старт работы с кодом.

🤖 GitHub

@bigdatai

Читать полностью…

Big Data AI

⚡ SageAttention — революция в скорости работы трансформеров

Исследователи из THU-ML представили инновационный метод ускорения attention-слоёв, который не требует изменения архитектуры моделей. Проект использует интеллектуальное 8-битное квантование матриц внимания, сохраняя при этом точность оригинальных моделей.

На новых GPU RTX 5090 решение показывает впечатляющие 2.7x ускорение по сравнению с FlashAttention-2. Технология уже интегрируется в популярные фреймворки, для тестирования достаточно заменить одну строку кода.

🤖 GitHub

@bigdatai

Читать полностью…

Big Data AI

⚡️Создаём свою нейросеть в PyTorch

Хотите быстро разобраться в PyTorch и написать свою нейросеть? Мы подготовили для вас вебинар, где на практике разберём все этапы создания ML-модели.

Вебинар проведет Владислав Агафонов — ML-инженер, ранее работал в Yandex и Huawei.

Что будет на вебинаре?
🟠Установим PyTorch в Google Colab и настроим работу на бесплатном GPU;
🟠Поймём, что такое тензоры и почему они — фундамент всех нейросетей;
🟠Скачаем готовый датасет, разберём его структуру и подготовим для обучения;
🟠Научимся использовать DataLoader для эффективной загрузки данных;
🟠Пошагово соберём облегчённую версию классической свёрточной нейронной сети (CNN);
🟠Обучим и протестируем модель.

🕗 Встречаемся 14 мая в 18:30 по МСК, будет много практики, ответы на вопросы и полезные инсайты от эксперта.

😶Зарегистрироваться на бесплатный вебинар

Читать полностью…
Subscribe to a channel