data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

10807

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

⚔️ OpenAI vs. Microsoft — борьба за контроль в ИИ

Между двумя гигантами ИИ — OpenAI и Microsoft — нарастает конфликт.

🧠 OpenAI хочет:
• Освободиться от влияния Microsoft
• Привлечь новые инвестиции
• Преобразоваться в полноценную коммерческую компанию

🧱 Microsoft, в свою очередь:
• Блокирует инициативу
• Может столкнуться с антимонопольной жалобой
• Пытается сохранить эксклюзивный доступ к ключевым разработкам

⚠️ Этот конфликт показывает, что борьба за ИИ — это не только битва за вычисления, но и за управление, прозрачность и доступ.

💡 Справедливая и открытая инфраструктура ИИ — вопрос не будущего, а настоящего.

📌 Читать полностью

@data_analysis_ml

#OpenAI #Microsoft #AI #инфраструктура #технологии #анализ

Читать полностью…

Анализ данных (Data analysis)

🦾 Подборка: Awesome LLM Apps на GitHub!

Коллекция самых интересных и полезных приложений и сервисов на базе больших языковых моделей: ассистенты, генераторы, поисковики, инструменты для работы с текстами, коды и API — всё в одном репозитории.

📂 Ссылка на подборку:
https://github.com/Shubhamsaboo/awesome-llm-apps

🔍 Отлично подойдёт для вдохновения, изучения лучших практик и быстрого старта своих проектов на LLM!

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🧬 BioReason: биомедицинская нейросеть, которая реально *думает*
От лаборатории Bo Wang (U of Toronto)

BioReason — это reasoning-модель для биомедицинских задач, которая учится делать *глубокие логические выводы* по статьям, графам знаний и научным данным.
💡 Не просто "угадывает", а *обобщает и объясняет*.

📚 Обучена на:
• PubMed abstracts
• PICO фреймах
• SNOMED CT и других онтологиях
• Biomedical Knowledge Graphs

🚀 Особенности:
• Архитектура на основе LM+GNN+reasoning engine
• Сильна в задачах like QA, classification, relation extraction
• Поддержка chain-of-thought + multi-hop inference
• Основана на OpenPretrain и GALACTICA

🧪 Benchmark’и:
+18–22% точности по сравнению с BioLinkBERT и GPT-3.5 на ряде задач (MedQA, PubMedQA, MedNLI и др.)

# Clone the repository
git clone https://github.com/bowang-lab/BioReason.git
cd BioReason

# Install package
pip install -e .


🔗 GitHub: https://github.com/bowang-lab/BioReason
📄 Статья: https://arxiv.org/abs/2406.02491

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

📘 «Компьютерное зрение коротко и ясно» — книга, которую вы действительно прочитаете

Эта книга охватывает основы computer vision с точки зрения обработки изображений и машинного обучения. Цель — не просто объяснить, а сформировать интуицию у читателя. В книге много наглядных визуализаций и минимум лишних слов.

👥 Для кого:
• студенты бакалавриата и магистратуры, которые только входят в область
• практики, которым нужен быстрый и содержательный обзор

📏 Идея была простой: написать небольшую книгу с максимумом пользы — по 5 страниц на главу, только с самыми важными идеями.
Но… увы, и это не удалось — тема слишком широка, чтобы уместиться в малый формат.


📚 Получилось то, что нужно: сильная, визуальная и сжатая книга по компьютерному зрению, которую не страшно открыть и приятно дочитать.

✔️ Книга

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🧠 Спор о будущем: Дженсен Хуанг против Дарио Амодеи

CEO Nvidia Дженсен Хуанг и глава Anthropic Дарио Амодеи — по разные стороны баррикад, когда речь идёт о будущем рабочих мест в эпоху ИИ.

🔻 Амодеи бьёт тревогу:
ИИ может «съесть» до 50% начальных должностей уже в ближайшие 5 лет. Массовая безработица — реальный риск. Он также настаивает на жёстком регулировании разработки ИИ.

🔺 Хуанг с ним не согласен:
Он не верит в крах рынка труда. По его мнению, ИИ поднимет производительность и трансформирует рабочие процессы, создав новые рабочие места. Более того, он считает, что технологии должны развиваться открыто — как в медицине, чтобы вовремя выявлять риски.

🤔 Но…
Хуанг так и не объяснил, какие именно профессии появятся и почему люди в них будут лучше ИИ.

💬 Амодеи звучит убедительнее. Слепая вера в «появление новых рабочих мест» без конкретики — опасная иллюзия.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🔥 AMD возвращается — и бросает вызов NVIDIA

Конец эпохи дефицита GPU?

На конференции Advancing AI AMD представила новые чипы MI350 и анонсировала серию MI400.

💥 MI350X:
• В 35 раз выше производительность инференса, чем у MI300
• На 40% энергоэффективнее, чем NVIDIA Blackwell
• Новый сервер Helios — до 72 чипов на стойку (ответ NVL72 от NVIDIA)

💬 Сэм Альтман (OpenAI) подтвердил партнёрство и участие в проектировании MI450
🧠 Microsoft, Meta, Oracle, xAI — уже на борту

🔓 AMD делает ставку на открытые стандарты (в отличие от CUDA)
♻️ Цель — 20-кратный рост энергоэффективности дата-центров к 2030

⚙️ AMD впервые всерьёз конкурирует с NVIDIA
Ставки: цена, открытость и масштабируемость.

MI350X выглядит как серьёзный конкурент Blackwell, а поддержка MI450 со стороны Альтмана — это далеко не пустой жест.

Если AMD продолжит продвигать открытые стандарты и энергоэффективность, мы наконец-то можем увидеть борьбу за рынок с NVIDIA на рынке GPU.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 DiffusionRenderer (Cosmos): Neural Inverse and Forward Rendering with Video Diffusion Models

Cosmos DiffusionRenderer — это современный фреймворк для нейросетевого de-lighting и re-lighting видео и изображений.

Новый релиз даёт качественный скачок по сравнению с предыдущей версией: ещё более чистое удаление и добавление освещения благодаря архитектуре NVIDIA Cosmos и улучшенному пайплайну обработки данных.

🔧 Минимальные требования:
• Python 3.10
• NVIDIA GPU с минимум 16 ГБ VRAM (рекомендуется ≥24 ГБ)
• NVIDIA драйверы и CUDA 12.0+
• Свободно ≥70 ГБ на диске

Проект протестирован на Ubuntu 20.04 и видеокартах NVIDIA A100/A5000.

https://github.com/nv-tlabs/cosmos1-diffusion-renderer

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🎉 cuOpt от NVIDIA стал open source!

Теперь можно легко ускорять задачи оптимизации —
🔸 линейное программирование (LP)
🔸 целочисленные задачи (MIP)
🔸 маршрутизацию транспорта (VRP)
— с помощью GPU, почти не меняя код.

💡 Работает с Python, REST API и CLI
💡 Поддерживает PuLP и AMPL
💡 Запускается локально или в облаке
💡 Настраивается за пару минут

pip install --extra-index-url=https://pypi.nvidia.com cuopt-server-cu12==25.5.* cuopt-sh==25.5.*

📈 Результат — решения почти в реальном времени, даже для сложных задач.

👉 Попробуй

Читать полностью…

Анализ данных (Data analysis)

🧠 16 июня все самое важное в мире технологий ищите в Санкт-Петербурге!

В ТехноХабе Сбера состоится большая сессия в рамках серии мероприятий международной конференции AI Journey.

Именно здесь соберутся лидеры AI-индустрии из разных стран, чтобы обсудить реальные кейсы внедрения AI, архитектуры нового поколения, крутой апгрейд нейронки GigaChat, самое свежее в исследованиях GenAI и то, что уже завтра станет новым стандартом!

📌 Подключайтесь к трансляции, чтобы не отставать от будущего.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Mistral выпустила ризонинг-модель Magistral.

Magistral — первая модель рассуждений от Mistral AI. Она сочетает глубокую логическую обработку с возможностью отслеживать каждый шаг её «мышления».

Модель получила поддержку 8 языков, включая русский и выпущена в 2 вариантах:

🟢опенсорсный Magistral Small с 24 млрд. параметров;

🟠корпоративный Magistral Medium.

Внутри Magistral работает в режиме рассуждений, разбивая задачи на цепочки логических шагов, а Flash Answers ускоряет вывод в 10 раз по сравнению с конкурентами. Для интеграции в рабочие процессы модель умеет взаимодействовать с внешними инструментами (API или базами данных).

В тестах Magistral Medium показал 73,6% точности на задачах AIME2024, демонстрируя силу в физических симуляциях и математических расчетах.

Для разработчиков доступны версии на Hugging Face, AWS и IBM WatsonX, а в будущем — на Azure и Google Cloud. Демо Magistral доступно в интерфейсе Le Chat или по API в La Plateforme.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Модель
🟡Техотчет
🟡Web Demo


@ai_machinelearning_big_data

#AI #ML #LLM #Magistral #MistralAI

Читать полностью…

Анализ данных (Data analysis)

🧠 NVIDIA выпустила *Nemotron-Personas* — 100 000 синтетических персон на Hugging Face!

🔓 Открытый датасет, сгенерированный нейросетью, но основанный на *реальных распределениях* пользователей. Что это даёт:

• 🧩 Больше *разнообразия* в данных
• 🛡 Снижение *предвзятости* моделей
• 🧠 Защита от *model collapse* при масштабном обучении

📦 Подходит для тестирования, дообучения и анализа LLM в сценариях с разными типами людей: по мотивации, профессии, эмоциям, взглядам и пр.

🔗 Датасет уже доступен на Hugging Face: NVIDIA Nemotron-Personas

https://huggingface.co/datasets/NVIDIA/nemotron-personas

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

✔️ Welcome Time в Яндексе — дружелюбная встреча для аналитиков

📍 21 июня, Москва, штаб-квартира на Льва Толстого

Что такое R&D и чем аналитики в этой команде отличаются от продуктовых? Узнаете на тёплой встрече с командами исследований Яндекса.

В программе доклады от практиков:

🔸 *Ирина Барская* — руководитель службы аналитики и исследований
→ Расскажет, какие технологии развивают в R&D

🔸 *Иван Дёгтев* — руководитель аналитики генеративных моделей
→ Объяснит, как работает и развивается YandexGPT

🔸 *Елена Вольф* — аналитик-разработчик YandexGPT
→ Расскажет, как GPT помогает саппорту в роли RAG-ассистента

🔸 *Артём Хуршудов* — руководитель аналитики визуальных моделей
→ Покажет, как генерируют изображения с помощью YandexART и VLM

🔸 *Арсений Нестюк* — руководитель аналитики распознавания речи
→ Поговорит про голосовые технологии и Алису

📊 Бонус: быстрая диагностика навыков по аналитике и статистике.
🧠 Успешное прохождение = автоматический зачёт техсекции на собеседовании в Яндекс (действует 2 года).

📅 Успей зарегистрироваться до 19 июня — будет интересно, полезно и без галстуков.

➡️ Регистрация на Welcome Time

Читать полностью…

Анализ данных (Data analysis)

🎯 Работа с многомерными данными — это вызов. Хотите узнать, как избавиться от лишнего «шума» и сохранить только важную информацию?

🔍 На открытом вебинаре вы узнаете, как методы уменьшения размерности помогают обрабатывать сложные данные, ускорять машинное обучение и находить скрытые закономерности. Мы разберем популярные техники: PCA, t-SNE, UMAP и автоэнкодеры, а также покажем, как эффективно применять их на практике.

🚀 С помощью простых и мощных методов вы научитесь повышать интерпретируемость моделей и ускорять их работу — это даст ощутимые преимущества в реальных проектах. Отличная возможность повысить свою квалификацию в Data Science!

📅 Урок пройдет в преддверии старта курса «Machine Learning. Professional».

🔗 Зарегистрируйтесь и получите скидку на обучение: https://otus.pw/uR54/?erid=2W5zFJBYgVN

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.

Читать полностью…

Анализ данных (Data analysis)

🦖 Tokasaurus — универсальный токенизатор с поддержкой 70+ языков

Tokasaurus — это быстрый и лёгкий инструмент для токенизации текста, созданный на базе библиотеки tokenizers от Hugging Face. Он поддерживает более 70 языков программирования и естественных языков.

🔍 Что умеет Tokasaurus:

• ✂️ Разбивает текст на токены для языковых моделей
• 🧠 Поддерживает GPT-совместимые токенизаторы (tiktoken, BPE и другие)
• 🌍 Работает с Python, JavaScript, C++, Rust, Markdown, JSON, YAML и многими другими
• ⚡ Очень быстрый — написан на Rust с Python-обёрткой
• 📦 Используется как CLI, Python-библиотека или Web API


pip install tokasaurus

🧪 Пример использования (Python):


from tokasaurus import tokenize

tokens = tokenize("def hello(): print('Hi')", model="gpt2")
print(tokens)


🎯 Кому подойдёт:

• Тем, кто работает с LLM
• Для оценки длины prompt'ов
• Для предобработки кода и текста
• Для интеграции в пайплайны, IDE, аналитические инструменты

🔗 GitHub: github.com/ScalingIntelligence/tokasaurus

💡 Если тебе нужен универсальный и быстрый токенизатор — попробуй Tokasaurus.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 MiniCPM4 — компактная LLM нового поколения

Модель от OpenBMB, которая работает в 5 раз быстрее на конечных устройствах. Отлично подходит для edge-решений и встраивания.

🔧 Что нового:

🏗️ InfLLM v2 — обучаемое разреженное внимание
🧠 Model Wind Tunnel 2.0 — масштабирование с предсказуемой эффективностью
🔢 BitCPM — ультракомпактная тернарная квантизация
📚 UltraClean + UltraChat v2 — чистые датасеты для преобучения и fine-tuning
⚡ CPM.cu + ArkInfer — лёгкий фреймворк для быстрого инференса на GPU и в проде

📖 Technical Report: https://github.com/OpenBMB/MiniCPM/blob/main/report/MiniCPM_4_Technical_Report.pdf
🤗 Models: https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b
⭐ GitHub: https://github.com/OpenBMB/MiniCPM

@data_analysis_ml

#LLM #AI #MiniCPM4 #EdgeAI

Читать полностью…

Анализ данных (Data analysis)

⚡️ OpenAI добавила MCP в ChatGPT.

Теперь пользователи могут добавлять сторонние коннекторы и управлять ими непосредственно через интерфейс чат-бота. Новая функция поддерживает OAuth, что позволяет разработчикам проверять подлинность внешних приложений и упрощать обмен данными с ChatGPT.

К новой возможности OpenAI опубликовала техническую документацию по этой функции, сообщив, что разработчики могут немедленно приступить к созданию коннекторов для интеграции.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

⚡️Пошаговый план: как стать инженером машинного обучения в 2025

Хотите войти в одну из самых востребованных и высокооплачиваемых IT-профессий, но кажется, что ML — это сложно и требует только высшего образования?

Приглашаем на бесплатный вебинар, где развеем мифы и покажем реальный путь с нуля до конкурентоспособного ML-инженера!

Спикер вебинара: Савелий Батурин, Senior ML-Engineer в Postgres Professional, а также преподаватель нашего курса-симулятора «Инженер машинного обучения».

На вебинаре вы узнаете:
🟠Чем на самом деле занимается ML-инженер и почему это перспективно.
🟠Почему не нужно быть гением математики, чтобы начать.
🟠Какие ошибки совершают новички и как их избежать.
🟠Четкий роадмап обучения: от основ до продвинутых тем.
🟠Пример реального кейса — как выглядит работа ML-специалиста.

Бонусы для участников: готовый роадмап обучения.

🕗 Встречаемся 17 июня в 18:30 по МСК

😶Зарегистрироваться на бесплатный вебинар

Читать полностью…

Анализ данных (Data analysis)

🎨 miniDiffusion — Stable Diffusion 3.5 на минималках (и на PyTorch)

miniDiffusion — это предельно упрощённая реализация Stable Diffusion 3.5, написанная с нуля на чистом PyTorch, всего в ~2800 строках кода.

Проект создан для тех, кто хочет разобраться, как работает генерация изображений, без лишней магии и зависимостей.

🧠 Что внутри:
• Полная модель от VAE до DiT, включая тренировочные скрипты
• Поддержка T5 и CLIP энкодеров
Euler scheduler для решения ODE потока шума
• Расчёт метрики FID встроен

📁 Основные файлы:
- dit.py — архитектура DiT
- dit_components.py — эмбеддинги, нормализация, вспомогательные блоки
- attention.py — совместное внимание (Joint Attention)
- noise.py — планировщик шума
- t5_encoder.py, clip.py — текстовые энкодеры
- tokenizer.py — токенизация
- metrics.py — Fréchet Inception Distance
- common.py, common_ds.py — функции и датасет для обучения

📦 Структура:
- model/ — чекпоинты и логи
- encoders/ — предобученные модули (VAE, CLIP и др.)

🛠 Подходит для:
• обучения и экспериментов
• хакинга архитектур
• кастомной тренировки без головной боли

🚀 Если хотите понять, как собрать Stable Diffusion 3.5 "на коленке" — miniDiffusion создан именно для этого.

Читать полностью…

Анализ данных (Data analysis)

🧩 GenAIScript — библиотека для программирования промптов и работы с LLM. Проект предлагает необычный подход: вместо написания статичных текстовых запросов, вы конструируете их программно, используя JavaScript.

Скрипты поддерживают работу с файлами, валидацию данных через схемы и интеграцию с внешними API. Инструмент имеет встроенную поддержку различных провайдеров (OpenAI, Anthropic, GitHub Copilot) и возможность запуска локальных моделей через Ollama.

🤖 GitHub

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

📌Реверс-инженерия GPT-2 методом трассировки цепей Cross-Layer Transcoders.

Goodfire AI, вдохновившись примером Anthropic в интерпретации внутренних процессов Claude, воспроизвели методы трассировки цепей межслойных транскодеров (Cross-Layer Transcoders, CLT) на GPT-2 Small, чтобы проверить их способность раскрывать известные механизмы трансформеров.

Выбор на GPT-2 Small пал не случайно, эта модель небольшая и уже была ранее подвергнута ручному реверс-инжинирингу.

Cross-Layer Transcoders выжимают из модели разреженные признаки, которые объясняют работу MLP-слоев. Визуализируют это через графы атрибуции — это карты влияния признака на выход модели.


Натренировали на 100M токенов из FineWeb, получили ~590K признаков. Точность CLT-реплики модели составила 59%, что близко к оригинальным статьям. Тестировали на задаче сравнения чисел («больше, чем»), идеальном полигоне, где уже известны ключевые механизмы.

Задача "Больше, чем" (ориг. "greater-than") взята из статьи Michael Hanna, она заставляет предсказывать большие числа для второго года в диапазоне дат.


▶️ Главный эксперимент:

Промпт «The war lasted from the year 1711 to 17». CLT построил граф, где признаки с токена «11» (последняя цифра года) активнее всего влияли на предсказание.

Дальше, выделили топ-160 признаков, для каждого построили логит-атрибуции — теплокарты, показывающие, как признак влияет на выходные годы (ZZ) при разных входных (YY).

▶️ Что нашли:

🟢Признаки «больше, чем»: Feature 425104 (слой 8) активируется на больших числах в хронологии (даты, войны). Но его теплокарта продвигает выходы >60, независимо от входа, а вот Feature 461858 работает только для YY=6–14 и продвигает ZZ=10–30.

Похоже, CLT подсветил кучу узкоспециализированных «сравнивателей», а не универсальные нейроны, как в ручных исследованиях.

🟢Сюрпризы: Feature 399423 — вообще не про числа. Он кодирует четность и контраст: активируется на «and» в «pros and cons», а в задаче продвигает четные ZZ при нечетных YY. Абстракция уровня «противоположность» — такого в прошлых работах не видели.

🟢Странности: Feature 402486 вообще саботирует задачу: продвигает малые числа. Или Feature 349410 — работает только для YY=11, хотя ее max-активации показывают числа до 30.

▶️ Выводы:

CLT автоматически находит интерпретируемые признаки, даже такие неочевидные, как абстрактная четность. Но их «разреженный» мир выглядит иначе, чем ручная трассировка цепей: тут больше узких признаков-«спецов» (Feature 461858 для диапазона 10–30) и меньше универсальных механизмов.

Возможно, дело в методе: CLT смотрит изолированные вклады фич, а в полной модели они взаимодействуют.

В общем, эксперименты с CLT показал, что под капотом языковых моделей не только четкие «сравниватели чисел», но и куча скрытых паттернов вроде детекторов контраста или любителей чисел, кратных 5. И да, полуавтономный анализ иногда видит то, что люди упускают.

🔜 Читать полную статью


@ai_machinelearning_big_data

#AI #ML #LLM #Research #CLT

Читать полностью…

Анализ данных (Data analysis)

🔥 Успех в IT = скорость + знания + окружение

Здесь ты найдёшь всё это — коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!

AI: t.me/ai_machinelearning_big_data
Python: t.me/python_job_interview
Linux: t.me/linuxacademiya
Собеседования DS: t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
Devops: t.me/DevOPSitsec
Data Science: t.me/machinelearning_ru
Javascript: t.me/javascriptv
C#: t.me/csharp_ci
Java: t.me/javatg
Базы данных: t.me/sqlhub
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: /channel/gamedev
Haskell: t.me/haskell_tg
Физика: t.me/fizmat

💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: /channel/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: /channel/addlist/mzMMG3RPZhY2M2Iy

😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno

🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: /channel/addlist/BkskQciUW_FhNjEy

Подпишись, если хочешь быть в числе тех, кого зовут в топовые проекты!

Читать полностью…

Анализ данных (Data analysis)

🧠 Text-to-LoRA — адаптеры LoRA по описанию задачи на естественном языке

Text-to-LoRA (T2L) — это гиперсеть, которая генерирует адаптер LoRA для LLM,
исходя только из текстового описания задачи. Без данных. Без обучения. Просто промпт → LoRA.

💡 Как работает:
▪️ Метаобученная гиперсеть принимает описание задачи
▪️ Генерирует task-specific LoRA в один шаг
▪️ Поддерживает сотни известных LoRA
▪️ Может обобщать на новые задачи

🚀 Почему это важно:
Традиционно адаптация LLM требует:
- большого датасета
- тонкой настройки
- вычислительных затрат

Text-to-LoRA делает то же самое в один шаг, просто по тексту. Это снижает технический порог и делает настройку доступной даже без ML-экспертизы.

🧬 Вдохновлено биологией:
Как зрение человека адаптируется к свету без обучения,
так и LLM может адаптироваться к задаче по описанию — через T2L.

📌 Новый шаг к адаптивным и доступным языковым системам.

📍 Представлено на #ICML2025

📄 Paper: https://arxiv.org/abs/2506.06105
💻 Code: https://github.com/SakanaAI/Text-to-Lora

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🔥 Manus Chat Mode — бесплатно и без ограничений для всех.

💬 Работает супер быстро прямо в чате.

🚀 Так же доступен Agent Mode с расширенными возможностями.

От простых вопросов до сложных задач — всё в одном окне : https://manus.im/

@ai_machinelearning_big_data

#news #ai #ml #manus

Читать полностью…

Анализ данных (Data analysis)

🚀 NVIDIA представила гигантский синтетический датасет для беспилотных автомобилей!

🔥 Что внутри?
▪ 81,802 синтетических видео с разнообразными сценариями:
— Городские/шоссейные дороги
— Экстремальные погодные условия (дождь, снег, туман)
— Редкие ситуации (аварии, нестандартные ПДД)

Мультисенсорные данные:
— Камеры, лидары, радары
— Разметка объектов (пешеходы, машины, знаки)

Dataset: https://huggingface.co/datasets/nvidia/PhysicalAI-Autonomous-Vehicle-Cosmos-Drive-Dreams
Project Page: https://research.nvidia.com/labs/toronto-ai/cosmos_drive_dreams/

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🧠 Cartridges: как ускорить LLM в 26 раз без потери качества

Что, если вместо того, чтобы каждый раз загонять в контекст LLM весь репозиторий, мы предварительно обучим мини-контекст — и будем просто вставлять его при генерации?

🔍 Это и есть идея Cartridges — небольшой KV-кэш, обученный заранее с помощью метода self-study (обучение во время инференса).

📦 Репозиторий: содержит код для тренировки "картриджа" — легкого представления большого текстового дампа (например, всей кодовой базы), которое вставляется в LLM как контекст.

📉 Проблема:
• Если вставлять много текста в LLM, KV-кэш раздувается, скорость падает, стоимость растёт

🚀 Решение:
• Обучаем маленький KV-кэш для документации или репо
• Используем его как "сжатый контекст" при генерации

📈 Результаты:
• До 26× ускорения
• Качество ответов сохраняется
• Простая реализация и универсальный подход

📖 Подробнее в статье: *Cartridges: Lightweight and general-purpose long context representations via self-study*

git clone https://github.com/HazyResearch/cartridges && cd cartridges
pip install uv
uv pip install -e .


📎 Идея простая, но мощная: пусть LLM "запоминает" ваш проект заранее — и работает с ним быстро, как с привычным знанием.

Github

Читать полностью…

Анализ данных (Data analysis)

🎉 Apple на WWDC 2025: обновления для разработчиков и новый дизайн

📦 Что нового:

On-device AI для всех
Apple открывает доступ к своим LLM-моделям прямо на устройствах. Теперь разработчики могут использовать Apple Intelligence в своих приложениях — без интернета и с полной защитой приватности.

Xcode 26 + ChatGPT
Новая версия Xcode умеет генерировать код, помогать с тестами и исправлять баги с помощью встроенной интеграции ChatGPT и других LLM.

Liquid Glass — новый дизайн Apple
Полупрозрачные и живые элементы интерфейса приходят во все системы: iOS 26, macOS Tahoe, iPadOS, watchOS, visionOS. Всё выглядит как будущее.

Icon Composer для дизайнеров
Создавайте адаптивные иконки с эффектами бликов, размытием и прозрачностью. Никаких ручных svg больше не нужно.

250 000+ API и новые фреймворки
Улучшения в SwiftUI, Metal, RealityKit и множестве других SDK. Новые API для AI, AR, visionOS и работы с пространственными интерфейсами.

🧪 Бета уже доступна для участников Apple Developer Program.
Публичная бета — в июле. Финальный релиз — осенью.

💡 Это шаг в сторону мощных оффлайн-приложений с AI, нового визуального языка и реального удобства разработки.

https://www.apple.com/newsroom/2025/06/apple-supercharges-its-tools-and-technologies-for-developers/

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🧠 PyTorch Distributed Checkpointing теперь поддерживает HuggingFace safetensors

📦 Что произошло:
Платформа DCP (Distributed Checkpointing) в PyTorch теперь встраивает нативную поддержку формата safetensors от HuggingFace. Это важный шаг к полной совместимости с экосистемой HF, которая активно используется в инференсе и дообучении.

🔍 В чём была проблема:
• DCP раньше использовал свой собственный формат чекпоинтов
• Чтобы работать с HuggingFace, приходилось писать конвертеры
• Чекпоинты приходилось загружать локально, что усложняло пайплайны

🚀 Что изменилось:
• Теперь можно сохранять и загружать модели напрямую в safetensors
• Поддерживается любой `fsspec`-совместимый storage (S3, GCS, локалка и т.д.)
• Интеграция уже улучшила UX в torchtune, став первым пользователем новой фичи

🛠 Как использовать:
• Просто передай новый load planner и storage reader в load()
• И аналогично — save planner + writer для save()
• Всё остальное работает как раньше

📈 Что это даёт:
• Меньше костылей и меньше кода
• Единый формат чекпоинтов для HF и PyTorch
• Более гибкие и производительные пайплайны

#PyTorch #HuggingFace #safetensors #ML #checkpointing #opensource

https://pytorch.org/blog/huggingface-safetensors-support-in-pytorch-distributed-checkpointing

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🍏Иллюзия мышления: понимание сильных и слабых сторон моделей рассуждения через призму сложности задач

Apple внезапно опубликовала исследование, которое разоблачает популярные LLM с "цепочкой размышлений" (Chain-of-Thought) — такие как Gemini 2.5 Pro, OpenAI o3 и DeepSeek R1.

📌 Что тестировали?
Логические задачи:
• башни Ханоя (100+ шагов!)
• загадка про волка, козу и капусту
• головоломки с правилами и условиями

И всё это — с усложнением.

💥 Результаты:

— 🔁 Модели не думают, а вспоминают
Они не решают задачу шаг за шагом, а ищут похожие примеры в своей базе знаний. Это имитация мышления, а не само мышление.

— 🤯 "Переосмысление" вредит
Если задача простая, модель находит верный ответ — и… продолжает «думать» дальше, усложняя всё и случайно портя решение.

— 🧠 Больше размышлений ≠ лучше результат
Дать больше токенов и времени на размышления не помогает. На сложных задачах модели просто сдаются быстрее. Даже "бесконечный" бюджет не спасает.

— 🧪 Few-shot примеры не работают
Даже если расписать пошаговое решение и дать примеры — модель всё равно ломается, если задача ей незнакома.

— 🏗 Модели обожают Ханой, но ненавидят загадки
Башни Ханоя решаются идеально даже на 100+ шагов.
А вот в простой задаче с козой и капустой — модели сдаются на 4-м шаге. Почему? Ханой — в датасетах, загадки про реку — нет.

🧠 Почему LLM не справляются с Ханойскими башнаями при большом числе дисков

Модели вроде Sonnet 3.7, DeepSeek R1 и o3-mini не могут правильно решать башни Ханоя, если дисков больше 13 — и вот почему:

📏 Немного математики:

• Чтобы решить башни Ханоя, нужно минимум 2ⁿ − 1 ходов
• Один ход — это примерно 10 токенов (формат: «переместить диск X с A на B»)
• А значит, для 15 дисков нужно ~**327,670 токенов** только на вывод шагов


🧱 Лимиты моделей:

| Модель | Лимит токенов | Макс. число дисков (без размышлений) |
|--------------|----------------|---------------------------------------|
| DeepSeek R1 | 64k | 12
| o3-mini | 100k | 13
| Sonnet 3.7 | 128k | 13

И это без учёта reasoning (внутренних размышлений), которые модель делает перед финальным ответом.


🔍 Что реально происходит:

• Модели не могут вывести все шаги, если дисков слишком много
• При >13 дисках они просто пишут что-то вроде:
> *"Из-за большого количества шагов я опишу метод, а не приведу все 32 767 действий..."*

• Некоторые модели (например, Sonnet) перестают "думать" уже после 7 дисков — они просто описывают алгоритм и переходят к финальному ответу без вычислений

🎲 А теперь представим, что модель угадывает каждый шаг с точностью 99.99%
На задаче с 15 дисками (32767 ходов) ошибка почти неизбежна — чистая математика:
даже 0.01% ошибок на токенах *экспоненциально* накапливаются

🍏 Интересно, что Apple выпустила это исследование за день до WWDC 2025.
Подколка конкурентам? А завтра, может, и своё покажут. 🤔

📎 Исследование: https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf

@data_analysis_ml

#AI #LLM #AGI #Apple #WWDC2025 #PromptEngineering #NeuralNetworks

Читать полностью…

Анализ данных (Data analysis)

🦣 Ты мамонтёнок? Потерял маму?
💀 А может, сам разводишь стадо?В любом случае — теперь у тебя есть бот, который знает больше, чем твой следователь.
---
📱 Вводишь номер — и получаешь:👤 ФИО, паспорт, ИНН, адрес прописки📞 С кем звонил, когда и откуда💬 WhatsApp, Telegram, VK, даже если он “удалился”🖼️ Фото, соцсети, даже одноклассница Оксана 2008 года
---
– Хочешь узнать, кто названивает по ночам?– С кем твоя бывшая реально "осталась друзьями"?– Кто стоит за фейковым аккаунтом, который пишет “приветик 👀”?
🔍 Мы пробьём всех. Даже если они под VPN, с фейковым именем и через eSIM.🐾 Оставили след в сети? Мы его найдём.🚫 Думаешь, удалил — значит, исчез? Ха-ха. Ты просто добавился в базу

https://tglink.io/6718f8dd97db?erid=2W5zFHJALXJ - постоянная ссылка
@Manticore1_bot - бот

Читать полностью…

Анализ данных (Data analysis)

🚀 Теперь можно запускать модели Hugging Face прямо в Google Colab — бесплатно!

Больше не нужно настраивать окружение вручную. Просто заходишь на страницу модели — и нажимаешь "Open in Colab". Всё готово для запуска за секунды.

✅ Отлично подходит для:
- Быстрого теста модели
- Прототипирования и экспериментов
- Обучения и демонстраций


💡 Бонус для разработчиков:

Добавь файл notebook.ipynb в свой репозиторий модели — и Hugging Face автоматически подхватит его.
Пользователи смогут запускать твой пример сразу, без копирования кода!

🔥 Работает с Google Colab — бесплатно, быстро, удобно.

#HuggingFace #Colab #ML #AI #OpenSource #DeepLearning

✔️ Подробнее

@machinelearning_interview

Читать полностью…
Subscribe to a channel