Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml
🔥 Unitree A2 Stellar Hunter!
Новый четырёхногий робот весом всего 37 кг
🚀 Запас хода без нагрузки — 20 км
Работа стал: Легче, Прочнее, Быстрее.
Разработан специально для промышленных задач, где важны автономность, манёвренность и надёжность.
Инженерная мощь нового поколения — в компактном корпусе.
@ai_machinelearning_big_data
#ai #robots #Unitree
✔️ GPT-5 покажут 7 августа в 20.00 МСК.
OpenAI представит GPT-5 в ходе прямой трансляции 7 августа в 10 утра по тихоокеанскому времени (20.00 МСК). Это станет первым крупным обновлением с момента выхода GPT-4 в марте 2023 года.
По словам тестировщиков, новая система демонстрирует заметный прогресс в программировании и решении научных и математических задач. Однако они отмечают, что скачок по сравнению с GPT-4 менее заметен, чем переход от GPT-3.5 к GPT-4.
Сэм Альтман ранее намекал, что в основе GPT-5 лежит гибридный подход: традиционное масштабирование модели сочетается с технологией «test-time compute», которая динамически выделяет дополнительные вычислительные ресурсы для решения особо сложных задач.
reuters.com
✔️ Grok 2 будет опубликован в оперсорс на следующей неделе.
Илон Маск соообщил, что xAI откроет исходный код модели Grok 2 на следующей неделе. Этот шаг последовал за недавним релизом моделей с открытыми весами от OpenAI и свидетельствует об усилении конкуренции в сегменте открытых ИИ-решений.
Ожидается, что публикация Grok 2 в открытом доступе ускорит совместную разработку в области ИИ и укрепит репутационные позиции xAI в сообществе разработчиков.
Elon Musk в сети Х
✔️ Microsoft начала тестировать Gaming Copilot.
Компания запустила бета-тестирование Gaming Copilot, ИИ-помощника, встроенного в Game Bar Windows 11. Функция доступна участникам программы Xbox Insiders и впервые интегрирует технологию Xbox Copilot непосредственно в игровой процесс на ПК.
Ассистент распознает, в какую игру играет пользователь, и может анализировать скриншоты, достижения и историю, чтобы отвечать на вопросы, предлагать стратегии и делать снимки экрана, не выходя из полноэкранного режима. Поддерживается голосовое управление, чтобы геймеры могли в реальном времени запрашивать, например, тактику для битвы с боссом или совет по выбору персонажа.
На данный момент превью доступно только на английском языке в США, Австралии, Новой Зеландии, Японии и Сингапуре.
theverge.com
✔️ Jules от Google вышел из беты.
Спустя 2 месяца после начала публичного тестирования, Google официально выпустила своего ИИ-агента для программирования Jules. Инструмент, работающий на модели Gemini 2.5 Pro, способен в асинхронном режиме клонировать кодовые базы, создавать pull-запросы на GitHub и самостоятельно выполнять задачи по исправлению багов или обновлению зависимостей.
С релизом компания представила трехуровневую систему тарификации. Бесплатный план включает до 15 задач в день. Платный доступ интегрирован в подписки Google AI: тариф Pro увеличивает лимиты Jules в 5 раз, а Ultra - в 20 раз.
blog.google
✔️ Anthropic выпустила опенсорсный инструмент для автоматической проверки кода на уязвимости.
Инструмент, получивший название Claude Code Security Reviewer, использует модель Claude и интегрируется в GitHub Actions, сканируя pull-запросы на наличие потенциальных проблем с безопасностью.
Благодаря способности Claude понимать контекст кода, система может находить уязвимости в разных языках программирования. Она автоматически добавляет комментарии к проблемным участкам, отсеивает вероятные ложные срабатывания и анализирует только измененные файлы. Инструмент доступен на GitHub под лицензией MIT.
anthropic.com
@ai_machinelearning_big_data
#news #ai #ml
11010000 10101111 11010000 10111101 11010000 10110100 11010000 10110101 11010000 10111010 11010001 10000001
Кажется, мы нашли не баг, а пасхалку. Это же приглашение на Yandex Neuro Scale — масштабную конференцию Yandex Cloud о технологиях и решениях будущего.
print('Yandex Neuro Scale 2025')
if you_like == "AI and IT":
print('Если вы хотите оказаться на самой масштабной конференции для лучших специалистов в сфере нейротехнологий — регистрируйтесь')
package main
import "fmt"
func main() {
fmt.Println("🚀 Yandex Neuro Scale 2025")
fmt.Println("Запускаем будущее сегодня!")
fmt.Println("\n// Для кого:")
fmt.Println("CTO • Архитекторы • Тимлиды • CIO • Разработчики • ML-инженеры • CISO • Security • CPO • Продакты • CDO • Аналитики • Data • DevOps • CDTO • CX")
fmt.Println("\n// Треки:")
fmt.Println("Infrastructure • DevOps • Data • AI Studio • AI in Action • Security • Cases")
fmt.Println("\n📅 24 сентября 2025")
fmt.Println("📍 Москва, БЦ «Амальтея»")
fmt.Println("\n🔥 7 треков | 50+ докладов")
}
🌟 X-Omni от Tencent: авторегрессионная text-to-image модель с RL.
X-Omni - методика обучения T2I моделей, которая наглядно доказывает, что RL может вдохнуть новую жизнь в авторегрессионный подход и вывести такие модели на SOTA-уровень.
X-Omni построена на гибридной, но при этом унифицированной архитектуре. Схематично она выглядит так:
Семантический токенизатор изображений SigLIP-VQ с фиксированным словарем на 16 384 токена кодирует картинку в дискретные токены. Эти визуальные токены вместе с текстовыми подаются в единую авторегрессионную модель на базе Qwen2.5-7B. Наконец, в финальном рендеринге используется диффузионный декодер на основе FLUX.1-dev.
🟡Уникальность метода - в смеси RL по GRPO и комплексной reward-системе.
Вместо одного критерия, модель оценивается сразу по нескольким направлениям. За эстетику и соответствие предпочтениям человека отвечает HPSv2 и модель Unified Reward. За семантическую связь между промптом и изображением — VLM-модель Qwen2.5-VL-32B. А за самое сложное, отрисовку текста внутри картинки, отвечает отдельная награда на основе OCR-систем GOT-OCR2.0 и PaddleOCR.
Тестовую модель X-Omni обучали на смеси из 200 млн. изображений, которые после токенизации превратились в 600 млрд мультимодальных токенов, а на этапе SFT использовал ещё 1.5 млрд. токенов.
Для RL-фазы был отобран микс из 180 тыс. промптов, состоящий как из творческие запросы, так и задач на рендеринг текста.
🟡И это дало свои плоды, особенно в отрисовке текста, где авторегрессионные модели исторически пасовали.
На бенче OneIG-Bench X-Omni показала результат 0.901 для английского языка, обойдя GPT-4o (0.857). А на собственном LongText-Bench, специально созданном для оценки рендеринга длинных надписей, модель буквально разгромила всех в китайском языке, набрав 0.814 балла против 0.619 у GPT-4o.
В задачах общей генерации по тексту X-Omni также на высоте. На DPG-Bench модель достигла SOTA-результата 87.65, опередив GPT-4o (86.23) и Show-o2 (86.14). На GenEval результат составил 0.83, чуть-чуть не дотянув до модели Mogao (0.89).
Даже в задачах на понимание изображений X-Omni показывает себя достойно: на OCRBench ее результат (704) превосходит другие унифицированные модели, например Emu3 (687).
🟡Интересные подробности.
Во-первых, X-Omni не нуждается в CFG. В отличие от Emu3 или Janus-Pro, качество которых резко падает при отключении CFG, X-Omni работает стабильно.
Во-вторых, что, пожалуй, самое важное, RL превосходит даже SFT с последующим сэмплингом best-of-N.
Этот вывод идет вразрез с устоявшимся мнением в области языкового моделирования и доказывает, что для изображений холистическая оптимизация через RL дает существенный прирост качества.
📌Лицензирование: Apache 2.0 License.
🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🟡Demo
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #T2I #RL #XOmni #Tencent
🚀 Qwen3-30B-A3B — маленькое обновление, большое ускорение
✨ Что нового:
✅ Улучшены навыки рассуждений, программирования и математики
✅ Расширенные знания на разных языках
✅ Понимает контексты до 256 000 токенов
✅ Точнее выполняет команды
✅ Для этой модель Qweb полностью отказались от <think>
— теперь только быстрый "non-thinking" режим
⚙️ С 3B активных параметров Qwen3-30B-A3B уже приближается к уровню GPT-4o и Qwen3-235B-A22B NT, при этом модель доступна для локального запуска.
🟡Попробовать https://chat.qwen.ai/?model=Qwen3-30B-A3B-2507
🟡HF: https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507-FP8
🟡ModelScope: https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Instruct-2507
@ai_machinelearning_big_data
#AI #ML #qwen #opensource
Хочешь знать, что происходит внутри ИТ крупного банка?
Команда ПСБ рассказывает о работе и жизни в блоке ИТ!
🔹 Знакомься с командой, их проектами и хобби
🔹 Участвуй в активностях: митапы, конференции, спорт
🔹 Читай и комментируй экспертные статьи
Подписывайся на канал ИТ ПСБ !
Андрей Рыбинцев, возглавлявший ИИ-направление более 10 лет, стал управляющим директором по искусственному интеллекту и вошел в правление компании. AI становится частью управленческой вертикали Авито.
Под его руководством окажется объединенная команда из ключевых подразделений, связанных с ИИ. Также в планах новый кластер AI Experience,который будет фокусироваться на развитии AI-ассистентов.
На счету Рыбинцева — запуск семейства моделей A-Vibe и A-Vision, антифрод, IMV и масштабирование Data Science в Авито. По прогнозам компании, GenAI может привнести более 21 млрд ₽ дополнительной выручки к 2028 году.
🧠 Qwen3-MT — Alibaba продолжает жечь и выпускает еще одну модель, в этот раз для машинного перевода.
🌍 Поддерживает 92+ языка, на которых говорит 95% населения мира
📚 Обучен на триллионах токенов из интернета, открытых документов и книгах, субтитров из видео.
🔬 Что внутри:
- Модель Qwen3-MoE-72B с архитектурой Mixture-of-Experts
- Заточена на переводческие фишки, поддерживает сложную терминологию и даже очень редкие слова.
- RLHF: обучение с подкреплением повышает точность и естественность модели
Возможности:
✅ Обеспечивает качественный перевод в реальном времени
✅ Контроль стиля и терминов
✅ Масштабируемость для API и продакшена
✅ Цена — от $0.5 за миллион токенов
🟡 Попробовать демку: https://huggingface.co/spaces/Qwen/Qwen3-MT-Demo
🟡 ModelScope: https://modelscope.cn/studios/Qwen/Qwen3-MT-demo
🟡 Документация API: https://alibabacloud.com/help/en/model-studio/translation-abilities
🟡 Блог с подробностями: https://qwenlm.github.io/blog/qwen-mt/
@ai_machinelearning_big_data
#Qwen #Alibaba #ml #llm #ai
🌟 Mixture-of-Recursions: концепция селективного ризонинга.
Архитектура Mixture-of-Recursions (MoR), предложенная Google в соавторстве с KAIST AI объединяет в едином фреймворке традиционные подходы разделения параметров и адаптивные вычисления, заставляя модель думать над каждым токеном с разной глубиной.
Под капотом MoR - рекурсивный трансформер, который прогоняет входные данные через один и тот же блок слоев несколько раз. Но главная фишка в том, что количество этих прогонов, или глубина рекурсии, не фиксированное, а динамическое и определяется для каждого токена индивидуально.
Легковесный обучаемый роутер анализирует токен и решает, сколько вычислительных усилий на него потратить. Простые слова могут пройти всего один цикл рекурсии, в то время как семантически нагруженные термины отправятся на более глубокую обработку из нескольких циклов.
Это дает два главных преимущества:
🟢Во-первых, модель тратит вычислительные ресурсы только на те токены, которые все еще активны на данной глубине рекурсии. Токены, которые вышли раньше, в дальнейших вычислениях не участвуют. Это уже само по себе сокращает объем вычислений.
🟢Во-вторых, что самое интересное для инженеров, MoR позволяет реализовать очень эффективное KV caching. Вместо того чтобы хранить в памяти огромный кеш для каждого виртуального слоя, модель кеширует KV-пары только для активных в данном цикле рекурсии токенов. Это кардинально снижает требования к памяти и ускоряет инференс, решая одну из главных головных болей при развертывании LLM.
При одинаковом бюджете на обучение (в FLOPs) и меньшем размере самой модели MoR показывает более низкую перплексию и лучшие результаты в few-shot задачах, чем стандартные и рекурсивные аналоги.
▶️ Попробовать MoR можно на практике - код для трейна и оценки доступен в репозитории проекта на Github.
📌Лицензирование: Apache 2.0 License.
🟡Arxiv
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #LLM #Architecture #MoR
🚨 Oracle официально согласилась поставить OpenAI 2 МИЛЛИОНА AI-чипов
Что это значит?
OpenAI строит новый дата-центр под *чудовищную* нагрузку:
— 4.5 ГВт вычислений (это больше, чем у некоторых стран)
— стоимость — $30 млрд в год 😳
💸 SoftBank? Больше не при делах:
— «SoftBank не участвует в финансировании»
— переговоры по деньгам сорвались ещё в январе
Oracle теперь главный поставщик чипов для OpenAI.
4,5 гигаватта — этого достаточно, чтобы обеспечить электричеством 3,4 миллиона домов.
OpenAI буквально строит инфраструктуру с потреблением энергии на уровне города — только ради обучения ИИ.
🔜 Новость
@ai_machinelearning_big_data
#openai #news #ml #ai
🌟 AI Flow: концепция коллаборативного ИИ.
China Telecom совместно с TeleAI спроектировали фреймворк AI Flow, который рассматривает ИИ и сети передачи данных как единую систему.
AI Flow - это не просто очередной метод оптимизации, а цельная парадигма. Она предлагает отойти от идеи монолитного ИИ к распределенному и коллаборативному, где интеллект может перетекать по сети туда, где он в данный момент нужнее всего и где для него есть ресурсы.
🟡Архитектура "Устройство-Edge-Облако".
Идея в том, чтобы разумно распределять нагрузку: простейшие операции выполняются на самом гаджете, более сложные и требующие низкой задержки — на ближайшем edge-сервере, а самое тяжелые задачи и ресурсоемкий инференс остаются в облаке.
AI Flow предлагает конкретные механизмы для такой концепции - спекулятивное декодирование, где легкая модель на устройстве быстро генерирует черновик ответа, а мощная модель на эдже его лишь верифицирует и корректирует.
🟡Основа архитектуры - "семейные модели" (familial models).
Это не просто набор моделей разного размера, а целое семейство с архитектурно согласованными скрытыми представлениями.
Маленькая, средняя и большая модели устроены настолько похоже, что они могут бесшовно передавать друг другу эстафету инференса.
Модель на смартфоне обрабатывает первые несколько слоев, а затем ее промежуточный результат подхватывает модель на сервере и продолжает вычисления ровно с того же места, без какого-либо дополнительного преобразования данных.
🟡Эмерджентный интеллект через сотрудничество моделей.
Пайплайн AI Flow делает возможным взаимодействие разных моделей, от LLM и VLM до диффузионных генераторов.
Через такую коллаборацию рождается эмерджентный интеллект – коллективная интуиция, превышающая возможности отдельных сетей, где несколько агентов генерируют черновые решения, затем сервер-оркестратор выбирает лучшие фрагменты, объединяет их и возвращает итоговый ответ для уточнения с учетом контекста каждого из них.
В этом и фишка: после такой синергии ответ становится богаче и более осмысленным, ведь сходятся разные точки зрения и узкопрофильные знания моделей-участников.
▶️В открытом доступе опубликована предварительная версия модели Ruyi-7B (AI-Flow-Ruyi-7B-Preview) из "семейных моделей".
Ее крупнейшая ветвь содержит 7 млрд. параметров и способна порождать early-exit подсети с эффективным числом параметров в 3, 4, 5 и 6 млрд:
🟢Branch 3B/4B: простые сценарии диалога с минимальными требованиями по ресурсам;
🟢Branch 5B/6B: повседневные универсальные задачи, баланс возможностей и отзывчивости;
🟢Branch 7B: решение сложных проблем, повышенные требования к ресурсам.
📌Лицензирование: Apache 2.0 License.
🟡Модель
🟡Arxiv
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #LLM #AIFlow #TeleAI
✔️ Компания Марка Цукерберга отказалась подписывать Кодекс по ИИ от Еврокомиссии.
Техгигант стал первым крупным разработчиком, публично отвергшим Кодекс по регулированию моделей ИИ общего назначения, предложенный Еврокомиссией. Глава по глобальным вопросам компании назвал инициативу «чрезмерной» и заявил, что она будет «душить разработку и внедрение передовых моделей в Европе».
Отказ от подписания создает новую почву для конфронтации между американским IT-бизнесом и Брюсселем. Несмотря на это, компания все равно будет обязана соблюдать нормы AI Act, которые вступают в силу 2 августа, иначе ей грозят крупные штрафы.
bloomberg.com
✔️ ARC запускает предварительную версию бенчмарка ARC-AGI-3.
Исследовательская группа выпустила предварительную версию своего бенчмарка нового поколения ARC-AGI-3. Он предназначен для оценки способности ИИ-систем к интерактивному мышлению в динамической среде. В отличие от статичных тестов, новый набор задач требует от ИИ-агентов планировать, адаптироваться и реагировать в реальном времени.
Превью включает 3 из 6 запланированных игровых сред и публичный API для тестирования. Первые результаты оказались неутешительными для актуальных моделей: топовые системы, включая GPT-4, показали результат 0%, в то время как люди справились на 100%.
Чтобы стимулировать прогресс в этой области, ARC объявила конкурс с призовым фондом в 10 000 долларов для команд, которые смогут улучшить производительность своих агентов. Полный запуск бенчмарка запланирован на начало 2026 года.
arcprize.org
✔️ В поисковике DuckDuckGo появился фильтр для скрытия ИИ-изображений.
DuckDuckGo добавил в поиск по картинкам новую функцию, она отфильтровывает сгенерированные искусственным интеллектом изображения. Опция доступна в виде выпадающего меню на вкладке «Изображения», а также может быть активирована в основных настройках поиска.
В компании заявили, что это ответ на жалобы пользователей, которые считают, что синтетические картинки «засоряют» выдачу и мешают находить настоящие фотографии. Механизм фильтрации основан на открытых, вручную курируемых черных списках. Хотя инструмент не гарантирует 100% отсева, в DuckDuckGo ожидают, что он значительно сократит количество ИИ-контента в результатах поиска.
DuckDuckGo в сети X
✔️ Google открыла доступ к Veo 3 через API.
Google сделала Veo 3 доступной для разработчиков через Gemini API. Теперь они могут встраивать возможности по созданию видео в собственные приложения. Пока API поддерживает только генерацию из текста, но скоро появится и функция image-to-video, уже работающая в приложении Gemini. Для начала работы Google предлагает шаблоны SDK и требует активный биллинг в Google Cloud.
Стоимость генерации через API - 0.75 доллара за секунду видео со звуком в разрешении 720p с частотой 24 кадра в секунду. Таким образом, ролик длительностью 8 секунд обойдется в 6 долларов, а пятиминутный - в 225 долларов. Учитывая необходимость нескольких попыток для получения нужного результата, итоговая стоимость может оказаться весьма высокой. В Google, вероятно, рассчитывают, что для некоторых сценариев это все равно будет выгоднее традиционного видеопроизводства.
developers.googleblog.com
✔️ Netflix впервые использовал генеративный ИИ для создания VFX в своем сериале.
Компания рассказала, что применила ИИ для производства спецэффектов в аргентинском научно-фантастическом сериале «El Eternauta». С помощью генеративного ИИ была создана сцена обрушения здания в Буэнос-Айресе, которую создала внутренняя студия Netflix Eyeline Studios. Кадры были напрямую включены в финальный монтаж.
По словам со-исполнительного гендиректора Теда Сарандоса, рабочий процесс с использованием ИИ позволил завершить сцену в 10 раз быстрее по сравнению с традиционными VFX-инструментами. Он подчеркнул, что компания рассматривает ИИ не как способ удешевления, а как «невероятную возможность помогать авторам делать фильмы лучше». Netflix тестирует технологию и в других областях: голосовой поиск по контенту и в рекламе.
reuters.com
@ai_machinelearning_big_data
#news #ai #ml
🌟 MoVieS: Синтез 4D-видов с учетом движения.
ByteDance в соавторстве с Пекинским университетом и Карнеги Меллон разработали MoVieS, feed-forward модель, которая из обычного монокулярного видео за секунду синтезирует полноценную 4D-сцену, объединяя в себе геометрию, внешний вид и, что самое важное, движение.
В основе метода лежит идея представления динамической сцены с помощью «динамических сплэттер-пикселей». Если вы знакомы с 3D Gaussian Splatting, то поймете сразу: модель представляет каждый пиксель входного видео как гауссов примитив в 3D-пространстве.
Новизна MoVieS в том, что она не просто определяет их статичные параметры (положение, цвет, прозрачность), но и предсказывает вектор их движения во времени. Иными словами, для каждой частицы в сцене модель знает, где она будет в любой заданный момент.
Архитектурно MoVieS построена на геометрически предобученном трансформере VGGT, который обрабатывает кадры видео. Далее в дело вступают три специализированные «головы»:
🟠Depth Head - предсказывает карту глубины;
🟠Splatter Head - отвечает за атрибуты самих гауссовых сплэттеров для рендеринга;
🟢Motion Head - самая главная, оценивает смещение каждого примитива.
Такой единый фреймворк позволяет обучать модель на самых разнородных датасетах: где-то есть разметка глубины, где-то - трекинг точек, а где-то - только видео.
MoVieS - это еще про скорость. Согласно техотчету, на генерацию сцены уходит меньше секунды (0.93 с), тогда как у альтернативных методов на это уходят десятки минут.
При этом качество на бенчмарках динамических сцен (DyCheck и NVIDIA) либо на уровне, либо превосходит SOTA решения.
Но самое интересное - это zero-shot возможности. Модель, обученная по сути на задаче синтеза новых ракурсов, внезапно оказывается способна без всякого дополнительного обучения сегментировать движущиеся объекты и оценивать scene flow (попиксельный поток в 3D). Достаточно просто посмотреть на предсказанные векторы движения.
⚠️ Кода для инференса, обучения и чекпоинтов пока нет, но обещают.
📌Лицензирование: MIT License.
🟡Страница проекта
🟡Arxiv
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #4D #MoVieS #ByteDance
🌟 MUVERA: уравниваем в скорости многовекторный и одновекторный поиск.
MUVERA - алгоритм, разработанный Google Research, который сводит сложную задачу многовекторного поиска обратно к простому и быстрому MIPS, как в подходах с одним вектором.
Суть проста: вместо того чтобы работать с громоздким набором векторов, MUVERA сжимает его в единый вектор фиксированной длины, так называемый Fixed Dimensional Encoding (FDE). Главный трюк в том, что скалярное произведение этих новых FDE-векторов очень точно аппроксимирует исходную, «честную» метрику Чамфера.
На практике процесс выглядит как двухэтапный конвейер. Сначала MUVERA генерирует FDE для всех документов в базе и индексирует их с помощью обычного MIPS-солвера. Когда приходит запрос, для него тоже создается FDE, и система молниеносно находит небольшой список кандидатов. А уже затем этот короткий список переранжируется с использованием оригинальной, медленной, но точной метрики Чамфера. На выходе получаем и скорость, и качество.
В практическом сравнении с предыдущим SOTA методом PLAID, MUVERA показывает в среднем на 10% более высокую полноту выдачи при сокращении задержки на 90%. Чтобы достичь того же качества, алгоритму требуется отобрать в 5-20 раз меньше кандидатов для финального переранжирования.
Более того, эти FDE-векторы отлично сжимаются — до 32 раз с минимальной потерей качества.
Для тех. кто хочет попробовать, в репозитории проекта на Github есть реализации MUVERA на Python и C++ .
📌Лицензирование: Apache 2.0
🟡Статья
🟡Arxiv
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #LLM #MUVERA #GoogleResearch
🖥 Дженсен Хуанг: США должны продавать чипы даже Китаю — это усилит наше лидерство в AI
Глава NVIDIA объяснил, почему экспорт AI-чипов — это не слабость, а стратегия:
🗣 «Половина AI-разработчиков в мире — китайцы. Пусть они строят свои системы на нашей технологии.»
💡 Что он имеет в виду:
— Если весь мир (включая Китай) работает на американских чипах, платформах и фреймворках,
— США получают техническое и инфраструктурное преимущество,
— А значит — долгосрочное лидерство в AI, даже если некоторые страны развивают собственные модели.
🔍 А как же риски? Военные, шпионские?
> «Они не будут строить военные системы на чужих чипах. Просто не могут себе это позволить.»
Технологии, от которых зависикурентт твой кон— это не оружие. Это рычаг влияния.
И чем больше стран завязаны на американском стеке — тем выше шансы, что США останутся в центре мировой AI-инфраструктуры.
Еще из интересного, после того как MIT выпустили исследование о том, что ИИ якобы снижает когнитивные способности человека, Хуанг в своём стиле — дал "жесткий" ответ:
> “Я не читал это исследование, лол”
> “Я каждый день пользуюсь ИИ — и мои когнитивные навыки только растут”
▪ Критическое мышление никто не отменял
> “Я не принимаю ответ как есть — я его анализирую, критикую, уточняю”
> “Такой подход и развивает мышлени
• Полное интервью Дженсена
@ai_machinelearning_big_data
#ai #Ml #nvidia
📌На ИТ-Пикнике — сильный спикерский состав по ИИ и разработке
Что расскажут топ-спикеры на фестивале:
✔️ИИ теперь не просто генерирует, он рассуждает как человек. Теперь важен не сбор данных, а построение reasoning-систем, которые умеют решать задачи по цепочке во всех направлениях.
✔️Разбор автономного вождения от базовых принципов до планирования маршрута беспилотными авто.
✔️Опенсорс — зачем все этим занимаются и результаты исследования в рамках создания SourceCraft.dev.
✔️Дискуссия СТО о GenAI и платформах — кто кого обучает, где проходит грань между контролем и автономией и что останется людям в 2030.
@ai_machinelearning_big_data
#news #ai #opensource
🔥 Новые модели OpenAI нашли в релизе Transformers 4.55
GPT-OSS — долгожданysq опенсорс для продвинутого reasoning и агентных задач.
🧠 Представленно два варианта:
— GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B — 21B параметров, работает на 16GB GPU (или даже локально!)
💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4), что обеспечивает быстрое и дешёвое инференс-время (активны только 3.6B и 5.1B параметров).
⚙️ Особенности:
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Чередуются full-attn и sliding-window слои
• Модель хорошо работает с CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o
• Открытая лицензия Apache 2.0 (есть небольшое policy-дополнение)
Младшая модель может запускаться даже на локальном железе — идеально для on-device и edge-сценариев.
📎 Пример кода инференса уже доступен — достаточно 16GB GPU с mxfp4!
🏴☠️Лицензирование: Apache 2.0
https://github.com/huggingface/transformers/releases/tag/v4.55.0
@ai_machinelearning_big_data
#openai #opensource #chatgpt
🌟 Фреймворк **CUDA-L1** сам научился оптимизировать код для GPU — и добился в среднем **3.12× ускорения работы модели**, а в пике — **до 120×**. .
Попросите любую LLM написать CUDA-код, и скорее всего, вы получите что-то, что либо не компилируется, либо работает мучительно медленно. Причина проста: качественного CUDA-кода в обучающих данных моделей почти не было.
✔️ Сотрудники Миры Мурати отказались от офферов Цукерберга.
Компания Марка Цукерберга предприняла агрессивную попытку переманить ключевых сотрудников из стартапа Thinking Machines Lab, основанного бывшим CTO OpenAI Мирой Мурати. По данным инсайдеров, компания сделала предложения более чем десятку специалистов. Одно из них превышало миллиард долларов за несколько лет, другие находились в диапазоне от 200 до 500 миллионов за 4 года.
Несмотря на беспрецедентные суммы, все сотрудники отклонили предложения Meta. Причинами отказа называют и без того высокое состояние, значительные доли в собственном стартапе и нежелание работать под руководством Марка Цукерберга.
wired.com
✔️ Skild Brain: единая модель для управления любыми роботами.
Робототехнический стартап SkildAI анонсировал «Skild Brain», фундаментальную ИИ-модель, которая может служить универсальным программным "мозгом" для широкого спектра роботов: от гуманоидов до промышленных манипуляторов.
На демонстрациях роботы успешно ориентировались в незнакомой среде и выполняли сложные многоэтапные действия. По словам основателей, новая технология сокращает разрыв между достижениями в области генеративного ИИ и их практическим применением в физической робототехнике.
SkildAI , вышедшая из стелс-режима в июле 2024 года, уже привлекла инвестиции от Amazon, SoftBank и Sequoia Capital.
skild.ai
✔️ NotebookLM научился создавать видеообзоры по загруженным документам.
Google расширил возможности NotebookLM, добавив функцию Video Overviews. Она автоматически генерирует видеоролики с озвучкой, которые наглядно объясняют содержимое загруженных файлов. Система сама подбирает изображения, цитаты, диаграммы и цифры из исходных материалов и представляет их в виде пошаговых слайдов.
Новая функция, дополняющая уже существующие аудиообзоры, позволяет гибко настраивать результат. Пользователи могут указать целевую аудиторию, задать учебные цели или выделить конкретные темы для фокуса.
Кроме того, Google обновила интерфейс Studio, разрешив сохранять несколько результатов одного типа (например, несколько майнд-карт) в одном блокноте. Обновление уже доступно для англоязычных пользователей, в будущем планируется поддержка других языков.
blog.google
✔️ Adobe добавила в Photoshop новые ИИ-инструменты.
Adobe выпустила в бета-версии Photoshop новые функции на базе модели Firefly. Одной из самых ожидаемых стала Generative Upscale, она увеличивает разрешение изображений до 8 мегапикселей без потери качества.
Инструмент Remove был обновлен, чтобы более реалистично и чисто убирать с фотографий лишние объекты, оставляя меньше артефактов. Появилась и совершенно новая функция Harmonize. Она автоматически анализирует контекст изображения и подгоняет цвет, свет и тени добавленных объектов, чтобы создать цельную композицию без долгой ручной коррекции.
Кроме того, Adobe анонсировала функцию Projects для более удобного управления файлами. Все нововведения уже доступны для тестирования в десктопной и веб-версиях Photoshop.
blog.adobe.com
✔️ ChatGPT Agent научился проходить капчу Cloudflare.
ChatGPT Agent, способный выполнять многошаговые задачи, продемонстрировал неожиданную способность: он может проходить проверку "Я не робот" от Cloudflare. Пользователь Reddit опубликовал скриншоты, на которых агент в рамках задачи по конвертации видео самостоятельно нажимает на галочку "Подтвердите, что вы человек", комментируя свои действия.
Этот случай наглядно демонстрирует, насколько продвинулись ИИ-агенты. Они способны анализировать визуальный контекст, распознавая элементы веб-страниц и взаимодействуя с ними, как человек. В данном случае система поняла необходимость верификации и успешно ее прошла.
Прохождение CAPTCHA - лишь один из примеров возможностей нового агента. Другие пользователи уже показывают, как агент по их поручению заказывает продукты в супермаркете, самостоятельно составляя список покупок по общим критериям и укладываясь в заданный бюджет.
arstechnica.com
@ai_machinelearning_big_data
#news #ai #ml
🖥 Как выжать максимум из маленькой LLM? Ответ — долго и грамотно учить .
NVIDIA показала, как 1.5B-модель можно раскачать до топовых результатов в логике, математике, коду и STEM-задачам — без увеличения параметров модели.
📈 Результат после месяцев обучения:
+55% к логическим задачам
+14.7% к математике
+13.9% к коду
+25.1% к сложным STEM-вопросам
🛠 Как они это сделали:
– Использовали RL (обучение с подкреплением) на 5 типах задач, включая 40K примеров по математике и 24K по программированию
– Все ответы проверялись автоматически в "песочнице", которая оценивает, правильный ли результат
– Применили улучшенную стратегию обучения — *Group Relative Policy Optimization* — и добавили несколько хитрых трюков:
🟢 Decoupled clipping — обычно модель "обрезает" редкие и неожиданные токены, чтобы не уходить слишком в сторону от главного. Но здесь этот механизм ослаблен: модель может чаще выбирать нестандартные слова, что помогает ей находить неожиданные, но правильные решения.
🟢 Dynamic sampling — модель *не тратит время* на лишком лёгкие задачи. Она пропускает такие примеры и фокусируется на тех, где действительно можно чему-то научиться.
🟢 Маленький KL-штраф (0.0001) — KL показывает, насколько поведение модели отклоняется от старой версии (эталона). Здесь штраф почти нулевой, чтобы не мешать экспериментам, но всё ещё предотвращать полное "сумасшествие" модели.
🟢 Сброс каждые 400 шагов — модель регулярно сбрасывает и policy (поведение), и оптимизатор. Это как регулярная перезагрузка — модель забывает вредные привычки, но сохраняет полезные навыки.
🟢 Температура 1.2 и длинный контекст (8K → 16K) — высокая температура делает поведение модели более разнообразным. А длинный контекст помогает учитывать больше информации при генерации ответа.
Все эти приёмы помогли сохранить интерес модели к поиску новых решений, а не скатываться к заученным паттернам.
Итог: модель не "застывает", а продолжает исследовать — и выдает стабильный рост качества без расширения архитектуры.
📄 Почитать статью полностью : arxiv.org/abs/2507.12507
@ai_machinelearning_big_data
#ml #ai #nvidia
📌 ИИ, который сам создает ИИ: ASI-ARCH нашел 106 новых SOTA-архитектур.
ASI-ARCH - экспериментальная демонстрация искусственного сверхинтеллекта для исследований в области ИИ, который способен полностью автономно вести научную работу по поиску новых нейросетевых архитектур.
Система самостоятельно выдвигает гипотезы, реализует их в виде исполняемого кода, обучает и проверяет на практике. Результатом этой работы стали 1773 автономных эксперимента, которые заняли свыше 20 000 GPU-часов и привели к открытию 106 новых SOTA-архитектур с линейным механизмом внимания.
🟡Весь процесс разделен на 2 этапа: поиск гипотез и их проверка.
На первом этапе, система работает с небольшими моделями размером около 20 млн параметров, обучая их на 1 млрд токенов. На этом этапе было проведено 1773 эксперимента, которые заняли примерно 10 000 GPU-часов.
Всего на этом этапе было отобрано 1350 перспективных кандидатов — все они превзошли базовую архитектуру DeltaNet как по лоссу, так и по метрикам на бенчмарках.
Второй этап - верификация. Кандидаты первого этапа были масштабированы до 340 млн параметров, чтобы соответствовать конфигурации DeltaNet. После фильтрации архитектур с избыточной сложностью или числом параметров осталось около 400 моделей.
Их обучение на 1 млрд. токенов потребовало ещё 10 000 GPU-часов. В итоге, именно из этой группы были выделены 106 архитектур, достигших SOTA-уровня.
Для финальной валидации исследователи отобрали 5 лучших моделей, обучили их на 15 млрд. токенов и сравнили с Mamba2, Gated DeltaNet и DeltaNet.
🟡 Анализ предпочтений системы показал интересные закономерности.
ASI-ARCH явно предпочитает работать с проверенными временем компонентами: гейтингом и свёрткой. Но самое главное - распределение компонентов в 106 лучших моделях имеет значительно менее выраженный long-tail distribution по сравнению с остальными 1667 сгенерированными архитектурами.
Это означает, что система добивается успеха не путем хаотичного перебора экзотических идей, а через итеративное улучшение набора проверенных техник. По сути, это очень напоминает методологию работы ученых-людей.
🟡Результаты.
Одна из лучших найденных ИИ-архитектур, PathGateFusionNet, показала средний результат по всем бенчмаркам 48.51. Для сравнения, Mamba2 набрала 47.84, а разработанная человеком Gated DeltaNet — 47.32. Другая генерация, ContentSharpRouter, достигла показателя 48.34.
Если посмотреть на отдельные тесты, то PathGateFusionNet получила на BoolQ 60.58 балла, а Gated DeltaNet - 60.12. AdaptiveEntropyRouter в версии на 340 млн. параметров показала результат на тестах 44.31, что на 2.21 пункта выше, чем у Gated DeltaNet (42.10).
И так практически во всем, улучшения наблюдаются по всему спектру задач.
🟡И самое интересное — откуда система черпает идеи? Источников всего 3:
🟢Cognition - знания, извлеченные из научной литературы;
🟢Analysis - выводы, сделанные на основе собственных прошлых экспериментов;
🟢Originality - абсолютно новые идеи.
Для всех 1773 сгенерированных архитектур распределение источников было таким:
🟠51.7% идей приходило из человеческой литературы;
🟠38.2% - из собственного анализа;
🟠10.1% были оригинальными.
Но если посмотреть только на 106 SOTA-итогов, картина меняется. Доля идей, основанных на Analysis, возрастает с 38.2% до 44.8%, а доля Cognition немного снижается до 48.6%.
Таким образом, чтобы достичь ощутимых результатов, ИИ недостаточно просто копировать и комбинировать человеческие наработки. Он должен анализировать собственный опыт, учиться на своих же удачах и провалах, синтезируя более совершенные решения.
🟡Страница проекта
🟡Arxiv
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #Research #ASIARCH
✔️ Google запустила Opal, визуальный конструктор для создания и публикации ИИ-приложений.
Google Labs запустила публичную бета-версию инструмента Opal, в котором можно создавать простые ИИ-приложения без написания кода. Flowrise, make.com и n8n напряглись
Пользователь описывает желаемую цель тестом, после чего система автоматически генерирует визуальную блок-схему рабочего процесса, объединяя в цепочку промпты, ИИ-модели и внешние инструменты.
Схему можно гибко редактировать в drag-and-drop интерфейсе или с помощью дальнейших текстовых команд.
Готовые проекты публикуются как самостоятельные веб-приложения, привязанные к аккаунту Google, и ими можно сразу поделиться по ссылке.
В основе Opal лежат модели Gemini. Инструмент доступен пока только для пользователей в США.
@ai_machinelearning_big_data
#news #ai #ml
✔️ OpenAI анонсировала дату проведения DevDay.
OpenAI объявила, что ее следующая конференция для разработчиков, DevDay, состоится 6 октября 2025 года в Сан-Франциско. На мероприятии выступят Сэм Альтман и Грэг Брокман. DevDay традиционно становится площадкой для главных анонсов OpenAI, и в этом году разработчикам обещают ранний доступ к информации о будущих продуктах и технологиях.
Конференция планирует собрать более 1500 разработчиков. Регистрация на очное участие открыта в формате подачи заявок до 30 июля, а приглашения будут разосланы в середине августа. Стоимость участия составит 650 долларов. Для тех, кто не сможет присутствовать лично, будет организована прямая трансляция основной части мероприятия, а записи остальных сессий опубликуют позже.
openai.com
✔️ Proton представила Lumo: защищенный чат-бот с фокусом на приватность.
Швейцарская компания Proton, известная своим одноименным почтовым сервисом, выпустила автономного ИИ-ассистента Lumo. Чат-бот позиционируется как безопасная альтернатива продуктам от крупных технологических корпораций.
Lumo умеет обобщать документы, писать код, составлять черновики писем и отвечать на веб-запросы. Сервис работает исключительно на открытых языковых моделях, размещенных в собственных дата-центрах Proton в Европе. Вся переписка защищена сквозным шифрованием с "нулевым доступом", что не позволяет самой компании или третьим лицам читать и хранить сообщения.
Попробовать Lumo можно без регистрации через веб-клиент или мобильные приложения, но с ограничениями. Платная подписка Lumo Plus за $12.99 в месяц снимает лимиты на общение и позволяет загружать файлы большего размера.
proton.me
✔️ Google DeepMind Aeneas: открытая ИИ-система для восстановления латинских надписей.
Google DeepMind выпустила Aeneas, опенсорсный инструмент на базе ИИ, предназначенный для помощи историкам в работе с фрагментарными древними надписями. Система анализирует неполные транскрипции и изображения, после чего определяет вероятное место и дату происхождения текста, предлагает варианты недостающих слов и находит аналоги в корпусе известных надписей.
Модель, обученная на 200 000 каталогизированных текстов, является развитием более ранней системы Ithaca для греческого языка. В исследовании, опубликованном в Nature, Aeneas улучшил генерацию научных гипотез в 90% случаев, а его оценки происхождения и датировки совпали с консенсусом ученых.
Aeneas доступна бесплатно для ученых, преподавателей и сотрудников музеев.
theguardian.com
✔️ AWS закрывает свою ИИ-лабораторию в Шанхае.
Amazon Web Services объявила о закрытии своей исследовательской ИИ-лаборатории в Шанхае. В компании это решение назвали трудным, оно завершает семилетнюю историю работы центра, который занимался передовыми разработками в области машинного обучения. По словам одного из научных сотрудников, подразделение расформировывают из-за "стратегических корректировок на фоне напряженности между США и Китаем".
Лаборатория, открытая в 2018 году, была весьма продуктивной: на ее счету более 100 научных публикаций и создание популярной open-source библиотеки Deep Graph Library. В лучшие времена в ней работало более 1000 человек.
ft.com
✔️ Компания Марка Цукерберга разработала нейромоторный браслет, работающий без персональной калибровки.
Устройство, разработанное в Reality Labs представляет собой браслет, который считывает электрическую активность мышц предплечья (sEMG), напрямую декодируя двигательные намерения пользователя.
Главное достижение - разработка универсальной модели, обученной на данных тысяч людей. В отличие от аналогов, требующих длительной настройки под каждого человека, эта система работает из коробки, без предварительной калибровки под новых пользователей.
В тестах интерфейс продемонстрировал распознавание рукописного ввода со скоростью почти 21 слово в минуту, точное определение дискретных жестов (щипки, свайпы) и плавное управление курсором. При этом короткая персональная донастройка на данных конкретного пользователя может повысить точность еще на 16%.
nature.com
@ai_machinelearning_big_data
#news #ai #ml
🚀 Qwen3-Coder — новая мощная open-source модель от Alibaba для кодинга
Модель с архитектурой MoE:
- 480B параметров в общей сложности
- 35B активных параметров
- Контекст 256k, но легко масштабируется до 1M токенов
📈 Производительность:
- На уровне Claude 4 Sonnet
- Лучше или на уровне GPT-4.1 на многих задачах
- Обходит Kimi K2, DeepSeek V3 на ряде бенчмарков
🧩 Модель уже доступна:
- На HuggingFace — можно скачать и запускать
- В OpenRouter — $1/M токенов вход, $5/M выход
(в 3 раза дешевле Claude Sonnet: $3 и $15)
💬 Попробовать бесплатно можно:
- Через чат: ttps://chat.qwen.ai/)
- GitHub link: https://github.com/QwenLM/qwen-code
Qwen3-Coder — это просто одна из лучших моделей для программирования, которые мы когда-либо видели.
#qwen #ml #ai #llm #Alibaba
@data_analysis_ml
🌟 OpenReasoning-Nemotron: набор ризонинг-моделей от NVIDIA.
OpenReasoning-Nemotron - набор LLM на архитектуре Qwen 2.5 и дистиллированных из DeepSeek-R1-0528 ( 671 млрд. параметров):
🟠OpenReasoning-Nemotron-1.5B;
🟠OpenReasoning-Nemotron-7B;
🟠OpenReasoning-Nemotron-14B;
🟢OpenReasoning-Nemotron-32B;
Семейство было обучено на 5 млн. примеров рассуждений в математике, естественных науках и программировании.
Модели показали достойные результаты pass@1 на бенчах GPQA, MMLU-PRO, AIME, HMMT и LiveCodeBench - без использования RL.
Старшая модель, 32B, выбила 96,7% по HMMT с декодированием GenSelect.
📌Лицензирование: CC-BY-4.0 License.
🟡Статья
🟡Набор моделей
@ai_machinelearning_big_data
#AI #ML #LLM #Reasoning #Nemotron #NVIDIA
MWS Cloud включается в игру: запускает Data Lakehouse
Пока все обсуждают, как внедрять LLM, в MWS Cloud сделали ход: вышли с собственной платформой для хранения и обработки больших данных — MWS Data Lakehouse. Это уже не просто база или витрина, это полноценный фундамент для обучения, инференса и аналитики.
Ключевая особенность — универсальность.
Платформа работает с любыми типами данных: структурированными, неструктурированными, векторными. Поддержка Apache Parquet, Iceberg, Greenplum, Postgres, запуск в Kubernetes, объектное S3-хранилище. Всё, что нужно, чтобы компания могла: обучать ML/LLM модели, строить BI-отчёты, прогнозировать, сегментировать, оптимизировать. И всё это без копирования данных между системами.
Главное — цифры.
Платформа ускоряет обработку данных в 23 раза. Хранилище используется на 40% экономичнее. В 2,5 раза выше эффективность ИТ-персонала. Витрины данных считаются в 2 раза быстрее.
То есть платформа не просто "поддерживает ИИ" — она позволяет его внедрять в реальных бизнес-процессах, а не в пилотах и презентациях.
Безопасность и масштабируемость.
Встроенные инструменты шифрования, маскирования, аудита, контроль доступа. Централизованное управление, масштабирование без простоев. Можно запускать кластеры под разные команды и сценарии параллельно — без дублирования данных.
Контекст: рынок меняется.
Компании всё активнее вкладываются в инструменты, которые позволяют работать с ИИ на проде, а не просто тестировать гипотезы. Lakehouse — архитектура, к которой уже перешли десятки тысяч компаний на Западе. MWS Cloud предлагает такую же модель — внутри российской облачной экосистемы.
И да: MWS Data Lakehouse — часть экосистемы MWS Data, включающей 25+ сервисов для хранения, аналитики и AI.
Почему это важно.
ИИ уже давно не хобби айтишников. Это трансформация всей ИТ-архитектуры компаний. А без таких платформ запуск ИИ-проектов становится дорогим, медленным и уязвимым.
Именно поэтому сейчас выигрывают не те, у кого «есть данные», а те, у кого есть инфраструктура, чтобы эти данные реально использовать.
@ai_machinelearning_big_data
#data #ai #ml #infrastructure #mts
Новость для тех, кто планирует поступление в магистратуру в этом году — МТС открывает набор на программу по искусственному интеллекту на ФКН ВШЭ
Самое важное:
– 30 оплачиваемых мест от МТС;
– Обучение проходит в очном формате в московском кампусе ВШЭ;
– Занятия ведут преподаватели ВШЭ и действующие эксперты-практики из МТС и MTS AI, а для проектов можно использовать виртуальную инфраструктуру компании;
– После и во время обучения можно получить оффер;
– В канале абитуриентов делимся новостями и помогаем с подготовкой к поступлению
В программе передовые методы машинного и глубинного обучения: большие языковые модели, генеративные нейросети, инструменты компьютерного зрения и распознавания естественного языка.
Подробная информация о программе и документах на сайте. Ждем тебя 🥚
🗣️ Voxtral: возвращение голоса как интерфейса
Голос был первым пользовательским интерфейсом — задолго до письма или клавиатуры. Сегодня, когда технологии всё ближе к человеку, он снова становится ключевым способом взаимодействия. Но существующие голосовые решения либо закрыты и дорогие, либо недостаточно точны и гибки.
Команда Voxtral представила открытые модели понимания речи, призванные закрыть этот разрыв.
🧠 Что такое Voxtral:
• Две модели: 24B (для продакшена) и 3B (для локальных и edge-сценариев)
• Открытая лицензия Apache 2.0
• Доступ через API и оптимизированный endpoint для транскрипции
• Разработка на основе Mistral Small 3.1
📌 Возможности моделей:
• Распознавание аудио до 30–40 минут (32k токенов контекста)
• Встроенные вопросы и ответы, суммирование, мультиязычность
• Автоматический вызов функций из голоса — API, скрипты, бэкенды
• Высокая точность понимания текста и смысла
• Поддержка языков: английский, испанский, французский, немецкий, хинди, итальянский, португальский и др.
🧩 Идеально подходит для:
- Голосовых ассистентов
- Поддержки клиентов
- Звонков и интервью
- Автоматизации рабочих процессов по голосу
🔗 https://voxtral.ai
@ai_machinelearning_big_data
#ml #ai #voxtral #mistral
🧠 Как «вклеить» объект в картинку так, чтобы он выглядел естественно?
Это одна из самых сложных задач в семантической генерации:
🔸 нужно сохранить структуру сцены
🔸 вставить объект по текстовому описанию
🔸 и найти уместное место, а не просто налепить поверх
Большинство моделей с этим не справляются — объект добавляется не к месту или портит фон.
Новый метод Add-it от NVIDIA решает эту задачу без обучения модели.
Он расширяет механизм внимания в диффузионных моделях, чтобы учитывать сразу три источника:
1. Оригинальное изображение
2. Текстовый промпт
3. Промежуточную сгенерированную картинку
📌 Такой подход позволяет:
– сохранить геометрию сцены
– встроить объект туда, где он действительно мог бы быть
– не терять мелкие детали и текстуры
📊 Результаты:
– Add-it без дообучения обходит supervised‑модели
– На новом бенчмарке Additing Affordance показывает SOTA результат по «естественности размещения»
– В слепых тестах люди выбирают его в 80% случаев
– Улучшает метрики качества генерации
🟠Github: https://github.com/NVlabs/addit
🟠Demo: https://huggingface.co/spaces/nvidia/addit
🟠Paper: https://arxiv.org/abs/2411.07232
🟠Project: https://research.nvidia.com/labs/par/addit/
@ai_machinelearning_big_data
#NVIDIA #Diffusion #Addit #StableDiffusion #AIgen #ControllableGeneration
🍏 Apple всерьёз задумалась о покупке Mistral — Bloomberg / Марк Гурман
По информации Bloomberg, Apple серьёзно рассматривает покупку французского стартапа Mistral AI, чтобы наконец войти в ИИ-гонку.
Это очень поздний шаг — но он показывает, насколько сильно Apple отстала от OpenAI, Google и даже xAI.
Пока другие выкатывают публичные LLM, мультимодальные ассистенты и интеграции в поиске, Apple остаётся в роли наблюдателя.
📌 Почему это важно:
- Mistral — один из главных open-source игроков на рынке ИИ (выпускают мощные LLM и Mixture of Experts-модели)
- У Apple пока нет ни собственной модели, ни сильной стратегии в области ИИ
- Приобретение Mistral может стать экстренной попыткой догнать конкурентов
Если сделка состоится — это будет крупнейший AI-манёвр Apple за всё время.
#Apple #Mistral #AI #LLM #ГонкаИИ
@machinelearning_interview