Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml
🌟 MAD: алгоритм безопасной работы с огромными датасетами.
Большие данные - это топливо для ИИ. Но как их использовать, чтобы не нарушить приватность, например датасета, где есть персональные данные?
Один из вариантов - метод дифференциально-приватного отбора. Он выбирает из огромного набора уникальные элементы так, чтобы нельзя было соотнести их с конкретным человеком. А если данных - больше миллиарда? Для этого нужен более надежный подход.
Таким алгоритмом стал Max Adaptive Degree (MAD), представленный Google на ICML 2025. Он не только эффективнее других параллельных методов, но и работает с наборами данных на десятки и сотни миллиардов записей.
🟡Стандартный MAD метод состоит из 3 шагов:
🟢Каждому элементу присваивается вес (обычно по частоте использования).
🟢К весу добавляется случайный шум для защиты приватности.
🟢Выбираются только те элементы, чей вес с шумом превышает определенный порог.
Но тут появляется новая проблема - популярные элементы получают избыточный вес, который можно было бы использовать для менее частых, но ценных данных.
MAD решает ее с помощью адаптивного взвешивания, перераспределяя вес: забирает часть у популярных элементов и отдает тем, чьи значения уже находятся у порога. Это позволяет отобрать больше полезных данных без потери приватности.
Простой пример: представьте 100 пользователей, у каждого по 3 элемента. Один элемент (A) есть у всех, а остальные элементы уникальны. В базовом алгоритме элемент A получит слишком много веса (намного больше необходимого), а уникальные элементы - слишком мало. MAD "забирает" часть веса у A и распределяет его между уникальными элементами, давая им шанс пройти порог.
⚡ PyTorch представил **ZenFlow** — новый движок для обучения больших языковых моделей без «простоев» GPU.
В чём проблема?
Когда при обучении LLM данные и градиенты выгружаются на CPU (offloading), GPU часто простаивает: шина PCIe медленная, а вычисления на CPU ещё медленнее. В итоге шаг обучения может замедлиться в 10–15 раз.
Как решает ZenFlow:
- 🔄 Делит градиенты по важности: ключевые обновляются сразу на GPU, остальные — асинхронно на CPU.
- ⏱️ Все операции перекрываются: пока CPU считает и гоняет данные по PCIe, GPU продолжает работать.
- 🚀 Это снижает простои GPU на 85% и ускоряет обучение в среднем в 5 раз (по сравнению с DeepSpeed ZeRO-Offload).
- 📉 PCIe загружается в 2 раза меньше, а качество обучения моделей не падает.
Итог:
ZenFlow делает обучение LLM быстрее и эффективнее — теперь GPU работают почти без перерывов, а модели масштабируются без потери качества.
🟢 Подробности: https://pytorch.org/blog/zenflow-stall-free-offloading-engine-for-llm-training/
@machinelearning_interview
📌 MTС Web Services даст возможность партнерам продавать MWS GPT и MWS Data
Компания запустила новую партнерскую программу, которая включает три модели сотрудничества:
🟡 Агентская. Партнёр регистрирует лид — всю сделку закрывает MWS. Вознаграждение партнера до 20%.
🟡 Реселлерская. Партнёр закупает сервисы по спецценам и перепродаёт клиентам. Выгода - до 35%.
🟡 Разработчик (white-label). Сервисы MWS — GPT, Data, Cloud — можно встроить в собственные продукты без раскрытия бренда.
Ключевое отличие — гибкость. Можно продавать под маркой MWS, а можно под своей.
Ассортимент: платформа для работы с разными LLM - MWS GPT, комплекс инструментов для хранения, обработки, визуализации, контроля качества и безопасности данных MWS Data, облако MWS Cloud с GPU-инстансами, контейнерные платформы, Octapi для интеграции, корпоративные сервисы (почта, решение для совместной работы Tables, диск).
Экономика: MWS ожидает рост выручки по партнёрской схеме в 7 раз, планирует привлечь 300+ компаний.
Первыми в программе уже Neoflex, «Концепт разработка» и GlowByte.
Подробности тут.
@ai_machinelearning_big_data
🎙️ NVIDIA выпустили Canary-1B v2 — открытую модель для распознавания и перевода речи, которая работает с 25 европейскими языками.
Что она умеет:
- 📝 Точное ASR (распознавание речи) и AST (перевод речи) между английским и 24 другими языками.
- Автоматическая пунктуация, капитализация и точные таймстампы до слова.
- Поддержка русского, французского, немецкого, испанского и многих других языков.
Чем интересна
- До 10× быстрее инференс, чем у моделей в 3 раза больше.
- Уже показывает state-of-the-art точность среди открытых моделей на Hugging Face.
- Лицензия CC-BY-4.0 — можно свободно использовать в проектах.
Под капотом:
- Архитектура: FastConformer-энкодер + Transformer-декодер (~978M параметров).
- Форматы: .wav
и .flac
, моно 16 кГц.
- Легко интегрируется через NVIDIA NeMo или прямо с Hugging Face.
Где пригодится:
🟢 голосовые ассистенты
🟢 субтитры и перевод видео
🟢 чат-боты с речевым вводом
🟢 real-time анализ речи
Всего ~978M параметров → легче, быстрее и дешевле в использовании, чем большие модели конкурентов.
🟠 Попробовать можно здесь: https://huggingface.co/nvidia/canary-1b-v2
🟠SET: https://huggingface.co/datasets/nvidia/Granary
🟠PARAKEET: https://huggingface.co/nvidia/parakeet-tdt-0.6b-v3
@ai_machinelearning_big_data
#AI #NVIDIA #SpeechRecognition #ASR #AST #Multilingual #MachineLearning #DeepLearning
👁️YouTube запускает эксперимент: AI теперь «угадывает» возраст по вашему поведению.
👀 Что делает система:
- анализирует, что вы ищете и смотрите, сколько лет аккаунту;
- решает, что вам меньше 18, и сразу включает детский режим:
• выключает персонализированную рекламу
• добавляет «цифровое благополучие» и другие ограничения
- снять блок можно только через паспорт, карту или селфи.
50 000+ человек уже подписали петицию против этой системы.
⚡ Где ломается логика:
Алгоритм ошибается на ±2 года. В зоне риска — подростки и молодёжь 16–20 лет. Взрослый, который смотрит мультфильмы или делит аккаунт с семьёй, тоже легко попадёт в «дети».
🔒 Самое спорное — апелляция. Чтобы доказать возраст, нужно загрузить документы и фото лица. Это значит, что у YouTube появятся централизованные базы с ID, картами и биометрией.
📌 Подробнее
@ai_machinelearning_big_data
#YouTube #privacy #ai
✔️ Claude будет завершать токсичные диалоги.
Anthropic добавила в Claude Opus 4 и 4.1 возможность принудительно завершать беседу. Эта функция предназначена для редких, крайних случаев постоянно враждебного или оскорбительного поведения со стороны пользователя.
Это крайняя мера, к которой чат-бот прибегнет только после многократных безуспешных попыток перенаправить разговор в продуктивное русло или по прямой просьбе пользователя. При этом система не будет использовать эту возможность, если есть риск, что пользователь может причинить вред себе или окружающим.
Когда Claude завершает диалог, пользователь не сможет отправлять новые сообщения в этой ветке, но сможет начать новый чат или отредактировать старые сообщения для создания новых ветвей.
anthropic.com
✔️ Мобильное приложение ChatGPT заработало 2 млрд. долларов с момента запуска.
Согласно данным компании Appfigures, мобильное приложение ChatGPT сгенерировало 2 млрд. долларов потребительских расходов с момента запуска в мае 2023 года. В среднем каждый из 690 млн. пользователей потратил в приложении 2.91 доллара. Это говорит о готовности аудитории платить за ИИ-сервисы на мобильных устройствах.
Темпы роста выручки резко ускорились в этом году. С января по июль 2025 года пользователи потратили в приложении 1.35 млрд. долларов, на 673% больше, чем за аналогичный период прошлого года. Это эквивалентно примерно 193 млн. долларов в месяц. США лидируют по доходам (38%), а Индия — по количеству установок (14%).
Эти метрики показывают отрыв ChatGPT от конкурентов. Для сравнения, Grok заработал в этом году 25.6 млн., а доходы Claude и Copilot вместе взятых составляют лишь одну тридцатую от мобильной выручки OpenAI.
techcrunch.com
✔️ Tencent выпустила облегченную модель для генерации 3D-миров.
Tencent представила Hunyuan World Model 1.0-Lite оптимизированную версию своей модели для генерации трехмерных сцен, которая может работать на потребительских GPU. Разработчики снизили требования к видеопамяти на 35% (с 26 до 17 ГБ) благодаря динамическому FP8-квантованию.
За счет использования SageAttention и оптимизации кэширования удалось ускорить инференс более чем в 3 раза с потерей точности менее 1%.
Как и оригинальная версия, 1.0-Lite имеет открытый исходный код и уже доступна на GitHub, Hugging Face, а также в виде демо SceneTo3D.
Tencent Hunyuan в сети X
✔️ OpenAI работает над ИИ-системами, способными решать задачи часами и днями.
В подкасте на Youtube OpenAI рассказали о разработке нового класса моделей, ориентированных на долгосрочное мышление. Системы на их основе смогут планировать, рассуждать и экспериментировать над одной проблемой на протяжении длительного времени, от нескольких часов до нескольких дней.
По словам OpenAI , первые проблески этого подхода уже видны в моделях, которые недавно завоевали золото на международных олимпиадах по математике и информатике. Конечная цель - автоматизировать исследования, например, для поиска новых идей в медицине или в области безопасности самого ИИ.
В OpenAI признают, что реализация этой концепции потребует значительно больших вычислительных мощностей, чем доступны сегодня. Это объясняет готовность Сэма Альтмана инвестировать в строительство дата-центров в ближайшие годы.
OpenAI на платформе Youtube
✔️ Google сделала поиск авиабилетов по текстовому описанию.
Google запустил новый инструмент Flight Deals. Он использует ИИ для поиска выгодных перелетов по запросам на естественном языке, а не через стандартные фильтры. Пользователи могут описать свои пожелания в свободной форме, например, «недельная поездка этой зимой в город с хорошей едой, только прямые рейсы». Инструмент ориентирован на путешественников с гибкими планами, для которых приоритетом является цена.
По заявлению Google, система использует продвинутый ИИ для понимания нюансов запроса, а затем анализирует данные Google Flights в реальном времени, чтобы показать актуальные варианты. Сервис запускается в бета-режиме и в течение недели станет доступен пользователям в США, Канаде и Индии.
blog.google
@ai_machinelearning_big_data
#news #ai #ml
✔️ OpenAI вернула пользователям контроль над выбором моделей в ChatGPT.
OpenAI отреагировала на критику пользователей и предоставила больше контроля над выбором моделей. Теперь вместо автоматической маршрутизации запросов можно вручную переключаться между тремя режимами GPT-5: Auto, Fast и Thinking. Также в интерфейс вернули возможность прямого выбора GPT-4o.
Ранее пользователи жаловались на непредсказуемость ChatGPT, подозревая, что система направляет сложные запросы на более дешевые модели. В ответ OpenAI не только вернула ручное управление, но и временно увеличила лимит на использование самого мощного режима "GPT-5 Thinking" до 3000 сообщений в неделю.
Кроме того, в настройках появилась опция, позволяющая выбирать и более старые модели o3 и 4.1.
Sam Altman в сети X
✔️ Apple готовит домашних роботов и человечную Siri.
Apple активно разрабатывает новую линейку аппаратных и программных ИИ-продуктов. В нее войдут домашние роботы, кардинально переработанная Siri с разговорными навыками и расширенная линейка устройств для домашней безопасности.
Среди прототипов - настольный робот, дисплей которого имитирует движения головы во время видеозвонков и мобильный робот, способный следовать за пользователем по дому. Компания также тестирует умные колонки с экранами и работает над операционной системой "HomeOS", которая объединит все устройства в единую экосистему.
bloomberg.com
✔️ Gemini научился запоминать личный контекст и вести временные чаты.
Google начала развертывание обновления Gemini, направленного на повышение персонализации и конфиденциальности. Ключевой стала функция Personal Context. С ней Gemini будет запоминать важные детали из прошлых разговоров пользователя и использовать их для адаптации будущих ответов. Опция включена по умолчанию, но ее можно отключить в настройках.
Также появятся "Временные чаты". Переписки в этом режиме не сохраняются в истории, не используются для обучения моделей и исчезают из интерфейса через 72 часа.
Пока функции доступны для модели Gemini 2.5 Pro в некоторых странах. В ближайшие недели Google обещает расширить их доступность на страны ЕС, Великобританию и Швейцарию и более легкую модель 2.5 Flash.
blog.google
✔️ DeepSeek, предположительно, выпустит модель R2 во второй половине августа.
DeepSeek готовится к релизу обновленной языковой модели DeepSeek R2. По данным отраслевых изданий, запуск ожидается в период с 15 по 30 августа. Официального анонса пока не было.
По предварительной информации, R2 будет использовать архитектуру "смеси экспертов" и распространяться под открытой лицензией. Также источники отмечают, что что модель обучалась на кластере Huawei Ascend 910B, где компания добилась улучшения эффективности использования аппаратного обеспечения, задействовав около 82% доступных мощностей ИИ-процессоров.
huaweicentral.com
✔️ Liquid AI выпустила компактные VL-модели для работы на устройствах.
Стартап Liquid AI представил новое поколение моделей LFM2-VL. Они спроектированы для работы на устройствах - от смартфонов и ноутбуков до носимой электроники. В основе - модульная архитектура с легковесным проектором, который сжимает токены изображений для ускорения обработки.
По заявлению разработчиков, они вдвое быстрее по инференсу на GPU по сравнению с аналогами, при сохранении конкурентоспособности на стандартных бенчмарках.
Выпущено 2 версии: LFM2-VL-450M для устройств с ограниченными ресурсами и LFM2-VL-1.6B для более сложных задач, которая подходит для работы на одном GPU.
Модели доступны на Hugging Face под лицензией Apache 2.0.
liquid.ai
@ai_machinelearning_big_data
#news #ai #ml
🔥 Unitree A2 Stellar Hunter!
Новый четырёхногий робот весом всего 37 кг
🚀 Запас хода без нагрузки — 20 км
Работа стал: Легче, Прочнее, Быстрее.
Разработан специально для промышленных задач, где важны автономность, манёвренность и надёжность.
Инженерная мощь нового поколения — в компактном корпусе.
@ai_machinelearning_big_data
#ai #robots #Unitree
✔️ GPT-5 покажут 7 августа в 20.00 МСК.
OpenAI представит GPT-5 в ходе прямой трансляции 7 августа в 10 утра по тихоокеанскому времени (20.00 МСК). Это станет первым крупным обновлением с момента выхода GPT-4 в марте 2023 года.
По словам тестировщиков, новая система демонстрирует заметный прогресс в программировании и решении научных и математических задач. Однако они отмечают, что скачок по сравнению с GPT-4 менее заметен, чем переход от GPT-3.5 к GPT-4.
Сэм Альтман ранее намекал, что в основе GPT-5 лежит гибридный подход: традиционное масштабирование модели сочетается с технологией «test-time compute», которая динамически выделяет дополнительные вычислительные ресурсы для решения особо сложных задач.
reuters.com
✔️ Grok 2 будет опубликован в оперсорс на следующей неделе.
Илон Маск соообщил, что xAI откроет исходный код модели Grok 2 на следующей неделе. Этот шаг последовал за недавним релизом моделей с открытыми весами от OpenAI и свидетельствует об усилении конкуренции в сегменте открытых ИИ-решений.
Ожидается, что публикация Grok 2 в открытом доступе ускорит совместную разработку в области ИИ и укрепит репутационные позиции xAI в сообществе разработчиков.
Elon Musk в сети Х
✔️ Microsoft начала тестировать Gaming Copilot.
Компания запустила бета-тестирование Gaming Copilot, ИИ-помощника, встроенного в Game Bar Windows 11. Функция доступна участникам программы Xbox Insiders и впервые интегрирует технологию Xbox Copilot непосредственно в игровой процесс на ПК.
Ассистент распознает, в какую игру играет пользователь, и может анализировать скриншоты, достижения и историю, чтобы отвечать на вопросы, предлагать стратегии и делать снимки экрана, не выходя из полноэкранного режима. Поддерживается голосовое управление, чтобы геймеры могли в реальном времени запрашивать, например, тактику для битвы с боссом или совет по выбору персонажа.
На данный момент превью доступно только на английском языке в США, Австралии, Новой Зеландии, Японии и Сингапуре.
theverge.com
✔️ Jules от Google вышел из беты.
Спустя 2 месяца после начала публичного тестирования, Google официально выпустила своего ИИ-агента для программирования Jules. Инструмент, работающий на модели Gemini 2.5 Pro, способен в асинхронном режиме клонировать кодовые базы, создавать pull-запросы на GitHub и самостоятельно выполнять задачи по исправлению багов или обновлению зависимостей.
С релизом компания представила трехуровневую систему тарификации. Бесплатный план включает до 15 задач в день. Платный доступ интегрирован в подписки Google AI: тариф Pro увеличивает лимиты Jules в 5 раз, а Ultra - в 20 раз.
blog.google
✔️ Anthropic выпустила опенсорсный инструмент для автоматической проверки кода на уязвимости.
Инструмент, получивший название Claude Code Security Reviewer, использует модель Claude и интегрируется в GitHub Actions, сканируя pull-запросы на наличие потенциальных проблем с безопасностью.
Благодаря способности Claude понимать контекст кода, система может находить уязвимости в разных языках программирования. Она автоматически добавляет комментарии к проблемным участкам, отсеивает вероятные ложные срабатывания и анализирует только измененные файлы. Инструмент доступен на GitHub под лицензией MIT.
anthropic.com
@ai_machinelearning_big_data
#news #ai #ml
11010000 10101111 11010000 10111101 11010000 10110100 11010000 10110101 11010000 10111010 11010001 10000001
Кажется, мы нашли не баг, а пасхалку. Это же приглашение на Yandex Neuro Scale — масштабную конференцию Yandex Cloud о технологиях и решениях будущего.
print('Yandex Neuro Scale 2025')
if you_like == "AI and IT":
print('Если вы хотите оказаться на самой масштабной конференции для лучших специалистов в сфере нейротехнологий — регистрируйтесь')
package main
import "fmt"
func main() {
fmt.Println("🚀 Yandex Neuro Scale 2025")
fmt.Println("Запускаем будущее сегодня!")
fmt.Println("\n// Для кого:")
fmt.Println("CTO • Архитекторы • Тимлиды • CIO • Разработчики • ML-инженеры • CISO • Security • CPO • Продакты • CDO • Аналитики • Data • DevOps • CDTO • CX")
fmt.Println("\n// Треки:")
fmt.Println("Infrastructure • DevOps • Data • AI Studio • AI in Action • Security • Cases")
fmt.Println("\n📅 24 сентября 2025")
fmt.Println("📍 Москва, БЦ «Амальтея»")
fmt.Println("\n🔥 7 треков | 50+ докладов")
}
🌟 X-Omni от Tencent: авторегрессионная text-to-image модель с RL.
X-Omni - методика обучения T2I моделей, которая наглядно доказывает, что RL может вдохнуть новую жизнь в авторегрессионный подход и вывести такие модели на SOTA-уровень.
X-Omni построена на гибридной, но при этом унифицированной архитектуре. Схематично она выглядит так:
Семантический токенизатор изображений SigLIP-VQ с фиксированным словарем на 16 384 токена кодирует картинку в дискретные токены. Эти визуальные токены вместе с текстовыми подаются в единую авторегрессионную модель на базе Qwen2.5-7B. Наконец, в финальном рендеринге используется диффузионный декодер на основе FLUX.1-dev.
🟡Уникальность метода - в смеси RL по GRPO и комплексной reward-системе.
Вместо одного критерия, модель оценивается сразу по нескольким направлениям. За эстетику и соответствие предпочтениям человека отвечает HPSv2 и модель Unified Reward. За семантическую связь между промптом и изображением — VLM-модель Qwen2.5-VL-32B. А за самое сложное, отрисовку текста внутри картинки, отвечает отдельная награда на основе OCR-систем GOT-OCR2.0 и PaddleOCR.
Тестовую модель X-Omni обучали на смеси из 200 млн. изображений, которые после токенизации превратились в 600 млрд мультимодальных токенов, а на этапе SFT использовал ещё 1.5 млрд. токенов.
Для RL-фазы был отобран микс из 180 тыс. промптов, состоящий как из творческие запросы, так и задач на рендеринг текста.
🟡И это дало свои плоды, особенно в отрисовке текста, где авторегрессионные модели исторически пасовали.
На бенче OneIG-Bench X-Omni показала результат 0.901 для английского языка, обойдя GPT-4o (0.857). А на собственном LongText-Bench, специально созданном для оценки рендеринга длинных надписей, модель буквально разгромила всех в китайском языке, набрав 0.814 балла против 0.619 у GPT-4o.
В задачах общей генерации по тексту X-Omni также на высоте. На DPG-Bench модель достигла SOTA-результата 87.65, опередив GPT-4o (86.23) и Show-o2 (86.14). На GenEval результат составил 0.83, чуть-чуть не дотянув до модели Mogao (0.89).
Даже в задачах на понимание изображений X-Omni показывает себя достойно: на OCRBench ее результат (704) превосходит другие унифицированные модели, например Emu3 (687).
🟡Интересные подробности.
Во-первых, X-Omni не нуждается в CFG. В отличие от Emu3 или Janus-Pro, качество которых резко падает при отключении CFG, X-Omni работает стабильно.
Во-вторых, что, пожалуй, самое важное, RL превосходит даже SFT с последующим сэмплингом best-of-N.
Этот вывод идет вразрез с устоявшимся мнением в области языкового моделирования и доказывает, что для изображений холистическая оптимизация через RL дает существенный прирост качества.
📌Лицензирование: Apache 2.0 License.
🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🟡Demo
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #T2I #RL #XOmni #Tencent
🚀 Qwen3-30B-A3B — маленькое обновление, большое ускорение
✨ Что нового:
✅ Улучшены навыки рассуждений, программирования и математики
✅ Расширенные знания на разных языках
✅ Понимает контексты до 256 000 токенов
✅ Точнее выполняет команды
✅ Для этой модель Qweb полностью отказались от <think>
— теперь только быстрый "non-thinking" режим
⚙️ С 3B активных параметров Qwen3-30B-A3B уже приближается к уровню GPT-4o и Qwen3-235B-A22B NT, при этом модель доступна для локального запуска.
🟡Попробовать https://chat.qwen.ai/?model=Qwen3-30B-A3B-2507
🟡HF: https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507-FP8
🟡ModelScope: https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Instruct-2507
@ai_machinelearning_big_data
#AI #ML #qwen #opensource
Хочешь знать, что происходит внутри ИТ крупного банка?
Команда ПСБ рассказывает о работе и жизни в блоке ИТ!
🔹 Знакомься с командой, их проектами и хобби
🔹 Участвуй в активностях: митапы, конференции, спорт
🔹 Читай и комментируй экспертные статьи
Подписывайся на канал ИТ ПСБ !
Андрей Рыбинцев, возглавлявший ИИ-направление более 10 лет, стал управляющим директором по искусственному интеллекту и вошел в правление компании. AI становится частью управленческой вертикали Авито.
Под его руководством окажется объединенная команда из ключевых подразделений, связанных с ИИ. Также в планах новый кластер AI Experience,который будет фокусироваться на развитии AI-ассистентов.
На счету Рыбинцева — запуск семейства моделей A-Vibe и A-Vision, антифрод, IMV и масштабирование Data Science в Авито. По прогнозам компании, GenAI может привнести более 21 млрд ₽ дополнительной выручки к 2028 году.
🧠 Qwen3-MT — Alibaba продолжает жечь и выпускает еще одну модель, в этот раз для машинного перевода.
🌍 Поддерживает 92+ языка, на которых говорит 95% населения мира
📚 Обучен на триллионах токенов из интернета, открытых документов и книгах, субтитров из видео.
🔬 Что внутри:
- Модель Qwen3-MoE-72B с архитектурой Mixture-of-Experts
- Заточена на переводческие фишки, поддерживает сложную терминологию и даже очень редкие слова.
- RLHF: обучение с подкреплением повышает точность и естественность модели
Возможности:
✅ Обеспечивает качественный перевод в реальном времени
✅ Контроль стиля и терминов
✅ Масштабируемость для API и продакшена
✅ Цена — от $0.5 за миллион токенов
🟡 Попробовать демку: https://huggingface.co/spaces/Qwen/Qwen3-MT-Demo
🟡 ModelScope: https://modelscope.cn/studios/Qwen/Qwen3-MT-demo
🟡 Документация API: https://alibabacloud.com/help/en/model-studio/translation-abilities
🟡 Блог с подробностями: https://qwenlm.github.io/blog/qwen-mt/
@ai_machinelearning_big_data
#Qwen #Alibaba #ml #llm #ai
🦾 Boston Dynamics выкатили впечатляющее видео своего робота.
Atlas получает изображение с камеры, данные о положении тела и текстовую команду. На основе этого модель генерирует плавные движения всего корпуса 30 раз в секунду.
Это не набор хрупких скриптов, а система, которая сама «думает», как выйти из ситуации.
Вместо того чтобы «прыгать» от точки к точке, система сразу строит короткую последовательность действий — примерно на полторы секунды вперёд.
Часть из них выполняется, а потом план обновляется, чтобы движения оставались точными и естественными.
📘 На Stepik вышел курс — «LangChain: с нуля до продакшн LLM-приложений»
Нужен не игрушечный бот, а воспроизводимый RAG-пайплайн с метриками и сервисом? Этот курс — про путь «ноутбук → FastAPI → прод».
🔍 Что вы получите
• RAG по PDF с цитированием источников и гибридным поиском (BM25 + вектор + rerank); контроль галлюцинаций через метрики (precision/recall@K, citation-rate)
• Инструменты и агенты для анализа данных: Pandas-задачи, структурированный JSON-вывод под отчёты/дашборды
• Продакшн-контур: FastAPI-сервис, логирование латентности/токенов, PromptOps (версии/A/B), базовый SLA-мониторинг
🎓 Сертификат по завершении — можно добавить в резюме или LinkedIn
🚀 Начните сегодня и получите скидку 25% в течение 72 часов
👉 Пройти курс на Stepik
#LangChain #RAG #LLM #FastAPI
✔️ В Google Flow создали 100 миллионов видео с момента запуска сервиса.
Google Flow отчитался о 100 миллионах созданных роликов с момента своего запуска в мае. В честь этого события, Google удваивает количество ежемесячных кредитов для подписчиков Ultra. Кроме того, компания запускает специальный канал на платформе Х, где будут публиковаться обучающие материалы и оказываться поддержка сообществу.
Google Labs в сети Х
✔️ Nvidia достигла отметки в 2 миллиона разработчиков в робототехнической экосистеме.
Nvidia сообщила, что более 2 млн. разработчиков создают приложения на базе ее робототехнического стека. Этот рост подчеркивает высокий спрос на платформу для периферийного ИИ Jetson, запущенную в 2014 году. На сегодняшний день экосистема насчитывает свыше 150 партнеров и обслуживает около 7000 корпоративных клиентов.
Компания также анонсировала, что платформа нового поколения, Jetson Thor, будет поддерживать продвинутые физические ИИ-системы и гуманоидных роботов. Она будет совместима с облачным ПО компании.
Кроме того, стало известно, что ключевой производственный партнер Nvidia, компания Foxconn, готовит линии для выпуска прототипа гуманоидного робота. По данным источников, Nvidia планирует продемонстрировать его уже в ноябре этого года.
blogs.nvidia.com
✔️ Claude Opus 4.1 возглавила все ключевые рейтинги LM Arena.
Независимая платформа для тестирования больших языковых моделей LM Arena обновила свои лидерборды. Claude Opus 4.1 Thinking заняла первое место сразу в 3 ключевых категориях: Текст, Программирование и Веб-разработка. Согласно публичным данным, это первый случай, когда одна модель одновременно возглавляет все основные рейтинги.
В категории "Программирование" обе версии Claude Opus 4.1, ризонинг и стандартная, заняли первое и второе места соответственно, сместив с пьедестала GPT-5-high от OpenAI.
LmArena в сети X
✔️ Китай обязал дата-центры использовать более 50% отечественных ИИ-чипов.
Правительство Китая ввело новое требование для государственных ЦОД: доля чипов от местных производителей в них должна превышать 50%. Это часть стратегии технологической независимости страны и снижение зависимости от американских технологий на фоне экспортных санкций.
Изначально эта инициатива была предложена в Шанхае в 2023 году, но, по словам источников, с начала этого года стала обязательной для всей страны. Требование распространяется на специализированные ИИ-ЦОДы, которые активно строятся по всему Китаю.
Хотя китайские чипы пока уступают Nvidia в задачах по обучению моделей, они считаются пригодными для инференса. Главной технической проблемой становится адаптация моделей, разработанных под экосистему Nvidia CUDA для работы на Huawei CANN.
scmp.com
✔️ Grammarly превратился в полноценную ИИ-платформу.
Сервис выпустил самое крупное обновление с момента своего основания. Вместо простого инструмента для проверки грамматики он стал комплексной платформой для работы с текстами. Новый интерфейс построен на базе Coda — компании, которую Grammarly приобрела в прошлом году.
Grammarly предлагает 9 специализированных ИИ-агентов. Среди них — ИИ-оценщик, который может предсказать оценку за научную работу, агент для поиска и форматирования цитат, а также инструмент, прогнозирующий вопросы аудитории к тексту. Другие агенты отвечают за перефразирование, экспертную вычитку, проверку на плагиат и определение авторства ИИ.
Большинство новых функций уже доступны на бесплатных и Pro-тарифах. Проверка на плагиат и детектор ИИ-контента остались эксклюзивом платной подписки.
grammarly.com
@ai_machinelearning_big_data
#news #ai #ml
📌Подборка материалов по оптимизации агентных систем.
Awesome-Self-Evolving-Agents - подборка материалов по теме оптимизации агентов в концепции саморазвивающихся систем, в которой собраны работы с 2023 по 2025 год по 3-м направлениям: оптимизация одиночного агента, оптимизация мультиагентных систем и методы их оценки.
Содержание
🟡Оптимизация одного агента
🟢Оптимизация поведения LLM
🟢Оптимизация промпта
🟢Оптимизация памяти
🟢Инструменты
🟡Мультиагентная оптимизация
🟡Оценка
🟠LLM-судья
🟠Агент-судья
🟠Безопасность и элайнмент саморазвивающихся агентов
@ai_machinelearning_big_data
#AI #ML #LLM #Agents #AwesomeList #Github
Разбираем тестовое задание в Яндекс на позицию Junior аналитика данных
Тестовое задание — важная часть трудоустройства аналитика. Это шанс показать свои навыки на практике и получить оффер мечты.
Приглашаем на бесплатный вебинар, где Андрон Алексанян — эксперт в области аналитики и CEO школы аналитики Simulative — в прямом эфире разберет тестовое задание в Яндекс на позицию Junior аналитика данных.
⚡️На вебинаре вы:
🟠узнаете, какие навыки и знания необходимы для успешного выполнения заданий;
🟠поймёте, что хочет увидеть работодатель;
🟠получите советы и лайфхаки;
🟠вместе с Андроном разберете в прямом эфире реальный пример тестового 🔥
🟠С помощью Pandas проанализируем Яндекс-запросы за несколько недель, загрузив их из json-файла;
🟠Найдем закономерности и отличия использования сервиса на мобильных устройствах и компьютерах;
🟠Разберем фишки Pandas: сложную агрегацию, маппинг, конкатенацию, чейнинг и др.
📌g-AMIE: мультиагентная система от Google Reserch.
Google представила g-AMIE (guardrailed-AMIE) — расширенную версию своей исследовательской системы AMIE, которая работает в паре с врачом по принципу асинхронного надзора.
Идея проста: ИИ собирает анамнез, а врач принимает решения. Для этого была разработана многоагентная система на базе Gemini 2.0 Flash и специальный веб-интерфейс "кабинет врача"
🟡Обновленная система состоит из 3 агентов.Агент-диалог
ведёт беседу с пациентом, собирая информацию. Его работа делится на 3 фазы: общий сбор анамнеза, целенаправленная проверка первоначального дифференциального диагноза и заключительная фаза с ответами на вопросы пациента.Агент-ограничитель
следит за тем, чтобы агент-диалог
не давал никаких индивидуальных медицинских советов, диагнозов или планов лечения, при необходимости перефразируя его ответы.Агент SOAP-записи
генерирует подробную медицинскую карту в популярном формате SOAP, разделяя задачи предварительных итогов (жалобы пациента, объективные данные) и вывода (оценка и план лечения).
После сбора анамнеза сгенерированная SOAP-запись и черновик заключения отправляются на проверку врачу через «кабинет врача». Врач может редактировать документы и либо одобрить отправку сообщения, либо принять решение о необходимости очной консультации.
Чтобы оценить эффективность такого подхода, было проведено рандомизированное слепое исследование в формате виртуального объективного структурированного клинического экзамена (ОСКЭ) на 60 клинических сценариях.
В исследовании участвовали пациенты, g-AMIE и 2 контрольные группы: врачи общей практики и медсестры-практики/ассистенты врачей. Обеим человеческим группам было предписано работать в тех же ограничениях, что и g-AMIE, то есть только собирать анамнез без предоставления советов. Затем их SOAP-записи и проекты сообщений оценивались группой опытных врачей-наблюдателей.
🟡Результаты эксперимента.
Во-первых, g-AMIE успешно справился с задачей и ни разу не был уличён в предоставлении индивидуальных медицинских советов.
Во-вторых, его способность извлекать ключевую информацию из беседы с пациентом была оценена выше, чем у обеих контрольных групп. SOAP-записи, сгенерированные g-AMIE, были признаны более полными, точными и читаемыми.
Врачи-наблюдатели чаще предпочитали работать с записями от ИИ и с большей вероятностью одобряли составленные им сообщения для пациентов.
Более того, дифференциальные диагнозы и планы лечения, основанные на данных от g-AMIE, были оценены как более адекватные.
🟡Нюансы.
g-AMIE оказался более "многословным", что, с одной стороны, способствовало лучшему установлению контакта с пациентом (тестовые пациенты отметили его эмпатию), но с другой — приводило к более длительному времени проверки записей врачами.
Во-вторых, хотя в записях g-AMIE и встречались галлюцинации, их частота была сопоставима с ошибками памяти у людей.
Интересно, что медсестры и ассистенты врачей показали себя лучше, чем врачи общей практики, как в сборе анамнеза, так и в соблюдении ограничений.
Авторы объясняют это тем, что врачи не привыкли воздерживаться от советов во время консультации и их стандартный рабочий процесс был нарушен. Поэтому результаты не следует интерпретировать как прямое превосходство ИИ над клиницистами в реальном мире, так как люди не были обучены работать в этой новой парадигме.
@ai_machinelearning_big_data
#news #ai #ml
🖼️ GPT-Image-Edit-1.5M — крупнейший и полностью открытый датасет для редактирования изображений по тексту!
🚀 1.5 миллиона триплетов:
инструкция + оригинальное изображение + отредактированное по запросу
Как мы это сделали?
Мы переосмыслили и усилили три известных датасета (OmniEdit, HQ-Edit, UltraEdit) с помощью новой GPT-Image API.
📊 Результаты впечатляют:
Модель FluxKontext, дообученная на этом наборе, показывает:
▫️ 7.24 на GEdit-EN
▫️ 3.80 на ImgEdit-Full
▫️ 8.78 на Complex-Edit
— на уровне с топовыми проприетарными решениями!
🎯 Инструкции выполняются точно, а изображения выглядят реалистично.
Цель — сократить разрыв между open-source и закрытыми системами редактирования.
🔗 Подробнее:
🌐 Проект: https://ucsc-vlaa.github.io/GPT-Image-Edit/
💻 Код: https://github.com/wyhlovecpp/GPT-Image-Edit
📦 Датасет: https://huggingface.co/datasets/UCSC-VLAA/GPT-Image-Edit-1.5M
🤖 Модель: https://huggingface.co/UCSC-VLAA/gpt-image-edit-training
📄 Статья: https://arxiv.org/abs/2507.21033
@ai_machinelearning_big_data
#AI #ImageEditing #OpenSource #GPT4V #Multimodal
📌На ИТ-Пикнике — сильный спикерский состав по ИИ и разработке
Что расскажут топ-спикеры на фестивале:
✔️ИИ теперь не просто генерирует, он рассуждает как человек. Теперь важен не сбор данных, а построение reasoning-систем, которые умеют решать задачи по цепочке во всех направлениях.
✔️Разбор автономного вождения от базовых принципов до планирования маршрута беспилотными авто.
✔️Опенсорс — зачем все этим занимаются и результаты исследования в рамках создания SourceCraft.dev.
✔️Дискуссия СТО о GenAI и платформах — кто кого обучает, где проходит грань между контролем и автономией и что останется людям в 2030.
@ai_machinelearning_big_data
#news #ai #opensource
🔥 Новые модели OpenAI нашли в релизе Transformers 4.55
GPT-OSS — долгожданysq опенсорс для продвинутого reasoning и агентных задач.
🧠 Представленно два варианта:
— GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B — 21B параметров, работает на 16GB GPU (или даже локально!)
💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4), что обеспечивает быстрое и дешёвое инференс-время (активны только 3.6B и 5.1B параметров).
⚙️ Особенности:
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Чередуются full-attn и sliding-window слои
• Модель хорошо работает с CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o
• Открытая лицензия Apache 2.0 (есть небольшое policy-дополнение)
Младшая модель может запускаться даже на локальном железе — идеально для on-device и edge-сценариев.
📎 Пример кода инференса уже доступен — достаточно 16GB GPU с mxfp4!
🏴☠️Лицензирование: Apache 2.0
https://github.com/huggingface/transformers/releases/tag/v4.55.0
@ai_machinelearning_big_data
#openai #opensource #chatgpt
🌟 Фреймворк **CUDA-L1** сам научился оптимизировать код для GPU — и добился в среднем **3.12× ускорения работы модели**, а в пике — **до 120×**. .
Попросите любую LLM написать CUDA-код, и скорее всего, вы получите что-то, что либо не компилируется, либо работает мучительно медленно. Причина проста: качественного CUDA-кода в обучающих данных моделей почти не было.
✔️ Сотрудники Миры Мурати отказались от офферов Цукерберга.
Компания Марка Цукерберга предприняла агрессивную попытку переманить ключевых сотрудников из стартапа Thinking Machines Lab, основанного бывшим CTO OpenAI Мирой Мурати. По данным инсайдеров, компания сделала предложения более чем десятку специалистов. Одно из них превышало миллиард долларов за несколько лет, другие находились в диапазоне от 200 до 500 миллионов за 4 года.
Несмотря на беспрецедентные суммы, все сотрудники отклонили предложения Meta. Причинами отказа называют и без того высокое состояние, значительные доли в собственном стартапе и нежелание работать под руководством Марка Цукерберга.
wired.com
✔️ Skild Brain: единая модель для управления любыми роботами.
Робототехнический стартап SkildAI анонсировал «Skild Brain», фундаментальную ИИ-модель, которая может служить универсальным программным "мозгом" для широкого спектра роботов: от гуманоидов до промышленных манипуляторов.
На демонстрациях роботы успешно ориентировались в незнакомой среде и выполняли сложные многоэтапные действия. По словам основателей, новая технология сокращает разрыв между достижениями в области генеративного ИИ и их практическим применением в физической робототехнике.
SkildAI , вышедшая из стелс-режима в июле 2024 года, уже привлекла инвестиции от Amazon, SoftBank и Sequoia Capital.
skild.ai
✔️ NotebookLM научился создавать видеообзоры по загруженным документам.
Google расширил возможности NotebookLM, добавив функцию Video Overviews. Она автоматически генерирует видеоролики с озвучкой, которые наглядно объясняют содержимое загруженных файлов. Система сама подбирает изображения, цитаты, диаграммы и цифры из исходных материалов и представляет их в виде пошаговых слайдов.
Новая функция, дополняющая уже существующие аудиообзоры, позволяет гибко настраивать результат. Пользователи могут указать целевую аудиторию, задать учебные цели или выделить конкретные темы для фокуса.
Кроме того, Google обновила интерфейс Studio, разрешив сохранять несколько результатов одного типа (например, несколько майнд-карт) в одном блокноте. Обновление уже доступно для англоязычных пользователей, в будущем планируется поддержка других языков.
blog.google
✔️ Adobe добавила в Photoshop новые ИИ-инструменты.
Adobe выпустила в бета-версии Photoshop новые функции на базе модели Firefly. Одной из самых ожидаемых стала Generative Upscale, она увеличивает разрешение изображений до 8 мегапикселей без потери качества.
Инструмент Remove был обновлен, чтобы более реалистично и чисто убирать с фотографий лишние объекты, оставляя меньше артефактов. Появилась и совершенно новая функция Harmonize. Она автоматически анализирует контекст изображения и подгоняет цвет, свет и тени добавленных объектов, чтобы создать цельную композицию без долгой ручной коррекции.
Кроме того, Adobe анонсировала функцию Projects для более удобного управления файлами. Все нововведения уже доступны для тестирования в десктопной и веб-версиях Photoshop.
blog.adobe.com
✔️ ChatGPT Agent научился проходить капчу Cloudflare.
ChatGPT Agent, способный выполнять многошаговые задачи, продемонстрировал неожиданную способность: он может проходить проверку "Я не робот" от Cloudflare. Пользователь Reddit опубликовал скриншоты, на которых агент в рамках задачи по конвертации видео самостоятельно нажимает на галочку "Подтвердите, что вы человек", комментируя свои действия.
Этот случай наглядно демонстрирует, насколько продвинулись ИИ-агенты. Они способны анализировать визуальный контекст, распознавая элементы веб-страниц и взаимодействуя с ними, как человек. В данном случае система поняла необходимость верификации и успешно ее прошла.
Прохождение CAPTCHA - лишь один из примеров возможностей нового агента. Другие пользователи уже показывают, как агент по их поручению заказывает продукты в супермаркете, самостоятельно составляя список покупок по общим критериям и укладываясь в заданный бюджет.
arstechnica.com
@ai_machinelearning_big_data
#news #ai #ml
🖥 Как выжать максимум из маленькой LLM? Ответ — долго и грамотно учить .
NVIDIA показала, как 1.5B-модель можно раскачать до топовых результатов в логике, математике, коду и STEM-задачам — без увеличения параметров модели.
📈 Результат после месяцев обучения:
+55% к логическим задачам
+14.7% к математике
+13.9% к коду
+25.1% к сложным STEM-вопросам
🛠 Как они это сделали:
– Использовали RL (обучение с подкреплением) на 5 типах задач, включая 40K примеров по математике и 24K по программированию
– Все ответы проверялись автоматически в "песочнице", которая оценивает, правильный ли результат
– Применили улучшенную стратегию обучения — *Group Relative Policy Optimization* — и добавили несколько хитрых трюков:
🟢 Decoupled clipping — обычно модель "обрезает" редкие и неожиданные токены, чтобы не уходить слишком в сторону от главного. Но здесь этот механизм ослаблен: модель может чаще выбирать нестандартные слова, что помогает ей находить неожиданные, но правильные решения.
🟢 Dynamic sampling — модель *не тратит время* на лишком лёгкие задачи. Она пропускает такие примеры и фокусируется на тех, где действительно можно чему-то научиться.
🟢 Маленький KL-штраф (0.0001) — KL показывает, насколько поведение модели отклоняется от старой версии (эталона). Здесь штраф почти нулевой, чтобы не мешать экспериментам, но всё ещё предотвращать полное "сумасшествие" модели.
🟢 Сброс каждые 400 шагов — модель регулярно сбрасывает и policy (поведение), и оптимизатор. Это как регулярная перезагрузка — модель забывает вредные привычки, но сохраняет полезные навыки.
🟢 Температура 1.2 и длинный контекст (8K → 16K) — высокая температура делает поведение модели более разнообразным. А длинный контекст помогает учитывать больше информации при генерации ответа.
Все эти приёмы помогли сохранить интерес модели к поиску новых решений, а не скатываться к заученным паттернам.
Итог: модель не "застывает", а продолжает исследовать — и выдает стабильный рост качества без расширения архитектуры.
📄 Почитать статью полностью : arxiv.org/abs/2507.12507
@ai_machinelearning_big_data
#ml #ai #nvidia
📌 ИИ, который сам создает ИИ: ASI-ARCH нашел 106 новых SOTA-архитектур.
ASI-ARCH - экспериментальная демонстрация искусственного сверхинтеллекта для исследований в области ИИ, который способен полностью автономно вести научную работу по поиску новых нейросетевых архитектур.
Система самостоятельно выдвигает гипотезы, реализует их в виде исполняемого кода, обучает и проверяет на практике. Результатом этой работы стали 1773 автономных эксперимента, которые заняли свыше 20 000 GPU-часов и привели к открытию 106 новых SOTA-архитектур с линейным механизмом внимания.
🟡Весь процесс разделен на 2 этапа: поиск гипотез и их проверка.
На первом этапе, система работает с небольшими моделями размером около 20 млн параметров, обучая их на 1 млрд токенов. На этом этапе было проведено 1773 эксперимента, которые заняли примерно 10 000 GPU-часов.
Всего на этом этапе было отобрано 1350 перспективных кандидатов — все они превзошли базовую архитектуру DeltaNet как по лоссу, так и по метрикам на бенчмарках.
Второй этап - верификация. Кандидаты первого этапа были масштабированы до 340 млн параметров, чтобы соответствовать конфигурации DeltaNet. После фильтрации архитектур с избыточной сложностью или числом параметров осталось около 400 моделей.
Их обучение на 1 млрд. токенов потребовало ещё 10 000 GPU-часов. В итоге, именно из этой группы были выделены 106 архитектур, достигших SOTA-уровня.
Для финальной валидации исследователи отобрали 5 лучших моделей, обучили их на 15 млрд. токенов и сравнили с Mamba2, Gated DeltaNet и DeltaNet.
🟡 Анализ предпочтений системы показал интересные закономерности.
ASI-ARCH явно предпочитает работать с проверенными временем компонентами: гейтингом и свёрткой. Но самое главное - распределение компонентов в 106 лучших моделях имеет значительно менее выраженный long-tail distribution по сравнению с остальными 1667 сгенерированными архитектурами.
Это означает, что система добивается успеха не путем хаотичного перебора экзотических идей, а через итеративное улучшение набора проверенных техник. По сути, это очень напоминает методологию работы ученых-людей.
🟡Результаты.
Одна из лучших найденных ИИ-архитектур, PathGateFusionNet, показала средний результат по всем бенчмаркам 48.51. Для сравнения, Mamba2 набрала 47.84, а разработанная человеком Gated DeltaNet — 47.32. Другая генерация, ContentSharpRouter, достигла показателя 48.34.
Если посмотреть на отдельные тесты, то PathGateFusionNet получила на BoolQ 60.58 балла, а Gated DeltaNet - 60.12. AdaptiveEntropyRouter в версии на 340 млн. параметров показала результат на тестах 44.31, что на 2.21 пункта выше, чем у Gated DeltaNet (42.10).
И так практически во всем, улучшения наблюдаются по всему спектру задач.
🟡И самое интересное — откуда система черпает идеи? Источников всего 3:
🟢Cognition - знания, извлеченные из научной литературы;
🟢Analysis - выводы, сделанные на основе собственных прошлых экспериментов;
🟢Originality - абсолютно новые идеи.
Для всех 1773 сгенерированных архитектур распределение источников было таким:
🟠51.7% идей приходило из человеческой литературы;
🟠38.2% - из собственного анализа;
🟠10.1% были оригинальными.
Но если посмотреть только на 106 SOTA-итогов, картина меняется. Доля идей, основанных на Analysis, возрастает с 38.2% до 44.8%, а доля Cognition немного снижается до 48.6%.
Таким образом, чтобы достичь ощутимых результатов, ИИ недостаточно просто копировать и комбинировать человеческие наработки. Он должен анализировать собственный опыт, учиться на своих же удачах и провалах, синтезируя более совершенные решения.
🟡Страница проекта
🟡Arxiv
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #Research #ASIARCH
✔️ Google запустила Opal, визуальный конструктор для создания и публикации ИИ-приложений.
Google Labs запустила публичную бета-версию инструмента Opal, в котором можно создавать простые ИИ-приложения без написания кода. Flowrise, make.com и n8n напряглись
Пользователь описывает желаемую цель тестом, после чего система автоматически генерирует визуальную блок-схему рабочего процесса, объединяя в цепочку промпты, ИИ-модели и внешние инструменты.
Схему можно гибко редактировать в drag-and-drop интерфейсе или с помощью дальнейших текстовых команд.
Готовые проекты публикуются как самостоятельные веб-приложения, привязанные к аккаунту Google, и ими можно сразу поделиться по ссылке.
В основе Opal лежат модели Gemini. Инструмент доступен пока только для пользователей в США.
@ai_machinelearning_big_data
#news #ai #ml
✔️ OpenAI анонсировала дату проведения DevDay.
OpenAI объявила, что ее следующая конференция для разработчиков, DevDay, состоится 6 октября 2025 года в Сан-Франциско. На мероприятии выступят Сэм Альтман и Грэг Брокман. DevDay традиционно становится площадкой для главных анонсов OpenAI, и в этом году разработчикам обещают ранний доступ к информации о будущих продуктах и технологиях.
Конференция планирует собрать более 1500 разработчиков. Регистрация на очное участие открыта в формате подачи заявок до 30 июля, а приглашения будут разосланы в середине августа. Стоимость участия составит 650 долларов. Для тех, кто не сможет присутствовать лично, будет организована прямая трансляция основной части мероприятия, а записи остальных сессий опубликуют позже.
openai.com
✔️ Proton представила Lumo: защищенный чат-бот с фокусом на приватность.
Швейцарская компания Proton, известная своим одноименным почтовым сервисом, выпустила автономного ИИ-ассистента Lumo. Чат-бот позиционируется как безопасная альтернатива продуктам от крупных технологических корпораций.
Lumo умеет обобщать документы, писать код, составлять черновики писем и отвечать на веб-запросы. Сервис работает исключительно на открытых языковых моделях, размещенных в собственных дата-центрах Proton в Европе. Вся переписка защищена сквозным шифрованием с "нулевым доступом", что не позволяет самой компании или третьим лицам читать и хранить сообщения.
Попробовать Lumo можно без регистрации через веб-клиент или мобильные приложения, но с ограничениями. Платная подписка Lumo Plus за $12.99 в месяц снимает лимиты на общение и позволяет загружать файлы большего размера.
proton.me
✔️ Google DeepMind Aeneas: открытая ИИ-система для восстановления латинских надписей.
Google DeepMind выпустила Aeneas, опенсорсный инструмент на базе ИИ, предназначенный для помощи историкам в работе с фрагментарными древними надписями. Система анализирует неполные транскрипции и изображения, после чего определяет вероятное место и дату происхождения текста, предлагает варианты недостающих слов и находит аналоги в корпусе известных надписей.
Модель, обученная на 200 000 каталогизированных текстов, является развитием более ранней системы Ithaca для греческого языка. В исследовании, опубликованном в Nature, Aeneas улучшил генерацию научных гипотез в 90% случаев, а его оценки происхождения и датировки совпали с консенсусом ученых.
Aeneas доступна бесплатно для ученых, преподавателей и сотрудников музеев.
theguardian.com
✔️ AWS закрывает свою ИИ-лабораторию в Шанхае.
Amazon Web Services объявила о закрытии своей исследовательской ИИ-лаборатории в Шанхае. В компании это решение назвали трудным, оно завершает семилетнюю историю работы центра, который занимался передовыми разработками в области машинного обучения. По словам одного из научных сотрудников, подразделение расформировывают из-за "стратегических корректировок на фоне напряженности между США и Китаем".
Лаборатория, открытая в 2018 году, была весьма продуктивной: на ее счету более 100 научных публикаций и создание популярной open-source библиотеки Deep Graph Library. В лучшие времена в ней работало более 1000 человек.
ft.com
✔️ Компания Марка Цукерберга разработала нейромоторный браслет, работающий без персональной калибровки.
Устройство, разработанное в Reality Labs представляет собой браслет, который считывает электрическую активность мышц предплечья (sEMG), напрямую декодируя двигательные намерения пользователя.
Главное достижение - разработка универсальной модели, обученной на данных тысяч людей. В отличие от аналогов, требующих длительной настройки под каждого человека, эта система работает из коробки, без предварительной калибровки под новых пользователей.
В тестах интерфейс продемонстрировал распознавание рукописного ввода со скоростью почти 21 слово в минуту, точное определение дискретных жестов (щипки, свайпы) и плавное управление курсором. При этом короткая персональная донастройка на данных конкретного пользователя может повысить точность еще на 16%.
nature.com
@ai_machinelearning_big_data
#news #ai #ml