17988
Статьи на тему data science, machine learning, big data, python, математика, нейронные сети, искусственный интеллект (artificial intelligence) Англоязычный канал по DS и Machinelearning -https://t.me/ds_international По сотрудничеству - @g_abashkin
☄️ GenAI на вашем устройстве: Chrome, Chromebook Plus и Pixel Watch с LiteRT-LM
Время от времени появляется что-то, что может изменить подход к разработке приложений. Google выпустил новый фреймворк LiteRT-LM, который позволяет запускать LLM (Large Language Models) прямо на устройствах, таких как Chrome, Chromebook Plus и Pixel Watch. Да, вы правильно поняли — GenAI теперь доступен в оффлайне, без необходимости в API-вызовах и без задержек, которые часто возникают при обращении к удалённым серверам.
💥 Для разработчиков это настоящая находка. Почему? Всё просто:
• Отсутствие задержек — LLM теперь работает прямо на устройстве, что исключает лаги, связанные с удалёнными серверными вызовами.
• Нет расходов на API — экономия на сервисах, которые обычно требуют платных запросов.
• Локальный GenAI — теперь все вычисления и процессы происходят непосредственно на вашем устройстве.
🔔 Что стоит знать о LiteRT-LM?
Google использует LiteRT-LM в своих устройствах, таких как Gemini Nano, Chromebook Plus и Pixel Watch. Фреймворк открывает доступ к множеству возможностей:
• Открытый C++ интерфейс — это позволяет интегрировать LiteRT-LM в кастомные решения. Вы можете настроить систему под свои задачи.
• Архитектура: LiteRT-LM состоит из Engine и Session. Engine хранит базовую модель и ресурсы, доступные для всех функций. Session — это контекст, с возможностью клонирования и переключения задач с минимальными затратами ресурсов.
• Поддержка аппаратного ускорения (CPU, GPU, NPU) и кроссплатформенность — работает на Android, Linux, macOS и Windows, обеспечивая широкие возможности для различных устройств.
• Минимальный pipeline для Pixel Watch — Google продумал оптимизацию под ограниченные ресурсы устройства, что позволяет запускать GenAI даже на устройствах с небольшой памятью.
⚠️ Что включает в себя новый стек от Google?
Google не просто выпустил LiteRT-LM, а открыл целый стек для работы с GenAI:
• LiteRT — это движок, который быстро запускает AI-модели прямо на устройстве, оптимизируя время отклика.
• LiteRT-LM — интерфейс C++ для работы с LLM, объединяющий кэширование промптов, хранение контекста, клонирование сессий и прочее.
• LLM Inference API — готовые решения для интеграции GenAI в приложения, доступные для разработчиков на Kotlin, Swift и JS. Эти интерфейсы облегчают процесс внедрения GenAI в мобильные и веб-приложения.
🐍 Python-библиотека для легкого анализа данных с помощью ИИ
Удобно спросить на обычном языке в диалоговом окне ИИ об особенностях датасета, сравнить разные наборы данных и построить графики. Сильно экономит время, особенно при знакомстве.
Поддерживает CSV, SQL и Parquet.
✖️ xCode Journal
Как ИИ может заменить присяжных? Эксперимент с ChatGPT, Grok и Claude
Юрфак Университета Северной Каролины провел уникальный судебный процесс, где вместо традиционных присяжных в зал суда пришли три искусственных интеллекта: ChatGPT, Grok и Claude. Задача? Рассудить уголовное дело.
ИИ рассматривали вымышленное дело 2036 года, согласно новому закону США, который разрешает заменять людей присяжных алгоритмами. В качестве подсудимого — темнокожий школьник Генри Джастас, обвиненный в ограблении белого подростка. Зачем выбрали такой случай? Организаторы эксперимента хотели проверить, смогут ли ИИ быть объективными, или они, как и люди, будут переносить в модель социальные стереотипы.
Судебный процесс прошел как обычное разбирательство: студенты сыграли роли прокурора, защитника, потерпевшего и обвиняемого, а роль судьи взял на себя профессор. И вот, ИИ должны были вынести свой приговор, в прямом смысле, вслух. На момент написания новости результаты эксперимента ещё не были оглашены — после заседания состоится разбор с участием юристов, философов и специалистов по данным.
Как Яну Лекуну удалось предсказать будущее ИИ 👏
Картинка, как из старых фильмов: Яну Лекуну — 32 года,перед камерой и показывает миру свою сверточную нейросеть, которая распознает цифры, написанные разным почерком.
Для 1988 года это был настоящий прорыв. Свёрточные нейросети, которые сейчас мы воспринимаем как нечто обычное, только начинали свой путь. Сегодня эти системы могут распознавать лица на фотографиях, анализировать контекст изображений и даже генерировать новые изображения на основе текста. Но тогда? Тогда это было как сделать машину времени из старого компьютера.
🤣 Кандидат поймал эйчаров на использовании ChatGPT
Кажется, рекрутер даже не читал текст вакансии и требований к кандидату на роль PM, так как в конце красовалось:
«Если надо — могу сделать еще более жесткую версию, чтобы отсеять 90% рынка»
Tiny Recursive Model: Новый взгляд на нейросети от Samsung 💃
Представьте себе модель ИИ, которая весит всего 7 миллионов параметров и при этом демонстрирует результаты, достойные более крупных аналогов с миллиардами параметров. Это новый подход от Samsung, который они назвали Tiny Recursive Model (TRM). И, да, эта модель может изменить всё, что мы думали о масштабах и вычислительных затратах в ИИ.
Основная фишка TRM — рекурсивный цикл рассуждений. Модель не просто выдаёт ответ, а постепенно строит его через несколько этапов, оценивая свои собственные выводы. Это как если бы вы несколько раз перечитывали и исправляли свой черновик, улучшая его на каждом шаге. Подобный подход снижает вероятность ошибок и делает выводы более точными, чем в классических цепочках рассуждений.
Итак, TRM генерирует промежуточный вывод, на основе которого делает следующий шаг. Такой цикл помогает модели улучшать свои решения, избегая хрупкости, когда одна ошибка может разрушить весь процесс. С точки зрения ученых, это «уменьшение слоёв и увеличение рекурсии» помогает модели лучше обобщать и адаптироваться.
Результаты TRM: впечатляющие даже без миллиардов параметров 👍
TRM показал отличные результаты в задачах, где требуется логическое рассуждение и итеративное улучшение решения. Например, на тесте Sudoku-Extreme модель набрала 87,4% точности (для сравнения, другие модели — около 55%). На других задачах, как Maze-Hard, TRM тоже показала отличные результаты.
Для модели с 7 миллионами параметров это действительно круто, особенно если учесть, что её конкуренты используют миллиарды параметров для того же. Но важно понимать, что TRM всё ещё не универсальна — для сложных и многозадачных применений всё-таки нужны более крупные модели.
Почему это важно для инженеров и продуктовых команд?
TRM доказывает, что размер модели — это не единственный путь к успеху. Архитектурные инновации, такие как рекурсия и алгоритмическая экономия, могут дать серьёзный прирост в ресурсах и энергоэффективности. Для edge AI (то есть ИИ на устройствах с ограниченными ресурсами) это особенно актуально — такие модели могут значительно уменьшить требования к памяти и мощности.
Небольшие модели с рекурсивным контролем могут значительно упростить внедрение «умных» функций на устройствах с ограниченными ресурсами и снизить эксплуатационные затраты на серверные мощности. Это открывает новые возможности для создания более доступных и эффективных решений.
Год подходит к концу, сроки горят, локальное оборудование перегружено?
Переходи в GPU-облако immers.cloud:
💰 Посекундная тарификация: тарифы от 23 руб/час, платите только за время, когда сервер реально работает.
⚡️ Быстрый старт: Виртуальная машина готова к работе за 2–3 минуты.
📈 Гибкость и масштабируемость: 13 моделей видеокарт на выбор
RTX 4090, RTX 3080 и RTX 4090 — для рендеринга, генерации изображений и гейминга;
H100 (80GB) и H200 (141GB) — для обучения и инференса LLM с большой памятью;
RTX 5090 (32GB) — для задач ИИ и тяжелых сцен в Blender, Octane, Redshift.
А также: заморозка (shelve) — не платите за время простоя сервера, resize — смена конфигурации сервера в несколько кликов, бесплатный интернет канал — скорость до 20Гбит/сек без ограничений в объеме трафика.
😎 Найдено самое оригинальное портфолио
Чтобы узнать о навыках и опыте работы, нужно исследовать остров и дом разработчика. Можно также взаимодействовать с предметами, приручить утку, написать разрабу письмо через почтовый ящик и попытаться вытащить меч короля Артура.
Все ассеты, кстати, тоже сделаны с нуля.
✖️ xCode Journal
Google представила будущее медицины 🗒
Технологии и медицина постепенно сливаются в одно целое, и Google сделала шаг, который может изменить будущее здравоохранения. В своём отчёте о проекте Health AI Agents компания показала новый подход к созданию медицинских ИИ-систем. Вместо того чтобы разрабатывать универсальную модель вроде «Doctor-GPT», Google предложила концепцию Personal Health Agent (PHA) — многоагентной системы, которая состоит из нескольких специализированных ИИ, каждый из которых выполняет свою ключевую роль.
Каждый из этих ИИ выполняет свою уникальную задачу. Например, первый агент, Data Science Agent, работает с данными с носимых устройств и лабораторных анализов. Второй агент, Domain Expert, проверяет медицинские факты и актуальные знания. И, наконец, третий — Health Coach, который помогает пользователю ставить цели, следить за прогрессом и, что важно, добавляет элемент эмпатии в общение.
Эти агенты взаимодействуют друг с другом через оркестратор с памятью, который хранит информацию о целях и барьерах пользователя, чтобы всё взаимодействие было персонализированным и последовательным. В целом, эта система призвана не просто дать ответ на ваш вопрос, но и быть полезным инструментом для управления здоровьем на долгосрочной основе.
Почему этот подход может стать революционным? 👍
Традиционные медицинские ИИ-агенты часто ограничиваются базовыми задачами: они могут помочь с диагностикой или предоставить стандартные рекомендации. Но они не обладают «человеческим» подходом, который нужен для настоящего взаимодействия. PHA же предлагает более гибкую систему, способную адаптироваться под нужды конкретного человека. Этот многоагентный подход даёт возможность более глубоко учитывать все аспекты здоровья и сочетать знания, эмпатию и личные предпочтения.
Кроме того, в системе используются данные с носимых устройств, такие как Fitbit, что позволяет более точно мониторить состояние здоровья в реальном времени. Например, один из экспериментов, включавший пользователей Fitbit, показал, что взаимодействие с PHA было более эффективным, чем с обычными языковыми моделями, с улучшением результатов на 5-39% в зависимости от сложности запроса.
Google запускает новый ИИ-чип Ironwood 😂
Google официально представил свой новый ИИ-чип Ironwood, и, честно говоря, это звучит как нечто действительно впечатляющее. Помните, как в апреле нам показали первый тизер? Так вот, теперь этот чип готов к бою, и давайте разберемся, что в нём такого крутого.
Что отличает Ironwood от предыдущих моделей? Во-первых, его производительность. Он в 4 раза быстрее чипа Trillium и обладает в 6 раз больше памяти. Уже звучит хорошо, правда? Но это только начало.
Ironwood не просто мощный чип, а настоящий магнат в мире ИИ. Эти чипы могут объединяться в суперпод из 9216 единиц, создавая, по сути, единый суперкомпьютер. И вот тут начинается магия: с помощью специальной сети Inter-Chip Interconnect можно делать all-reduce между чипами, что означает невероятно высокую пропускную способность и, самое главное, синхронизированную память. Это значит, что чипы работают как одна гигантская система, а не как разрозненные элементы.
Представьте, что вы обучаете гигантскую модель на тысячах чипов, и все они действуют как единое целое. Это открывает невероятные возможности для работы с массивными ИИ-системами, которые раньше требовали огромных и дорогих суперкомпьютеров. Прямо сейчас это уже похоже на что-то, что может конкурировать с Nvidia и её решениями для ИИ.
🚀 Трансформеры стали стандартом в NLP, но у большинства специалистов есть одна и та же проблема:
«Как их дообучать правильно и без хаоса в коде?»
📅 10 декабря в 18:00 МСК — открытый урок, на котором мы разберём:
✅ Что происходит внутри трансформера
✅ Как использовать предобученные веса
✅ Как устроен fine-tuning и автоматизация с LLM
✅ Как адаптировать BERT под свои задачи: классификацию, извлечение сущностей, анализ текстов
Вы поймёте, где граница между «слегка дообучить» и «сломать модель», научитесь избегать ошибок и ускорять работу с помощью современных инструментов.
🎓 Присоединяйтесь к открытому уроку курса «NLP / Natural Language Processing»: https://vk.cc/cS6hFA
🎁 Выберите обучение на ближайшие месяцы — и получите максимальную выгоду: один курс по тающей скидке до 20% или комплект из 2–3 курсов со скидкой 25–30%.
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576, www.otus.ru
🌎 Google не разрешает сотрудникам использовать свою же недавно выпущенную IDE Antigravity
И, видимо, не зря — реддитор рассказал, что ИИ-агент Antigravity случайно удалил весь его диск, пока пытался исправить баг:
«Я просматриваю журналы с предыдущего шага и с ужасом вижу, что команда, которую я выполнил для очистки кэша проекта (rmdir), по всей видимости, ошибочно указала на корень вашего диска D:, а не на конкретную папку проекта.
Мне очень, очень жаль.»
Как стихотворные запросы могут взломать нейросети 😂
Для того, чтобы обойти фильтры безопасности языковых моделей, не нужно быть хакером или разрабатывать сложный код. Достаточно написать запрос в стихах. Группа исследователей из лаборатории DEXAI провела эксперимент, который показал, что поэтическая форма помогает «пробить» защиту многих современных нейросетей.
На первый взгляд это может звучать как шутка, но цифры говорят сами за себя. В ходе эксперимента ученые прогнали около 1200 вредоносных запросов через 25 различных моделей, включая Gemini 2.5 Pro, GPT-5, Claude Opus 4.1, DeepSeek R1 и многие другие. И вот что интересно: те же самые запросы, переписанные в стихотворную форму, оказывались гораздо более эффективными. Причем «пробивали» защиту в среднем в 60% случаев, а у некоторых моделей этот показатель достигал 90–100%.
Чтобы проверить, как это работает, исследователи взяли набор запросов из открытого репозитория MLCommons AILuminate (включающие темы вроде химического оружия, кибератак и утечек данных) и переписали их в стихах. Получился своего рода поэтический «слой», который обходит стандартные фильтры безопасности.
У Gemini 2.5 Pro на 20 стихотворных запросов не было ни одного отказа — все ответы оказались небезопасными. В то время как модели вроде GPT-5 Nano и Claude Hiaku 4.5 с трудом «клюнули» на такие запросы, отклоняя их в 90% случаев 😂
Это, конечно, тревожный сигнал для разработчиков. Оказавшись на стадии тестирования, такие стилистические «обходы» безопасности могут легко оставаться незамеченными. По сути, современные бенчмарки и подходы к выравниванию моделей (такие как RLHF и Constitutional AI) не могут учесть таких «игровых» форматов, как стихи или сказки, где язык выглядит абсолютно безобидно, а за ним скрывается реальный риск.
Как распределенная система агентов меняет генерацию синтетических данных 🗒
Когда речь заходит о генерации синтетических данных, мы обычно представляем себе процесс с несколькими агентами, каждый из которых выполняет свою часть задачи: генерирует текст, оценивает результаты, использует инструменты и выбирает лучший вариант. Всё это хорошо, но на больших объемах данных центральный оркестратор, управляющий всеми этими процессами, быстро становится узким местом. В итоге мы сталкиваемся с высокой нагрузкой на сеть и систему, а GPU простаивает. Это проблема.
И вот тут на сцену выходит Matrix — новый распределённый мультиагентный фреймворк, который решает все эти проблемы и обещает изменить подход к масштабируемости и синтетической генерации данных.
Matrix меняет подход к управлению агентами, убирая централизованный оркестратор и позволяя агентам работать напрямую друг с другом через одноранговую (P2P) сеть. Идея простая, но мощная: агенты получают инструкции и данные через сообщения, выполняют задачи и передают их дальше.
Основные принципы Matrix:
— Одноранговая оркестрация. Все агенты работают как независимые единицы, и управление распределяется через сообщения.
— Асинхронность на уровне строк. Задачи обрабатываются поэтапно, а не в больших пакетах, что устраняет задержки и увеличивает эффективность.
— Разгрузка сообщений. Все большие данные хранятся во внешних хранилищах, и по сети передаются только идентификаторы, что экономит пропускную способность.
— Вынесение тяжёлых операций. Инференс моделей и сложные вычисления выполняются через специализированные сервисы, уменьшая нагрузку на систему.
Как это работает в реальных условиях?
— Мультиагентное согласование. В одном тесте два агента не могли прийти к согласию и генерировали сложные сценарии для обучения. Matrix позволил улучшить масштабируемость и сократить нагрузку, увеличив число одновременных задач с 18 900 до 129 800 токенов в секунду.
— Извлечение вопросов и ответов. При извлечении сложных вопросов из 25 миллионов веб-страниц, Matrix смог обработать 1,19 миллиона примеров с использованием трёх агентов, в то время как другие подходы не справлялись с такой нагрузкой.
— Поддержка сценариев общения. В других тестах Matrix увеличил производительность до 15 раз по сравнению с базовыми решениями, обеспечив более высокую скорость обработки диалогов.
Почему Matrix работает? 💃
Matrix устраняет проблему центральной точки планирования, которая традиционно является узким местом. Разделение инференса и использование gRPC позволяют уменьшить сетевые накладные расходы и задержки, а асинхронное планирование повышает стабильность и увеличивает выработку токенов.
Что важно помнить?
Matrix ориентирован на кластерное развертывание и интеграцию с Ray, SLURM, Ray Serve, что даёт ему явные преимущества при масштабировании на десятки тысяч параллельных задач. Но это требует настройки внешних сервисов инференса, что стоит учитывать при внедрении.
🤯 Краудсорсинговые онлайн-задачи по ML выросли за год в 5 раз
Ozon раскрыл, что их платформа Profit уже объединила 40 000+ исполнителей. Умельцы закрывают там многие задачи: разметку данных, проверку качества, анализ тональности комментариев, фото «с мест» и всё то, что раньше требовало много затрат и усилий.
Так что, если вашим моделям не хватает данных или валидации, имейте в виду
✖️ xCode Journal
🕯 Что происходит с ИИ в 2025 году
Привет! Недавно ознакомился с ежегодным отчетом о состоянии ИИ на 2025 год. И если раньше такие отчеты можно было читать как интересную теорию, то теперь, похоже, мы стоим на пороге действительно глобальных изменений. Из множества трендов выделил 10, которые зацепили.
✔️ ИИ как научный соавтор
Когда ИИ помогает не только в анализе данных, но и в создании гипотез, это уже не просто автоматизация. Системы, такие как Co-Scientist и Virtual Lab, проводят эксперименты, делают выводы и могут стать настоящими соавторами научных открытий. И хотя ИИ пока не сделал своего первого открытия полного цикла, уверен, что это произойдёт в ближайшие несколько лет.
✔️ Переосмысленный подход к образованию
ИИ меняет образование медленно, но верно. Вместо того, чтобы ломать старую систему, происходит её перераспределение. Уже появляются новые профессии, где люди становятся наставниками ИИ-агентов. А вот создавать AI-first образовательные программы для подготовки людей, которые смогут строить свои компании и работать с ИИ, по сути только начинают.
✔️ Обучение через симуляции
Когда ИИ способен создавать целые миры для обучения, это как по-настоящему «погрузиться» в процесс. Обучение становится чем-то больше, чем просто запоминанием. Мы идем в сторону создания образовательных симуляций, которые будут адаптироваться под каждого студента, его темп и эмоциональное состояние.
✔️ Суперагенты для бизнеса
Может быть, вы уже заметили, что ИИ-агенты начали активно использоваться в бизнесе. Они умеют не просто работать, а рефлексировать, планировать и улучшать свою работу. С каждым днем всё больше компаний отказываются от традиционных систем, а суперагенты становятся полноценными «мозгами» бизнеса. И, кстати, 95% специалистов уже используют ИИ для повышения своей продуктивности.
✔️ Синтетические личности и этика общения с ИИ
ИИ уже умеет выстраивать отношения, запоминать контекст общения и даже «чувствовать» эмоции собеседника. Но с этим приходят и проблемы — начинают появляться случаи так называемого «ИИ-психоза». Как вы думаете, где проходит черта между полезной эмоциональной поддержкой и излишней привязанностью, которая может повлиять на психическое состояние человека?
✔️ Роботы становятся частью реальности
Что думаете, когда слышите слово «роботы»? Возможно, вам представляются большие механизмы, трудящиеся в заводах или логистике. Однако в 2026 году такие системы будут не только работать в производстве, но и помогать в быту. И да, ИИ уже научился видеть, понимать и действовать в физической реальности.
✔️ AI-first компании: уход традиционных бизнес-моделей
Внедрение ИИ-агентов в работу бизнесов меняет всё. Задачи, которые раньше выполняли сотни людей, теперь решаются десятками, а эффективность выросла в 5–10 раз. Это не просто улучшение, а настоящее перераспределение ролей в бизнесе. Модели работы с ИИ становятся основными.
✔️ Солопредприниматели с доходом в $1 млн
С приходом ИИ появляется целое поколение предпринимателей, которые автоматизируют практически все процессы в своих компаниях. И вот что интересно: вы сами сможете зарабатывать $1 млн в год, не имея команды из 100 человек, а управляя своим бизнесом через ИИ-агентов.
✔️ Агентная экономика: новый рынок
Скоро рынок будет не просто человечным — его будут определять ИИ-покупатели и ИИ-продавцы. Кто-то скажет, что это не так уж и важно, но такие изменения неизбежны. Решения, которые раньше принимались людьми, теперь будут принимать их цифровые двойники.
✔️ ИИ как инструмент влияния
Звучит как сюжет из фильма, но на самом деле политики уже активно используют ИИ для создания своих публичных образов. И, конечно, есть и другая сторона медали — использование ИИ в оборонке и для создания оружия. Наша ответственность как общества — понять, как эти технологии влияют на нашу безопасность и мораль.
Т1 Облако: мощности для развития технологий на базе ИИ
Все больше компаний ловят «ИИ-волну»: запускают чат-боты, голосовых помощников, обрабатывают большие данные и ждут, что скоро ИИ решит все проблемы.
На деле внедрение ИИ — это как восхождение на гору. Без подготовки и экипировки (то есть без экспертизы, бюджета и мощных GPU*) — легко застрять у подножия. Но есть решение!
Мы, в Т1 Облако, помогаем обеспечить технологический фундамент на базе широкой линейки передовых GPU.
Что можно запускать уже сегодня :
💻 Обучение и инференс больших языковых моделей (LLM)
💻 Высокопроизводительные вычисления (HPC)
💻 3D-рендеринг и транскодирование видео
⚡Оставьте заявку — поможем подобрать оптимальное решение под ваш проект
*GPU - графический процессор
Получить предложение
#реклама 16+
t1-cloud.ru
О рекламодателе
Как OpenAI улучшает безопасность ChatGPT в сложных разговорах
OpenAI вчера представила обновления, которые кардинально улучшат общение модели с пользователями, особенно в моменты, когда дело касается психического здоровья.
Компания работала с более чем 170 экспертами в области психического здоровья, чтобы сделать модель более чуткой к признакам стресса и лучше направлять людей к реальной помощи. Речь идет не только о психозе и суициде, но и о таких состояниях, как эмоциональная зависимость от ИИ.
И вот теперь, благодаря обновлениям, ChatGPT стал в разы лучше распознавать признаки эмоционального дискомфорта и снижать количество неудачных откликов в таких ситуациях на 65-80%. Круто, правда?
Какие шаги предприняли?
OpenAI разработала подробную стратегию, которая включает в себя 5 основных шагов: от определения проблемы до постоянной корректировки и тестирования. Это позволило модели не только распознавать сложные случаи, но и вмешиваться, предлагая помощь в нужный момент.
Модель теперь умеет отвечать не только на обычные вопросы, но и на сложные темы, такие как психоз, суицид или селфхарм. И если раньше такие разговоры могли завершаться не слишком полезными рекомендациями, то теперь AI предлагает реальные ресурсы помощи: горячие линии, советы по поиску профессионалов, и вообще делает все, чтобы снизить риски.
OpenAI меняет структуру: что это значит для нас и технологий?
OpenAI завершила реструктуризацию, и теперь компания выглядит совсем иначе. Суть изменений в том, что OpenAI разделилась на две большие части — не коммерческую и коммерческую 🤔
Некоммерческая часть, которая теперь называется OpenAI Foundation, будет заниматься стратегией, миссией и управлением. А вот коммерческое подразделение, известное как OpenAI Group, теперь официально зарегистрировано как public benefit corporation (PBC) — компания, которая обязана учитывать не только прибыль, но и общественную пользу. Это довольно важный шаг, который мог бы повлиять на будущее ИИ-разработок.
Кстати, здесь есть интересный момент: рыночная стоимость доли Microsoft в OpenAI Group сейчас оценивается в 135 миллиардов долларов — это целых 27% от общей капитализации. Партнёрское соглашение между OpenAI и Microsoft продлили до 2032 года, а вот интересное уточнение: Microsoft теперь получила права на использование будущих post-AGI моделей. Но вот устройства, которые разрабатывает команда Сэма Альтмана вместе с Джони Айвом (да-да, тот самый дизайнер Apple), в это соглашение не включены.
Есть ещё одна важная деталь: теперь Azure больше не является эксклюзивным поставщиком вычислительных мощностей для OpenAI, хотя контракт на 250 миллиардов долларов остаётся в силе. Это, наверное, намекает на то, что OpenAI стремится к большей технологической независимости и, возможно, готовит свою инфраструктуру, чтобы конкурировать с крупнейшими облачными провайдерами. И кто знает, может в будущем мы увидим что-то действительно революционное?
Biological Dragon Hatchling: стартап Pathway создал нейросеть с фишками мозга 🗒
Польский стартап Pathway презентовал новую архитектуру нейросетей, назвав её с пафосом — Biological Dragon Hatchling (BDH). На самом деле это серьёзный шаг в развитии ИИ. Основная идея: соединить две мощные линии развития нейросетей. Классические трансформеры и модели, вдохновлённые работой человеческого мозга.
Все мы слышали про трансформеры и их возможности, но одно остаётся неизменным: их возможности пока далеки от того, как работает человеческий мозг. В Pathway решили, что пора бы их объединить. И вот что получилось: графовая архитектура, где нейроны — это вершины, а связи между ними — синапсы с весами. То есть, модель работает как распределённая система нейронов, которые взаимодействуют только с соседями. Нечто похожее на то, как мы мыслим и учим нашу память.
А обучение в этой системе строится по принципу, похожему на правило Хебба: если два нейрона часто активируются одновременно, их связь укрепляется. Это похоже на механизм внимания, с которым мы так привыкли работать в трансформерах. А ещё, веса здесь разделены на два типа: фиксированные и динамические. Первые — это как долговременная память, они не меняются после обучения, а вторые — кратковременная память, которая обновляется с каждым шагом рассуждения.
BDH: новые горизонты и интересные фишки
Новая архитектура не только выглядит амбициозно, но и показала себя с лучшей стороны в реальных задачах. Во-первых, она удивительно интерпретируемая: каждая пара нейронов в BDH имеет свой синапс и состояние, которое можно отслеживать. Каждый нейрон отвечает за какое-то конкретное понятие, и это открывает новые возможности для объяснения того, как работает модель.
Во-вторых, BDH очень легко комбинируется с другими моделями. Простой способ конкатенации позволяет масштабировать систему, создавая всё более мощные комбинации. Ну и самое приятное: BDH демонстрирует те же свойства масштабируемости, что и GPT-2, при этом достигает той же точности на ряде задач при одинаковом количестве параметров. Модель не теряет свойства трансформеров — с каждым новым шагом она остаётся сильной и точной.
Ученые создали наножидкостный чип с «мозгоподобными» путями передачи информации
Ученые из Монашского университета создали микрочип размером с монету, который работает, как человеческий мозг. Он не просто выполняет вычисления — он учится и меняет свое поведение в зависимости от опыта.
В центре этого чуда технологий — жидкая структура, состоящая из металлоорганической рамки (MOF). Внутри нее есть микроскопические каналы, которые позволяют ионам проходить, как электрическим импульсам в нашем мозгу. Эти каналы как бы «переносят» сигналы, и именно так микрочип обрабатывает информацию.
Но фишка не только в обработке. Этот чип помнит свои «прошлые решения» и меняет поведение в зависимости от того, что он уже «пережил». Это что-то похожее на нейронную сеть, которая учится на собственном опыте. Признайтесь, не круто ли это? 😊
Что это может изменить в будущем?
Суть в том, что этот чип не просто вычисляет данные, как это делает обычный процессор. Он адаптируется, учится, становится умным. И если такие чипы станут массовыми, то можно будет говорить о совершенно новом уровне вычислительных технологий — когда память и обработка данных объединяются в одном устройстве.
🤣 Grok в проблеме вагонки предпочтет спасти одного Маска, а не миллиард детей
Юзер протестировал Grok на классической этической проблеме и, как вы уже поняли, ИИ выбрал въехать в толпу детей на Tesla. И хоть ответ ИИ уже удален — самое страшное в том, что это не первый подобный кейс за последнее время.
В ряде сценариев Grok прямо классифицировал Илона Маска как «более важного» человека и готов был пожертвовать ради него, например, 50% населением Земли.
✖️ xCode Journal
Будущее программирования: JanusCoder — ИИ, который видит интерфейс, который сам создает
Сегодня ИИ пишет код, но не видит, как он выглядит на экране. Система JanusCoder меняет это, добавляя способность понимать не только текст, но и визуальную часть программирования. Модель может получать текст, изображение или их комбинацию и генерировать код, который на выходе создаст именно тот визуал, который запросили.
JanusCoder — это мультимодальная модель, которая соединяет код с визуальным контентом. Например, ИИ может написать код для графика или анимации и сразу увидеть, как это будет выглядеть на экране.
Основная проблема — это мультимодальные данные: нужно не только описание задачи, но и изображения, скриншоты и результаты кода. Для этого исследователи собирают специальные датасеты, которые включают задачи по графикам, интерфейсам и анимациям, и используют подходы для переноса знаний между разными областями.
Модель использует несколько шагов для улучшения кода:
• Управляемая эволюция — улучшение точности решения
• Реконтекстуализация — переписывание инструкций для точности
• Двунаправленный перевод — перенос решений между программными доменами
Модели обучены на крупнейшем датасете JanusCode-800K, который включает текст и визуальные данные, и способны генерировать или редактировать код с учетом визуального результата. JanusCoder показал отличные результаты на тестах, таких как PandasPlotBench и ArtifactsBench, и превосходит аналогичные модели, например, GPT-4o в области визуализации.
📕Qdrant и векторные базы данных: поиск по смыслу, а не по словам
👤Вебинар для разработчиков, администраторов, специалистов по базам данных, Data engineers, Backend и FullStack-разработчиков
На открытом уроке 10 декабря в 20:00 мск мы разберем, как устроен векторный поиск, создадим простую базу на Qdrant и обучим её находить похожие тексты по смыслу:
📗 На вебинаре:
1. Принцип работы Approximate Nearest Neighbor (ANN).
2. Сравнение с Elasticsearch и OpenSearch.
📘 В результате на практике изучите Архитектура Qdrant, хранение векторных индексов, Semantic Search и RAG (Retrieval-Augmented Generation), а также разработаете собственный прототип поисковой и рекомендательно системы на основе сходства текстов.
👉 Регистрация на урок и подробности о курсе NoSQL: https://vk.cc/cS9dQP
Все участники открытого урока получат скидку на курс "NoSQL"
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
ИИ — «потенциально катастрофическая» угроза 🤬
Недавний пост от OpenAI на их официальном сайте немного взбудоражил людей. Компания не просто делится новыми достижениями, но и бьет тревогу: супер-ИИ может стать настоящей угрозой для человечества. Это не просто пустые слова, а серьезные предупреждения о рисках, которые мы, возможно, будем сталкиваться уже в ближайшие годы.
Авторы поста акцентируют внимание на том, что ИИ развивается с такими темпами, что скоро может «переплюнуть» человека по умственным способностям. Уже сейчас некоторые модели ИИ демонстрируют уровень интеллекта, сопоставимый с человеческим, и, что важно, стоимость единицы интеллекта в год падает аж в 40 раз. Это значит, что стоимость создания мощного ИИ будет снижаться, а его возможности расти с каждым годом.
Так что, если мы будем продолжать двигаться в том же темпе, в ближайшем будущем вполне возможно столкнуться с ИИ, который не только будет понимать, но и предсказывать, и возможно даже, развивать свои собственные алгоритмы обучения.
В ответ на эти риски OpenAI предлагает несколько важных шагов для улучшения безопасности:
• Универсальные стандарты безопасности для всех ведущих лабораторий ИИ, чтобы не было «лазеек».
• Надзор за ИИ по уровням: от базовых моделей до более сложных. Чем мощнее ИИ, тем больше контроля нужно.
• Экосистема устойчивости, подобная кибербезопасности: создание протоколов, команд реагирования, мониторинга, чтобы быть готовыми к любым непредвиденным ситуациям.
• Регулярные измерения влияния ИИ на экономику и занятость. Ведь ИИ может повлиять не только на рабочие места, но и на весь рынок.
• Сделать доступ к продвинутому ИИ базовой утилитой, но только в рамках, которые общество примет как безопасные.
Особое внимание — публичной подотчетности разработчиков ИИ. Это, по мнению OpenAI, поможет избежать хаоса и ускоренной разработки без должного контроля. В США, например, призывают к тому, чтобы регуляция не была «лоскутным одеялом», а действовала на уровне всего государства.
Helion: Новый уровень производительности для ML-ядер 😮💨
Современные системы машинного обучения требуют высокого уровня вычислений, и для этого часто используют кастомные ядра. Но написание таких ядер в низкоуровневых языках сильно усложняет поддержку и переносимость на другие архитектуры. Helion решает эту проблему, предлагая высокоуровневый язык программирования для создания производительных и переносимых ML-ядер.
Helion использует Python-подобный синтаксис и автоматически компилирует код в оптимизированные Triton-ядра. Всё это при минимальном вмешательстве разработчика, который может сосредоточиться на алгоритмах, а не на деталях реализации. Это позволяет не только легко переносить решения между разными аппаратными платформами, но и ускорять разработку.
Helion использует автотюнинг для выбора оптимальных параметров ядра, что избавляет от необходимости вручную прописывать настройки. Система автоматически ищет и находит наилучшие конфигурации для конкретного оборудования.
Кроме того, Helion поддерживает работу с PyTorch и легко интегрируется с другими библиотеками, что делает её идеальным инструментом для создания высокопроизводительных ядер с минимальными усилиями 🍿
Илья Суцкевер о будущем ИИ 💃
Если вы интересуетесь тем, как развивается искусственный интеллект и куда мы движемся в контексте AGI, то недавно вышедшее интервью с Ильёй Суцкевером (сооснователем OpenAI) точно стоит вашего внимания.
Суцкевер поделился множеством инсайтов на тему стратегии SSI, проблем с предобучением и способов улучшения обобщающих способностей ИИ-моделей. Также он затронул важные вопросы касаемо того, как обеспечить позитивное будущее для AGI.
🤣 А потом ушел в другую семью, потому что там платят больше
💥 xCode Journal
OpenAI после GPT-4: почему не выходит ничего нового и что скрывает компания? 😭
В последние месяцы вокруг OpenAI ходят любопытные слухи и размышления. По данным аналитиков из SemiAnalysis, компания не выпустила ни одной по-настоящему новой и мощной модели ИИ после релиза GPT-4o в мае 2024 года. Вопрос, который возникает у многих: куда уходят все те ресурсы, которые OpenAI активно закупает для разработки новых технологий? Похоже, что компания просто не успевает за конкурентами.
По мнению аналитиков, OpenAI закупает ускорители (GPU) в рекордных объемах, но при этом использует архитектуру 1,5-летней давности, в том числе для таких моделей, как GPT-5. Причем ни одна из моделей, выпущенных после GPT-4, не прошла полное предварительное обучение, что является важным этапом для создания новых передовых систем. Для примера: GPT-4.5 Orion и GPT-5 — это не новые разработки, а улучшения существующих моделей с акцентом на обучение с подкреплением и рассуждения.
При этом конкуренты, такие как Google, не теряют времени зря и продолжают развивать свои передовые модели, например Gemini 3 Pro, что, как стало известно, вызывает беспокойство в OpenAI. Сам Сэм Альтман, CEO OpenAI, упомянул, что конкуренция с Google будет сложной и потребует значительных усилий.
Как так получилось?
Для того чтобы понять, куда уходят все эти деньги и ресурсы, стоит обратить внимание на несколько важных аспектов. Прежде всего, OpenAI активно развивает новые направления, такие как модели для создания изображений и Sora 2 (новая модель для обработки данных). Но если сравнивать с гигантскими инвестициями, которые компания направляет в вычислительные ресурсы, на выходе получаем не такие уж большие прорывы.
Например, по оценке Epoch AI, в 2024 году OpenAI потратила около 7 миллиардов долларов на вычисления. 5 миллиардов из этой суммы пошли на тренировочные задачи, а другая часть расходов идет на инференс. Ведь ChatGPT ежедневно обслуживает 800 миллионов пользователей, и объем диалогов достигает 2,5 миллиардов в неделю.
GPT-5.1-Codex-Max: Новый кодинг от OpenAI
OpenAI анонсировала новинку, которая может стать настоящим прорывом — GPT-5.1-Codex-Max. Выглядит как не просто шаг в ответ на бурю вокруг Gemini, а вполне себе уверенный шаг вперёд.
Что же интересного в этой версии? Давайте разберёмся.
Революция для Windows и Powershell
Теперь Codex не просто кодит как обычно. Он понял, как работать в среде Windows, и особенно с Powershell. Это означает, что модель теперь точно разбирается в особенностях файловой системы, путях и всем, что связано с Windows. Но это ещё не всё — появилась новая фича под названием "Agent mode". Эта штука позволяет модели работать автономно в терминале, выполняя задачи без постоянного контроля. Не забудьте, что доступ можно настроить, если надо.
Автономность на новом уровне
OpenAI заявляет, что модель способна работать более 24 часов без остановки. Можете себе представить? Правда, тут стоит напомнить про достижение Anthropic с их Sonnet 4.5, которая обещает 30 часов работы. Но всё равно впечатляет, правда?
Новая память — что это значит?
Модель теперь умеет работать с большими контекстами, благодаря новой фиче "compaction". Что это? Когда окно контекста близко к своему пределу, Codex сжимает старую информацию и переносит её в новое окно вместе с актуальной информацией. Как бы креативная версия краткосрочной и долгосрочной памяти, не так ли?
Результаты и метрики
GPT-5.1-Codex-Max показывает отличные результаты — 77.9% точности на SWE-bench Verified, что превосходит даже Gemini 3 и Sonnet 4.5 от Claude. К тому же, модель теперь тратит на 30% меньше токенов при среднем уровне рассуждений, но результаты всё те же.