ai_newz | Unsorted

Telegram-канал ai_newz - эйай ньюз

24080

Культурно освещаю самые и не самые важные новости из мира AI, и облагораживаю их своим авторитетным профессиональным мнением. Чуть выше уборщика в элитной AI Research организации в одной из FAANG компаний. Aвтор: @asanakoy

Subscribe to a channel

эйай ньюз

Интро в Трансформеры для чайников

3Blue1Brown, популярный математический ютубер, начал выпускать серию видео о том, как работает трансформер. Первое видео посвящено эмбеддингам и тому, как моделька определяет, какой токен ей выдать. Вышло лучшее объяснение темы "для чайников", с анимациями и довольно простым языком. Обещает ещё две части: одну посвящённую Attention, другую MLP.

Если после просмотра возникнет желание погрузиться в детали:
- У Андрея Карпатого есть видео где он имплементирует и объясняет как саму GPT, так и её токенизатор.
- Лекция Интро в большие языковые модели (LLM), тоже от Карпатого.

#ликбез
@ai_newz

Читать полностью…

эйай ньюз

Gaussian Head Avatar:
Ultra High-fidelity Head Avatar via Dynamic Gaussians

Зацените, на что сейчас творят на Гауссовских Сплатах и нейронном рендеринге. Гипер-реалистичные контролируемые 3д аватары в 2k разрешении!

Интуитивное объяснение "Что Такое Гауссовские сплаты" я делал в этом посте.

Чтобы создать такой аватар нужно от 8 до 16 камер в 2к, одновременно снимающих лицо спереди, равномерно расположенных в секторе размером 120 градусов.

По поводу latency и скорости во время инференса в статье нет никих упоминаний. Подозреваю, что работает далеко не real-time, иначе бы об этом заявили еще в заголовке статьи.

Но результаты все равно качественные!

Сайт проекта
Код

@ai_newz

Читать полностью…

эйай ньюз

Как на изи создать музыкальный трек с клипом (Suno v3)

Вот еще примерчик из твиттора, сгенерированный Suno v3.

Промпт: a viking metal song | valhalla atmosphere | thrash epic metal | epic bass and drums | valkyrie chords

Клип: Midjourney для генерации ключевых кадров + Gen-2 от Runway для их анимации.

Изи! 😃

Ссылка на туториал по Suno v3.

@ai_newz

Читать полностью…

эйай ньюз

На этой неделе всплыло две заметных истории на стыке AI и крипты, хороший повод напомнить, что они связаны сильнее чем кажется.

Виталик Бутерин (основатель Ethereum), как оказалось, ещё в 2021 году, задонатил мемкоинов Shiba Inu в Future of Life Institute (FLI) – это авторы петиции о запрете тренировки моделей умнее GPT-4, они же добились ряда ужесточающих правок в недавний Европейский AI Act.

Сам Виталик на тот момент думал, что вывести они смогут всего пару десятков лямов, но его подарок оказался ГОРАЗДО дороже - астрономические, для think tank-ов, 665 миллионов долларов. Это нарушило баланс настолько сильно, что Виталик уже пообещал исправить ситуацию и закинуть монет pro-акселерационистам (тем, кто топит за быстрейшее развити AI). Между тем свои деньги FLI едва ли начал тратить – так что ждите куда больше призывов запретить AI в ближайшем времени.

Другая заметная криптоиистория на этой неделе – про бывшую ранее криптобиржей, а сейчас возвращающую деньги вкладчикам, FTX. Обанкротившаяся биржа продала 2/3 своей доли в Anthropic за $884 миллиона, это стало известно из документов суда. FTX приобрела в 2021 году 8% Anthropic за $500 лямов, в обычной ситуации это считалось бы удачной инвестицией, но, как и многие другие операции FTX, это было сделано за деньги со счетов клиентов, что незаконно. За это их и судят (основатель уже сидит свой срок в 25 лет). Из хороших новостей - с продажи этих акций планируется вернуть деньги вкладчикам.

Обе эти истории начались ещё до глобального AI бума, который начался с выхода ChatGPT в декабре 2022 (пост). А в прошлом году, посмотрев на низкую цену биткоина и почуяв денежный зхапах от хайпа вокруг ChatGPT, куча криптобро резко переобулись и стали AI-интузиастами. Так что криптоденьги точно всплывут где-то ещё и в большем масштабе. Интересно где?

@ai_newz

Читать полностью…

эйай ньюз

Неродайджест за неделю (#10)

Я решил возобновить рубрику нейродайджестов (последний раз они были в 2023), думаю будет полезно. Тут будет выжимка всех основных постов за неделю со ссылками.

1. Новости AI и Big Tech
- Open Grok от XAI: новая модель с 314B параметров, и код доступен на GitHub. Полностью открыта, все веса на гихабе и никакой цензуры!
- Зарплаты в Big Tech vs. академия, GPU для народа: Washington Post осознали, что BigTech значительно превосходит академическую сферу по уровню зарплат.
- Apple готовится залететь в AI с двух ног, и покупает Darwin AI для ускорения и уменьшения AI моделей. А так же, ведет переговоры с Google. Это шаг к использованию LLM локально на устройствах.

2. Разработки и инновации
- Новые GPU от Nvidia: Blackwell B200 и GB200 "суперчип", ускоряющие AI тренировки и снижающие энергопотребление.
- ChatGPT момент для роботов может быть уже за углом: что нового Nvidia делает в робототехнике.
- Робот-Гуманоид EVE от норвежского стартапа 1X получил в качестве мозга одну большую модель, которая помогает ему выполнять разные задачи - это шаг к генерализации.
- Stable Video 3D от Stability: созданию 3D меша из одного изображения с помощью видео-дифуузии.

3. Обновления
- Google Gemini 1.5 Pro теперь доступен для всех, позволяя анализировать видео и файлы с 1M токенами контекста.
- Ожидается ChatGPT-5 этим летом, обещая значительные улучшения и новые возможности для пользователей и разработчиков.

4. Перспективы и предсказания
- BitNet 1.58 от Microsoft обещает оптимизировать тренировку моделей, делая процесс в РАЗЫ быстрее и энергоэффективнее.
- SD3-Turbo: пейпер обещает prompt alignment и даже красоту лучше чем у миджорни за 4 шага диффузии.

5. Закулисье и инсайды
- Microsoft переманил к себе ⅔ основателей Inflection AI. Не понятно что теперь будет со стартапом.
- Stability ai: CEO и ключевые сотрудники ушли из компании. Стабилити - всё? Надеюсь, хоть SD3 заопенсорсят.
- История Bloomberg о том, как они свой BloombergGPT тренировали, и почему так делать не стоит.

#Дайджест
@ai_newz

Читать полностью…

эйай ньюз

Увидел в ethan_mollick/post/C46AfItO8RS">Threads анекдот: Bloomberg потратил ~$10 миллионов (в AWS SageMaker) на тренировку BloombergGPT (50B параметров на 700B токенов), специально для финансовых задач. Иииии.... модель всухую проиграла на этих же финансовых тасках GPT-4, которая вышла за две недели до этого.

И тут всё было бы очевидно: "нужно сдаваться GPT-4". Если бы не одна маленькая деталь — GPT-4 в свою очередь либо проигрывала либо еле-еле перегоняла (используя Chain of Thoughts) специализированные файнтюны таких динозавров как BERT (2018, 110 лямов параметров) и RoBERTa Large (2019, ~700 млн параметров).

Мораль басни такова: если вы не лидер AI гонки, то не соревнуйтесь с OpenAI в общих задачах, это дорого и трудно. Но если есть прямые руки и конкретный таск — перегнать даже SOTA general purpose модель вполне возможно. А, и ещё: тренировать в AWS безумно дорого 😂

@ai_newz

Читать полностью…

эйай ньюз

Кажется, Stability.ai себя не очень хорошо чувствует как компания (нестабильно).

Сегодня Эмад ушел с поста CEO и из совета директоров, а ранее на этой неделе уволились ключевые авторы Stable Diffusion. Думаю, парни просто организуют что-то новое, а Стабилити как компания скоро может перестать существовать.

@ai_newz

Читать полностью…

эйай ньюз

⚡️SD3-Turbo: Fast High-Resolution Image Synthesis with Latent Adversarial Diffusion Distillation

Вслед за Stable Diffusion 3 мои друзья опуликовали препринт о дистилляции SD3 в 4-шага, сохраняя качество.

Новый метод - Latent Adversarial Diffusion Distillation (LADD), который похож на ADD (был пост про него), но с рядом отличий:

↪️ И учитель и студент тут на архитектуре SD3 на базе трансформеров. Самая большая и самая лучшая модель - 8B параметров.

↪️ Вместо DINOv2 дискриминатора, работающего на RGB пикселях, в этой статье предлагают всеже вернуться к дискриминатору в latent space, чтобы работало быстрее и жрало меньше памяти.

↪️ В качестве дискриминатора берут копию учителя (то есть дискриминатор тренировался не дискриминативно, как в случае DINO, а генеративно). После каждого attention блока добавляют голову дискриминатора с 2D conv слоями, классифицирующую real/fake. Таким образом дискриминатор смотрит не только на финалный результат, но и на все промежуточные фичи, что усиливает тренировочный сигнал.

↪️ Тренят на картинках с разным aspect ratio, а не только на квадратах 1:1.

↪️Убрали  L2 reconstruction loss между выходами Учителя и Студента. Говорят, что тупо дискриминатора достаточно, если умно выбрать распределение семплирования шагов t.

↪️ Во время трейна более часто сеплируют t с большим шумом, чтобы студент лучше учился генерить глобальную структуру объектов.

↪️ Дистиллируют на синтетических данных, которые сгенерил учитель, а не на фото из датасета, как это было в ADD.

Еще из прикольного показали, что DPO-LoRA тюнинг хорошо так добрасывает в качество генераций студента.

Итого, получаем SD3-Turbo модель, которая за 4 шага выдает красивые картинки. Судя по небольшому Human Eval, который авторы провели всего на 128 промптах, по image quality студент сравним с учителем. А вот prompt alignment у студента хромает, что в целом ожидаемо.

Ещё показали, что SD3-Turbo лучше чем Midjourney 6 и по качеству и по prompt alignment, что удивляет 🫥. Ждем веса, чтобы провести reality check!

Статья

@ai_newz

Читать полностью…

эйай ньюз

🤖Продолжая разговор о гуманоидах: EVE от 1X

Только Nvidia представила свое будущее с блэкджеком и роботами, так оно уже стоит у нас на пороге.
Если честно, пока я смотрел видос про EVE, мой мозг представлял имнно человека в трикошках вместо робота.

Создан этот робот Норвежским стартапом 1X BET, который занимается разработкой андроидов для индустрии и для дома. В 22м году 1X запартнерились с OpenAi, а в начале этого года зарейзили еще $100м в series B.

Раньше под капотом EVE был огромный набор моделей затюненых под определённые задачи, которые включаются по ситуации.

1. Базовая модель для понимания физического мира и каких-то простых задач, типа передвижения предметов.
2. Чуть более узконаправленная модель. Например, для открывания дверей – ведь это одна из самых сложных задач с которой ботам приходится сталкиваться.
3. И еще более специфичная модель для того чтобы успешно дергать за ручку именно этой двери!

И вот недавно все эти модели объединили в одну большую универсальную e2e модель – так что теперь она может всё:)

Бот по голосовой команде может выполнять широкий спектр задач от уже упомянутой двери до уборки разбросанных вещей и складывания футболок в стопку. Кривовато, конечно, но как можно осуждать ребенка. Он ведь еще учится!

Как по мне, то Eve все еще очень медлительный. Забавно, что в названии компании 1X как раз подчеркивается, что они не ускоряют свои демо-видео, как это делают другие производители роботов, а проигнывают все на скорочти 1x.

Разрабы утверждают, что могут научить свое детище новому скилу за пару минут! А затем робот будет самосовершенствоваться, оптимизируя процесс самостоятельно. (По крайней мере так говорит рекламка)

Eve уже можно купить (только для индустрии), но ценника на сайте нет. Видимо, вакансий на заводе скоро совсем не будет...

@ai_newz

Читать полностью…

эйай ньюз

Google открыли для всех доступ к Gemini 1.5 Pro с 1М токенов контекста: https://aistudio.google.com/app/prompts/new_chat

Можно загрузить видео или целую папку с файлами для анализа

Го тестировать

Читать полностью…

эйай ньюз

Microsoft нанимает большую часть команды Inflection AI, с двумя сооснователями

Inflection - выходцы из DeepMind, они выпустили ассистента Pi, клон ChatGPT с "высоким эмоциональным интеллектом". Я писал о Pi раньше, у них очень классная озвучка голосом. Пару недель назад у Inflection вышла новая базовая модель – Inflection 2.5, которая бегает под капотом у Pi, и которая почти догнала GPT-4. Может быть и догнала бы если бы CEO (на фото) не тратил кучу времени на написание и продвижение своей книги.

Всё это, несмотря на неплохие технологии, не полетело и основной инвестор – Microsoft просто решил захайрить команду для работы над своими продуктами. Мустафа Сулеймани (до Inflection - один из сооснователей Deepmind) станет CEO Microsoft AI, в его владения переходит значительная часть AI продуктов Microsoft (Copilot, Bing, etc.). Карен Симонян (автор VGG Net), ещё один кофаундер, станет Chief Scientist. По словам Bloomberg с ними уходит большая часть команды. Microsoft уже пыталась провернуть такой трюк с OpenAI, когда там царил хаос после увольнения Альтмана – тогда не сложилось, но идея осталась.

В Inflection остаётся третий сооснователь - Рид Хоффман (кофаундер LinkedIn, ранний инвестор в OpenAI) и новый CEO - Шон Вайт, который особого отношения к AI раньше не имел. Планируют развернуть компанию в сторону продажи доступа к API и тренировки кастомных моделеё для энтерпрайза. На обоих рынках конкуренция лютая, и не до конца понятно как Inflection будет продавать свои услуги. У компании остаются 22 тысячи H100, Inflection 2.5 и какая-то часть команды. Разработка Pi, судя по всему, заморожена. Как думаете, выкарабкаются?

@ai_newz

Читать полностью…

эйай ньюз

Stability.ai выкатили Stable Video 3D: 3D mesh из одной картинки через костыль в виде генерации видео

По одной фотографии Stable Video 3D генерит видео с вращающимся объектом, достраивая недостающие планы. Можно задать самому с каких углов генерить облет вокруг объекта. Получается видео, которое затем можно использовать для обучения NeRF и экстракции 3d меша. Сама моделька строится и файнтюнится из базовой Stable Video Diffusion.

Если использовать апскейлер (5 очков грифиндору за смекалку), то качество видео действительно улучшается, но вот меш все такой же кривой и бесполезный.

Модель влазит в 4090 (24GB VRAM), но с трудом. Нужно выставить параметр `decoding_t = 5` в `simple_video_sample.py`.

Сайт проекта
Модель и код

@ai_newz

Читать полностью…

эйай ньюз

А вот так выглядит сам суперчип GB200.

Подробности: https://blogs.nvidia.com/blog/2024-gtc-keynote/

@ai_newz

Читать полностью…

эйай ньюз

Тут еще и сделка между Google и Apple назревает.

Яблоко хочет получить лицензию на использование моделей Gemini в новых фичах, которые появятся на iPhone в этом году. Gemini планируют использовать для более тяжелых задач, и гонять модели в клауде, а не на девайсе. Свои же модели Apple пилят под телефон.

В целом, Apple либо позади в гонке LLM, либо они очень секретно двигаются.

@ai_newz

Читать полностью…

эйай ньюз

Присоединяйтесь к конкурсам GitVerse!

Объявляем о начале регистрации на конкурсы в рамках олимпиады «IT-Планета 2024». Вас ждут два трека, увлекательные задания и призовой фонд в размере 500 тыс. рублей*!

Готовы принять новый вызов?

До 31 марта зарегистрируйтесь и пройдите отборочное тестирование на площадке для разработчиков GitVerse от СберТеха. Вы можете принять участие в двух конкурсах:

👉 «Прикладное программирование if...else»

Конкурс для разработчиков в возрасте от 18 до 35 лет, которые создают прикладное ПО. Требования к участникам — знать C/C++/Java/Python, разбираться в алгоритмах и уметь применять их на практике.

Подробные условия конкурсов и регистрация.

👉 «Разработка игр – GameDev»

Соревнование для разработчиков игр от 18 до 35 лет. Участвовать можно самостоятельно или вместе с командой до 4 человек. Требования — классно разбираться в игровых механиках, знать все о движках и выбирать правильное решение для прототипирования игры.

Каждый конкурс состоит из трех этапов: отборочное тестирование, основной этап — отправка проектов или решение прикладных задач — и очный финал.

Подробные условия конкурсов и регистрация.

Следите за новостями!

*За вычетом НДФЛ

#промо

Читать полностью…

эйай ньюз

🤖 Золотая коллекция каналов про нейросети, сохраняйте!
Принес вам подборку редких и полезных каналов про нейронки:

AI Mololdca — тот самый. Нейросети через призму креативных индустрий.

Tips AI | IT & AIканал про сервисы ИИ, интернет технологии, так же в канале есть бесплатный ChatGPT.

Бурый — коллекционер нейросетей, тестит всё на себе и делится лучшими бесплатными нейронками.

Миша, давай по новой
канал про то, как общаться с нейросетями, придумывать промпты и эффективно использовать их в работе.

Нейронавт | Нейросети в творчестве — самые свежие новинки из мира нейросетей, без воды и по делу.

Силиконовый Мешок — Авторский канал нейроиспытателя Артема Субботина про искусственный интеллект приносящий прибыль.

ИИволюция — канал Сергея Пахандрина, где он делится своими экспериментами и лайфхаками по применению ИИ для решения разных задач.

InNeuralNetwork — канал Александра Жадана про ChatGPT и другие нейронки с практичными мировыми кейсами для работы и жизни

Илья Плазма про AI, венчур, технологии и DeFi от серийного фаундера и создателя номер один AI бота в телеграм.

Neurogen - Автор популяризует нейросети, создавая их портативные сборки. Теперь начать работу с нейросетями можно в несколько кликов.

@ai_newz

Читать полностью…

эйай ньюз

📚Tutorial on Diffusion Models for Imaging and Vision

В копилку к посту с туториалами и блогпостами по Диффузионным Моделям, принес вам еще свежий туториал на 50 стр из Purdue University.

Полезная штука для всех начинающих с диффузией. Туториал включает базу по VAE, DDPM, Score-Matching Langevin Dynamics и стохастическим диффурам.

📖 Pdf

#ликбез

@ai_newz

Читать полностью…

эйай ньюз

Дайджест по новым LLM

На неделе появился целый батч новых любопытных моделей, про них и поговорим.

▶️x.ai Илона Маска анонсировали Grok 1.5. По опубликованным авторами бенчмаркам заметно лучше v1.0, особенно в ризонинге (способности к логическому мышлению). Увеличили длину контекста до 128к. Обещают дать доступ к модели на следующей неделе. Grok 2, по словам Маска, "обгонит современный AI по всем метрикам" 😨.

▶️Samba-CoE - семейство франкенштейн-моделек. Авторы берут кучу моделек с HF, даже с разными архитектурами, и делают что-то в духе c-BTM: тренируют ещё одну модель которая выбирает лучшего "эксперта" в зависимости от задачи. Весов нету, есть демка. То есть это монстр из нескольких моделей, где во время инференся динамически выбирается какой токен и через какую модель пропустить. Samba – это хороший пример того, что бенчмарки не совсем отражают полезность модели и воспринимать репорты лучше со щепоткой соли. Особенно здесь, где смешали в кучу сомнительных моделей с хаггингфейса, которые не факт что не тренировали на бенчмарках. Ждем реальных тестов на Chatbot Arena.

▶️Qwen1.5-MoE-A2.7B - 14.3B MoE моделька от Alibaba, по перформансу на уровне Qwen1.5 7B (был пост про Qwen1.0) при этом в три раза быстрее. Архитектурно - 64 эксперта, 4 из них выбраны по дефолту, ещё 4 выбираются из оставшихся 60. Активно 2.7 миллиарда параметров (отсюда и название): 0.7B эмбеддинги + 2B в теле модели. Хороша если у вас много памяти, чтобы вместить 14.3B параметров, но слабое железо. Напрмиер, если запускаете на CPU, маках и старых enterprise видеокартах. Блогпост с деталями.

▶️ Кроме этого вышли DBRX [тык], Stable Code Instruct 3B [тык] и Jamba [тык], про них были отдельные посты.

#digest
@ai_newz

Читать полностью…

эйай ньюз

PeRFlow: Piecewise Rectified Flow as Universal Plug-and-Play Accelerator

Я уже не успеваю писать обзоры на все новые методы ускорения text2image диффузии (вот тут делал целую подборку). Вот появился еще один метод от китайцев из ТикТока. Заключается он в том, чтобы дистиллировать сильно нелинейные траектории процесса гаусовской диффузии в более прямые траектории, где ошибка не так быстро копится во время инференса с малым числом шагов.

В InstaFlow ранее уже пытались выпрямлять траектории, но там они стремились к полностью линейной траектории, что довольно проблематично. В PeRFlow же предлагают учить кусочно-линейные траектории, что немного релаксирует проблему.

В итоге, показывают результаты лучше чем Latent Consistency Models за 4 и 8 шагов. LCM, конечно, уже не СОТА, но все же.

Статьи еще нет, но код и веса уже есть. Это выглядит довольно странно – думаю, что торопились выложить хоть что-то после выхода статьи SD3 и до релиза их весов.

Обучили PeRFlow пока только для SD1.5 и SD2.1. К тому же показали, что можно применять разницу весов (W_orig - W_PerFlow) на всевозможные LoRA и файнтюны с civitai.com и получать ускорение из коробки – это прям круто!

Код и веса
Сайт проекта с картинками

@ai_newz

Читать полностью…

эйай ньюз

Вот так эти двое могли бы дружно праздновать релиз GPT-5.

@ai_newz

Читать полностью…

эйай ньюз

The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits

СОТА Модели быстро растут в размере (гляньте только на триллионы параметров в GPT-4 и будующей GPT-5), а гонять их хочется быстро и занедорого. Похтому приходится ухищряться со всякими квантизациями.

С BitNet 1.58, новым методом тренировки от Microsoft, моделька натренированная по рецепту от StableLM 3B (тот же датасет, столько же параметров, тренировали на тех же двух триллионах токенов) использует в 20 раз меньше энергии, в 3.5 раза меньше памяти при инференсе и в 2.7 раза быстрее по сравнению с fp16 моделью, при этом имея такое же качество 😱.

Как?
Авторы предлагают заменить обычный Linear слой на слой BitLinear, где тренируются скрытые веса, которые во время forward pass квантизируются: через absmean, веса делятся на среднее абсолютное значение и округляются к ближайшему значению из {-1, 0, 1}. Активации квантизируются 8-битным absmax-ом. Для бэкпропа через квантизацию используется straigth-through estimator. Квантизация повышает стабильность тренировки и позволяет поставить learning rate в несколько раз выше чем для fp16 модели. Остальные части модели не меняются, эмбеддинги не квантизируются. Судя по пейперу для инференса используется исключительно int8.

На моделях меньше 3B - BitNet 1.58 отстаёт по качеству, хотя всё ещё значительно быстрее. Зато на моделях большего размера преимущества по скорости только растут: гипотетическая BitNet 1.58 70B должна кушать в 41 раз меньше энергии, в 7.16 раз меньше памяти и быть в 4.1 раза быстрее.

Обещают выложить код и веса - ждемс!

Статья
Код будет тут

@ai_newz

Читать полностью…

эйай ньюз

В догонку, еще результаты SD3-Turbo:

Как улучшаетcя качество SD3-Turbo после применения DPO-LoRa.

==

Как фейлится модель на сложных промптах.

==

Сравнение 4-х шаговой SD3-Turbo с другими моделями, включая DALLE-3, MJ6 и Ideogram-1.0. Тут, конечно, есть сомнения, так как использовалась очень мелкая выборка промптов из PartiPrompts.

@ai_newz

Читать полностью…

эйай ньюз

Не пропусти мероприятие «GitVerse: открой вселенную кода»

29 марта в 10:00 приглашаем тебя на онлайн-презентацию от СберТеха. На ней ведущие ИТ-эксперты расскажут о функциональности GitVerse – платформы для работы с исходным кодом.

GitVerse позволяет создавать проекты с открытым и закрытым исходным кодом и развивать их вместе с ИТ-сообществом. На платформе можно организовывать совместную работу, привлекать к проектам новых участников, комментировать код и назначать задачи.

Участники мероприятия узнают все о трендах разработки и роли open source в современном ИТ, возможностях, планах развития, кейсах разработки и оптимизации с помощью GitVerse.
А также – о функциональности AI-помощника GigaCode, который генерирует варианты завершения кода в режиме реального времени, поддерживает более 15 языков программирования и устанавливается как плагин в привычные среды разработки.

Узнай больше о GitVerse и зарегистрируйся на мероприятие.

Ждем тебя 29 марта!

#промо

Читать полностью…

эйай ньюз

Она, правда, много откуда недоступна (во всей Европе не работает). Из Грузии, Казахстана и США должно работать.

Нужно менять регион в настройках гугл аккаунта.

Так что расчехляем випиэны.

@ai_newz

Читать полностью…

эйай ньюз

По слухам Chat GPT-5 зарелизят в ближайшие месяцы (mid-year)

Уважения к Business Insider за их бесконечные сливы у меня особенно нет, но довольно часто их слухи оказываются правдой. На этот раз они сообщают, что Open ai уже разослала демку долгожданной 5-ой версии некоторым партнёрам для тестов. К сожалению (или к счастью), о agi пока речи не идёт, но говорят что эта модель "значительно лучше".

Так же источник намекнул на возможность новой модели взаимодействовать с агентами внутри экосистемы open ai для выполнения сложных задач и автоматизации. Хорошая фича для корпоративных клиентов. И это похоже на правду, учитывая, что плагины удалили. За время беты ими мало кто пользовался и их накопилось чуть больше 1000.

Модель все еще тренируется, поэтому, конечно, ещё рано судить о том будет это революшен или минорный апдейт. Кто-то говорил, что нас ждет скачок сопоставимый с выходом 4й версии, а теперь говорят, что модель просто "значительно лучше". Как-то не слишком воодушевляет. Да и Sama вдруг заговорил о том, что они хотят двигаться "маленькими шажками".

Ещё, судя по презентации Nvidia, текущая GPT-4 возможно имеет около 1.8Т параметров, и новое железо от Nvidia позволит задеплоить GPT модели размером до 27Т параметров. Поэтому разумно предполагаю, что GPT-5 будет в диапазоне от 2T до 27Т.

@ai_newz

Читать полностью…

эйай ньюз

Новость для инженеров

Желательно для тех, кто работает или планирует работать в CV-домене.

Ребята из DeepSchool проводят лекцию “5 инструментов эффективного DS-инженера”.

Вести ее будет Егор, Lead CV Engineer из EPAM.

В DeepSchool преподает много опытных инженеров. И когда ребята готовят открытые лекции, то стараются агрегировать в материал мнения всей команды. Поэтому если хотите посмотреть на хорошие практики других команд, то стоит заглянуть.

На лекции Егор расскажет:
1️⃣ как использовать makefile для автоматизации рутины
2️⃣ как помогают тесты
3️⃣ чем хорош lightning и как его использовать
4️⃣ как повысить качество кода с помощью линтеров
5️⃣ про трекинг и визуализацию в CML

А также ребята представят программу Computer Vision Rocket и подарят скидки на обучение!

🗓Старт 21 марта, чт, 18:00 МСК!

Регистрируйтесь по ссылке! После регистрации ребята пришлют список полезных инструментов для CV-инженера.

#промо

Читать полностью…

эйай ньюз

Чел в кожаной куртке : “ChatGPT момент для роботов может быть уже за углом”

На вчерашнем ивенте Дженcен Хуанг, CEO Nvidia, представил новые GPU, а также анонсировал GR00T - Generalist Robot 00 Technology.

GR00T (отсылка к Марвелу) позиционируется как foundation модель для будущих роботов, от простых манипуляторов до робо-гуманоидов. Моделька способна обрабатывать мультимодальные данные, такие как видео, текст и другие сенсоры, выдавая действия робота в ответ на различные ситуации. В придачу с ним можно разговаривать и голосом – LLM-ка все осилит. Кроме того, GR00T может обучаться эмулировать действия, наблюдая за человеком.

Однако данных для тренировки таких роботов не наберешься, как я уже говорил, например здесь. Поэтому Nvidia представила обновленный Isaac Lab – среду для обучения роботов c помощью RL в симуляции, максимально приближенной к реальному миру.

Так например натренировали Isaac Manipulator – это умная роборука. Эта штука может выполнять простые задания получая на вход текстовые указания и на лету адаптироваться к изменяющимся условиям, находя новое решение для задачи. Скоро на заводах тоже пройдут лэйофы, ведь люди больше не будут нужны : )

А гоняется моделька GR00T на мобильном GPU-чипе Jetson Thor (800 TFlops в FP8), специально разработанном для управления роботом с минимальной задержкой.

Похоже, Nvidia хорошо так притопила в разработке роботов. В ближайший год стоит ждать больше и больше новостей про умных гуманоидов.

@ai_newz

Читать полностью…

эйай ньюз

🔥Nvidia выкатила новые монстры для AI: Blackwell B200 GPU и GB200 "суперчип"

Как всегда бывает на презентациях NVIDIA, слово "быстро" - это вчерашний день.

↪️ B200 GPU обещает до 20 петафлопс производительности в FP4 и 208 миллиардов транзисторов. Ваша GTX 1080 Ti нервно курит в сторонке.

↪️ В одной B200 будет 192GB памяти с пропускной способностью 8 ТБ/с. Идеально для LLM моделей, которые жрут память как не в себя и требуют большую пропускную способность.

↪️ GB200 "суперчип" объединяет 2 таких B200 GPU с одним Grace CPU (на ARM архитектуре). Nvidia хвастается, что это в 30 раз производительнее для инференса в LLM в FP4 по сравнению с H100.

↪️ Ключевая фишка - второе поколение трансформерного движка, который удваивает вычислительную мощность, пропускную способность и размер модели. Но хз, какая потеря точности будет после конвертации в FP4.

↪️ Nvidia утверждает, что GB200 снижает стоимость и энергопотребление в 25 раз по сравнению с H100 (опять же, в FP4).

↪️ Теперь будет поддерживаться и новый формат - FP6, золотая середина по скорости и точности между FP4 и FP8. Но бенчмарков не показали.

↪️ FP64 на уровне 45 терафлопс на GPU (против 60 у H100). Для нейронок double precision не релевантен, поэтому они особо и не парятся ускорять тут.

↪️ Тренировка GPT-MoE с 1.8 триллиона параметров требовала 90 дней на 8,000 GH100 и 15МВт энергии. Теперь достаточно 2,000 GB200 и 4МВт. То есть во время тренировки 1x GB200 примерно в 4 раза быстрее чем 1x H100.

↪️ На инференсе GPT-3 с 175 млрд параметров, GB200 "всего" в 7 раз быстрее H100. Ну ладно, не все сразу.

Но не радуйтесь раньше времени - цены будут ядреными! Если H100 стоит около $40k, то GB200 будет минимум в 4-5 раз дороже.

Да и не достать их будет простым смертным. Первыми их получат Amazon, Google, Microsoft и Oracle. Известно, что Амазон уже планирует кластер на 20,000 GB200.

А потребительские версии Blackwell ожидаются не раньше 2025 года.

@ai_newz

Читать полностью…

эйай ньюз

Похоже, Apple все же подарит Siri мозг!

Помните недавно прошелся слух, что готовится Apple GPT?

Так вот, Apple только что купила стартап Darwin AI, который работает над уменьшением и ускорением AI моделей. Тим Кук уже успел пообещать "открыть новые горизонты" в этом году, и похоже, все-таки у нас будет возможность пользоваться нейросетью от эпл локально на новеньком айфоне.

Apple всегда заботилась о безопасности и приватности, так что возможность общаться с ботом и редактировать фотки локально была бы пушкой, да и за облачные вычисления платить не придется, как это решил сделать Samsung.

Времени до конца года осталось не так много, интересно, успеют ли. 😐

@ai_newz

Читать полностью…

эйай ньюз

Никогда такого не было и вот опять - британские учёные Washington Post выяснили, что BigTech платит в разы лучше академии

Ли Фэй-Фэй, типа крестной мамки ИИ (эта тетя еще и была научным руководителем Андрея Карпатого), закинула тему о бабле на нацпроект по AI перед Байденом. Суть в том, чтобы университеты cмогли догнать корпоративных монстров типа Meta, Google и Microsoft, которые уже натренировали кучу моделей, пока академия пыталась выжить на остатках грантов.

Ребята, конечно, совершили высадку на луну с 4kb RAM, но пока Meta закупает 350к H100, бедняги из Стэнфорда пытаются что-то выжать из своих 68... штучек. Я уже даже не говорю про разницу в з/п между индустрией и академией - можете глянуть levels.fyi сами.

Чтобы хоть как-то замутить свой исследовательский хайп, ученым приходится ломиться в биг-теки, которые в ответ задают направление ресерча. Как результат, большая часть крутых исследований теперь идет под флагом индустрии, а университеты вынуждены довольствоваться крохами. Чтобы это проверить, достаточно вспомнить хоть бы одну Foundation модель для Language или Computer Vision, которую натренировали в университете - мне сходу на ум ничего не приходит.

А вообще, Open source, конечно, задает жару всяким гуглам, только вот мощностей все равно катастрофически не хватает.

Ли уже каталась по Вашингтону, пытаясь пробить финансирование на "GPU для народа", чтобы хоть как-то уровнять шансы. В то же время, корпорации, типа Microsoft, уже подкинули кое-какие ресурсы ($20M) в общий котел, но это, по большому счету, капля в море.

Ситуация настолько критична, что почти 70% PhD по AI уходят в индустрию, искушенные зарплатами и возможностью работать над чем-то крутым. А 10 лет назад эта цифра была 21%. И вот они стоят перед выбором: сидеть в академии и пилить науку за гроши или перейти на темную сторону и ресерчить за бабло. Те, кто решает остается, приходится либо договариваться с индустрией, либо наблюдать, как их темы уплывают к тем, кто может позволить себе больше железа и данных.

По себе знаю, в универститетах круто в плане свободы выбора тем исследований, но там совсем нет ресурсов на тренировку современных больших моделей...

@ai_newz

Читать полностью…
Subscribe to a channel