Канал про нейросети в компьютерной графике, в кино и вообще Чат: https://t.me/+16lR_Zc8oVM2ZTky
Раздаём бесплатные инструменты по увеличению дохода через нейросети🎁
Если вы постоянно слышите про нейросети, но не понимаете, как их грамотно использовать для заработка и где получить работающие инструменты, то этот пост для вас.
Вас приглашают на бесплатный интенсив «Нейроконцентрат: Эволюция 2.0.», где вас ждут:
🔥Готовые связки по нейросетям для бизнеса и продаж (даже если вы ещё не запустили бизнес)
🔥Топ-3 стратегии по нейросетям в 2025, которые уже работают
🔥Наглядные инструкции по внедрению нейросетей в бизнес и работу
После регистрации на интенсив вас ждут бонусы:
🔥Эксклюзивный гайд «ТОП-10 AI-инструментов, которые помогут твоему бизнесу в 2025»
🔥Промт-каталог «50+ ChatGPT-команд для бизнеса»
🔥Готовые инструкции «Как зарабатывать на ИИ без стартового капитала»
🔥Чек-лист: «Как внедрить ИИ в работу за 24 часа»
Создатель - Дмитрий Ледовских, победитель премии «Прорыв года в нейросетях» от TenChat.
👉Бесплатные места на интенсив и бонусы ограничены. Спешите зарегистрироваться уже сейчас!👈
#промо
И демоспейс релайтинга Light-A-Video тоже появился
Демо
#relighting
Grok 3 открыли для всех бесплатно
И пусть никто не уйдет обиженным
Пользуемся пока не закрыли
#assistant #reasoning
Как я набрал 150 миллионов охватов за год?
Привет! Я Руслан Гамзатов – эксперт по AI-маркетингу и человек, который заменил отдел контента и продаж на ИИ.
📌 Факты, которые изменят твое мышление:
🔥 150000000+ охватов – AI-контент работает эффективнее людей
📈 300000+ подписчиков – потому что все хотят зарабатывать на AI
🤖 100000+ клиентов обслужил AI – и никто не заметил разницы
💰 12000+ продаж совершено без менеджеров только за счет ИИ-ассистентов
21 февраля стартует бесплатный воркшоп с реальной практикой, где мы разберем:
✔️ Как AI продает вместо вас. С примерами и готовыми инструментами!
✔️ Почему 90% юзеров делают неправильный AI-контент – не повторяй их ошибки.
Это готовые решения для любой ниши!
🔗 Регистрируйтесь по ссылке!
Мест всего 150 заходи в бота сейчас, и получишь бонусы:
– Пакет промптов для маркетинга и создания контента
– Видео-инструкция по настройке AI-бота (от шаблона до живого диалога)
Переходи по ссылке тут!
#промо
Perplexity R1 1776
Рассуждалка без цензуры от Perplexity в опенсорсе.
Это посттрейн DeepSeek R1, да
Веса для GPU олигархов
API
Ну и Deep Research "у нас дома" от Perplexity.
5 запросов в день бесплатно.
Похуже Open AI и получше остальных по бенчам
Попробовать
#reasoning #assistant
SkyReels V1: Human-Centric Video Foundation Model
Генератор видео по тексту и по картинке на основе Hunyuan
Заточен на человеков в кадре, там под капотом помогает 3D реконструкция
На 4090 должен вывозить 97 кадров 960px544
Гитхаб
Веса SkyReels-V1-Hunyuan-I2V
Веса SkyReels-V1-Hunyuan-T2V
Попробовать на офсайте - 50 стартовых кредитов должно хватить на 1 генерацию. Но не спешите гулять на все, у них там еще есть липсинк, генерация картинок, генераторы музыки, звуковых эффектов, речи, сценария по рассказу
SkyReels_AI/videos">Их канал на Youtube
#text2video #image2video #lipsync #text2movie #text2music #text2sound #text2sfx
Grok 3
Ну очень умный, в двух вариантах Grok-3 и Grok-3 mini, причем веса еще нефинальные.
ворвался на вершину арены по всем лидербордам
По режиму рассуждений будут доступны два режима: просто Thinking и Thinking Hard.
Есть режим DeepSearch - аналог DeepResearch
Доступен премиум пользователям твиттера
А бесплатно можно попробовать на арене
#assistant #reasoning
🧠 ПОДБОРКА НЕЙРОСЕТЕЙ ДЛЯ СОЗДАНИЯ ВИДЕО И ФОТО!
• Лучшая Нейросеть Для Создания Фото
• Лучшая Нейросеть Для Создания Видео
• Лучшая Нейросеть Для Создания Музыки
Только лучшие нейросети, по ссылке ниже 👇
ПОДПИШИСЬ, ТУТ О ИИ И ЗАРАБОТКЕ 🤖
#промо
попробовал Step-Video-T2V
Надо наверно подробнее описывать действие, а то стилл лайф какойто
Движение камеры понимает +-
#neuronaut_art
Голосовая модель Zonos уже в браузере Pinokio.
Простая установка локально
#voicecloning #tts #text2speech
Объявляю воскресную субботнюю проверку мемов
#humor
Animate Anyone 2: High-Fidelity Character Image Animation with Environment Affordance
Второе поколение нейронки от Tongyi Lab и Alibaba Group. Кода к первому так и нет.
Заменяет персонажа на видео по одному фото.
Кода нет и не стоит губу раскатывать
#image2video #humananimation #characteranimation #pose2video
Если честно, то даже я приподохренел.
Тут у нас была дискуссия (бессодержательная по большей части) за рекламу, ну штош, держите рекламы.
Давайте вы сначала посмотрите ролик со звуком(!), а потом почитаете тексты ниже...
Пришлось смотреть 3 раза.
Конечно, я испортил весь эффект, тем что сразу акцентировал внимание на ролике. Но таки да, это генератив от Veo2. И тут Гугл, похоже, пока непобиваем.
Я вначале подумал, что дядьки с камерами настоящие и щас нам расскажут про совмещение ИИ и видео.
Но из настоящего тут только говорящая голова со странным акцентом в части behind the scenes
Пруф тут: https://www.youtube.com/watch?v=VqLWWYfCEbI
Нормальный такой 𝘢𝘯 𝘪𝘯𝘥𝘦𝘱𝘦𝘯𝘥𝘦𝘯𝘵 𝘤𝘳𝘦𝘢𝘵𝘪𝘷𝘦 𝘦𝘹𝘦𝘳𝘤𝘪𝘴𝘦 - как пишет автор. Один. Без ансамбля.
От себя добавлю, что закадровый нарратив для ИИ-роликов - это прям палочка выручалочка, недавно об этом думал.
Встречал немного снобистское мнение в прошлой жизни, что закадровый нарратив появляется там, где режиссер не может справиться со сценой или сценарием. Для ИИ - это идеальные костыли. Поглядите ролик еще раз.
И спать.
P.S. Огромное спасибо Всеволоду Тарану за такой шикарный ИИ-подгон.
@cgevent
Pippo : High-Resolution Multi-View Humans from a Single Image
Из одного портретного или в полный рост фото человека делает тёрнтейбл - фото облет студийного качества 512х512 (называют это 1K)
Код
#image2video #novelview
InspireMusic: A Unified Framework for Controlled Music, Song, Audio Generation with Collaborative Semantic and Acoustic Tokens
Опенсорсный генератор музыки от Tongyi Lab и Alibaba Group
Умеет создавать музыку по тексту, продолжать музыку, реконструировать (непонятно)
Качеством звука пока не впечатлил, но это опенсорс, тут есть перспектива
Код
Демо
#text2music #music2music #music
Video Model Studio (VMS)
Интерфейс Finetrainers на gradio для тренировки видео лор в несколько кликов
Поддерживаемые модели:
LTX-Video - протестировано на инстансе A100
HunyuanVideo - теоретически должно работать из коробки с достаточной вычислительной мощностью
Код
Демо - для работы демоспейс надо скопировать и видимо взять платный GPU
Бонус - альтернатива diffusion-pipe-ui
#lora #training #finetuning #GUI
Появился демоспейс Step Audio Chat от stepfun
В демо доступны английский и китайский языки. Рилтайма нет. Записываете свой вопрос через микрофон - жмете кнопку - получаете ответ
Напоминаю, у модели есть контроль эмоций голоса, диалектов и вокальных стилей, попробуйте получить это от нее
Демо
#ALM #voicechat
SliderSpace: Decomposing the Visual Capabilities of Diffusion Models
Смотрите какая штука.
Попытка раскрыть творческий потенциал диффузных генераторов картинок.
Вместо поиска пользователем творческих направлений, SliderSpace автоматически обнаруживает их на основе знаний модели.
Получив промпт, например "игрушка", SliderSpace определяет ключевые визуальные вариации, о которых знает модель, и превращает их в простые слайдеры.
Прикручено к #SDXL и #Flux
Код
Демо сейчас не работает, 404
#text2image #variation #slider
Phantom: Subject-Consistent Video Generation via Cross-Modal Alignment
Генерация консистентного видео с заданным объектом по одному референсному изображению от ByteDance сотоварищи
Код ждем вероятность 50/50
#image2video #text2video #personalization
Light-A-Video: Training-free Video Relighting via Progressive Light Fusion
Релайтинг для видео
Под капотом CogVideoX-2B/AnimateDiff-Motion-Adapter-v1-5-3, Realistic Vision V5.1, IC-Light
На вход 512х512
Код
Инструкция по локальному запуску от PsyEyes
#relighting
Step-Audio
Аудиоязыковая пачка моделей от Stepfun - авторов Step-Video-T2V. Для вербального естественного взаимодействия, то бишь для голосового общения с пользователем.
130B параметров основной модели.
Состоит из Step-Audio-Chat, Step-Audio-TTS-3B и Step-Audio-Tokenizer
Есть какой-то контроль эмоций голоса, диалектов и вокальных стилей, но нет сайта проекта. Судя по примеру с replicate, немножко даже пытается читать рэп.
Полного списка языков не нашел, указано что есть английский, китайский, японский
Step-Audio-TTS-3b на Replicate
Веса
Гитхаб
AppStore - есть приложение, там все на китайском. Можно залогиниться по российксой симке, но чат работает и без этого. Даже на русском. Подключен DeepSeek R1. Но где там голосовой режим я не нашел
#ALM #voicechat #assistant #iOS
CLaMP 3: Universal Music Information Retrieval Across Unaligned Modalities and Unseen Languages
Многоязычная (100 языков) мультимодальная платформа поиска музыкальной информации (MIR), поддерживающая ноты, аудио и сигналы исполнения (что это???)
Демо ищет музыку по тексту или по картинке в бенчмарке WikiMT-X из 1000 треков 20 века
Код
Демо
#search #music #musicsearch
Авторы MatAnyone запустили демоспейс, можно тестить
Демо
#segmentation #matting #video2matte #video2mask
Step-Video-T2V
Новый опенсорсный китайский видеогенератор
30B параметров
544px992, 204кадров
80gb VRAM
Код
HF
Попробовать - вход по телефону. Мне по российскому телефону код пришел в телеграм
#text2video
OmniParser V2
Вторая версия анализатора пользовательского интерфейса от Microsoft для ИИ-агентов
OmniTool - инструмент для управления виртуальной машиной Windows 11 с LLM на выбор
#screen2text #agent #assistant
Только что опубликован код реконструктора-рейтрейсера Radiant Foam
Рекомендуют уменьшать количество точек на открытых сценах чтобы влезало в 24Гб VRAM
Код
#raytracing #realtime
Валентинки через Glif
Теперь каждый глиф стоит по-разному, но на старте вам дают 30 кредитов бесплатно и так же они ежедневно пополняются. А я подготовил для вас Глифы для Валентинок!
💰 В среднем 1 генерация в моих глифах тратит ~8 кредитов
💰 Оригинальный Glif — ~5 кредитов
Готовые глифы для Валентинок:
► angrypenguin/glifs/cm72g4nie0006rz8l6kxmh1es">Оригинальный Glif — откуда я взял идею, генерирует картинку + милый текст через Sonnet. Из минусов — вотермарка.
► MonkeyInLaw/glifs/cm72vf4y70002rv29eqvreat1">Мой вариант. 2:3 размерность (1200x1600px) — Идеален для печати!
НО! Есть особенность сделал его с разделением промпта для Clip L и T5XXL.
Мне помогает вот этот промпт для любой LLM: Create prompts based on text for Clip L and T5XXL. Text: [Ваше описание или картинка]
Если не хочется заморачиваться с промптами для Clip L и T5XXL, просто вставьте одинаковый текст в оба поля.
► MonkeyInLaw/glifs/cm74j1nbd000srhb5t1jjczrs">Вариант с возможностью референс картинки. Добавил Redux туда.
► HF Lora — для тех кто хочет локально погенерить
— Я распечатал эти открытки на акварельной бумаге, и они выглядят как настоящая пастель!
Этот ролик, сделанный в Veo 2 - редчайший случай из всего потока генеративного видео, когда я верю что это люди в кадре, а не бестолковая кучка пикселей, мимикрирующих под людей. Они делают что-то осмысленное, а не имтируют движение. По крайней мере, мне это так выглядит
Ну и тут посмотреть бы на промпты и количество отбракованных версий. Скорее всего автор режиссер с опытом и понимает как работает камера и действие в кадре
Convergence
Лондонский стартап хвастается браузерным агентом, побивающим 200-долларовый Operator (или он уже бесплатный?)
На бесплатном тарифе 5 сессий в день и одна автоматизация
#assistant #agent
CustomVideoX: 3D Reference Attention Driven Dynamic Adaptation for Zero-Shot Customized Video Diffusion Transformers
Видеогенератор с персонализацией, создает видео с объектом, заданным картинкой
За основу берут CogVideoX-5B и прикручивают лору
Код ждем
#personalization #text2video