cgevent | Unsorted

Telegram-канал cgevent - Метаверсище и ИИще

37764

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn

Subscribe to a channel

Метаверсище и ИИще

Ну, за разметчиков.

Вот мы читаем "модели распознавания видео". А как это?

А вот так. Довольно залипательный процесс просмотра того, как модель расшифровывает в своих нейромозгах видео в текст. Находка тут в том, что все это в виде чата.

Более того, можете сами попробовать на своих видео или на кожаном лице через веб-камеру.
https://moondream.ai/solutions/analyze-live-video

Я попробовал, он слишком часто определяет улыбку, хорошо детектит зтм, то есть переходы в черное, но когда на экране появляется UI софта, он такой ... эээ.
Ну то есть хорошо натренирован на стримах с кожаными.

P.S. Тут будет отсылка к моему посту про монтаж. Все эти ИИ-монтажеры и новомодные ИИ-фичи для видео действуют на основе текстовых тригеров из расшифровки: ну то есть ИИ-монтаж идет по тексту, а не по картинке. А это все равно, что слепого посадить за монтажку и рассказывать ему голосом, что там происходит. Что-то получится конечно, но до хорошего монтажа будет далеко.

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка (MyFilm48)

Stone Eater, студия "Не Канон"

1-е место в категории Про.

Видео создавалось за 96 часов в рамках конкурса «MyFilm48».

Необходимо было следовать заданию:

«Создать трейлер к несуществующему полнометражному фильму. Главный герой получает от загадочного незнакомца конверт с золотым билетом, древней картой и запиской на балийском. Незнакомец исчезает.
Трейлер должен быть связан с о. Бали»

Также было такое требование:

«Трейлер должен быть построен по всем законам профессионального кино: динамичный монтажный ритм, выстроенная драматургия, интрига, эмоциональное воздействие, ощущение гонки со временем.»

Для генерации статики использовали MJ + Banana + Seedream

Анимировали всеми известными инструментами, но очень помог VEO 3.1 (озвучка персонажей + саунд-дизайн) и Sora (динамика + разные планы).

Музыку сгенерировали в Suno

Монтаж - Давинчи

Хочется доработать стилистику, цветокоррекцию и некоторые сюжетные моменты.
Но когда речь идет об ограниченном времени, приходится неизбежно чем-то жертвовать)

За основу была взята балийская легенда о великане Кебо Ива.

Трейлер создан силами студии «Не Канон».

Если вдруг кому-то интересны подробности производства, в ближайшие дни у меня на канале будет эфир с подробным разбором.

@cgevent

Читать полностью…

Метаверсище и ИИще

Еще забавнее. Просто прошел по ссылке из предыдущего поста и просто нажал Run в AI Studio.

Получил, во-первых, глубокомысленный ответ:
"Метаверсище и ИИще, как будто из единой плоти и крови! Вот как это может выглядеть:"
А во-вторых, даже картинку, хотя и не просил об этом. В шапке.

Пора менять аватарку, вестимо. ИИ так видит..

@cgevent

Читать полностью…

Метаверсище и ИИще

Grok Imagine теперь умеет не только Image2Video, но и text2video.

По крайней мере в веб-версии на десктопе.
Но самое забавное следующее: я закинул в него абсолютно черное изображение без промпта и говорю, сделай видео.

Получил вот такое.

Сижу и думаю, это такая новая нормальная рекламная интеграция Самсунга?

А так как сида нет, то воспроизвести невозможно...

https://grok.com/imagine

@cgevent

Читать полностью…

Метаверсище и ИИще

Сожги свою подписку. Free Affinity.

Именно с таким слоганом Canva бахнула обновленную Affinity по цене 0 долларов.
"30 октября 2025 года во время мероприятия Create Canva анонсировала обновленную версию Affinity, объединившую функции редактирования фотографий, векторной иллюстрации и верстки страниц в одном бесплатном приложении".

Чтобы скачать бесплатно, вам надо завести учетку на Canva.
Есть импорт из Фотошопа и ГПУ-ускорение для больших файлов.

https://www.affinity.studio/get-affinity

@cgevent

Читать полностью…

Метаверсище и ИИще

Не проще ли сделать эту тварь на колесах, тем более, что у Тойтоты все хорошо с колесами.

Но, говорят, этот стул-паук может карабкаться по лестницам.

Только вот навернуться с лестницы очень не хочется.

Больше зоопарка для робатов!

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

Клип от Николая.

Идея сделать этот клип родилась из идеи сделать цифровую группу и начиналась с шуточной песни в Suno со своим текстом, но потом обрела форму в виде создания полноценного мини альбома в стиле отечественного инди поп рока, который был успешно выпущен на всех стриминговых музыкальных площадках. Так родилась группа "Яркие огни". (
https://music.yandex.ru/artist/24699041). Но хотелось  выпустить не просто нейросетевое творчество, а создать полноценную виртуальную группу с их образами и конечно же клипом. После увиденных возможностей нанобананы понял, что время пришло.  Идея клипа лежит в тексте самой песни "Надо просто поговорить" - про порой сложные отношения между любящими людьми, так знакомые каждым у кого такие отношения есть, что иногда надо немного сбавить обороты, отнестись к ситуации проще, претворившись мультяшками и разрешить все проблемы просто поговорив.

Работа с клипом была крайне трудоемкой и заняла порядка 100-150 часов работы (полтора месяца свободного времени). Было сделано порядка
3000-3500 футажей для последующего оживления. Для оживления были перепробованы наверное все модели, что есть на рынке, но в итоге из основных были использованы в порядке применимости - Pixverse 5.0 (вся история и часть выступления группы), Kling 2.1/2.5 (Группа и вся мультяшная часть), Veo 3 (Часть выступления группы и инструментальные планы), Wan 2.1 animate/2.2 (часть мультяшек и некоторая анимация игры на музыкальных инструментах).

Липсинк в основном Dzine, Openart и Veo 3. Апскейл до 4К весь в Topaz AI. Монтаж, цветокор и доп эффекты - всё в Capcut pro.

Бюджет  - учитывая, что это первое моё глубокое погружение в нейросетевое творчество со множеством , в том числе неудачных, экспериментов, на подписки и доп. кредиты составил порядка 30 т.р
.

@cgevent

Читать полностью…

Метаверсище и ИИще

Адобченко поднимает веки. Генерация и редактирование по слоям.

Много новостей прилетело изподадоба. На пару постов.

Прежде всего они выпустили Firefly Image Model 5 и там есть редактирование и слои.

Картинка генерится сразу со слоями, каждый слой можно перегенерировать, таскать по картинке, вращать, масштабировать - перегенерация почти мгновенная.

А как он бьет на слои, спросите вы?

А примерно также как в Reve.art - сегментацией картинки на объекты внутри общей композиции. Сколько нашел, cтолько слоев и сделал. Влиять на это нельзя.

Также можно заметить, что при перегенерации\редактировании слоя-объекта он чуть шевелит остальные "слои", что в принципе малозаметно и в пределах погрешностей редактирующих генераторов. Круто, что тени и отражения отрабатываются с учетом "отношений" между объектами.

В общем у Адобченко теперь своя Нанабанана со своим интерфейсом (это не отменяет того факта что гугловая Нанабанана также присутствует в списке "прочих моделей" уже некоторое время).

На видео заметно, что с текстом вообще-то беда. Но в любом случае, чем больше редактирующих моделей, да еще и с хорошим UI\UX - тем лучше.

@cgevent

Читать полностью…

Метаверсище и ИИще

Релизнули веса Minimax M2

Агентный ризонер от китайцев, по бенчам это SOTA среди открытых моделей (Artificial Analysis подтвердили). По размерам моделька на удивление компактная — 230B, из которых всего 10B активных параметров. Конкуренты, при худшем перформансе, минимум в полтора раза больше по количеству параметров в целом и в 3 раза по активным.

Кроме релиза весов, минимакс ещё дают бесплатно попользоваться их API до 7 ноября. После этого цена будет $0.3/$1.2 за миллион токенов. Это дороже DeepSeek 3.2, но заметно дешевле других конкурентов.

Веса

@ai_newz

Читать полностью…

Метаверсище и ИИще

📺 Облачный провайдер Cloud.ru запустил телемагазин в стиле нулевых

Только не про чудо-технику, а про облачные и AI-сервисы. В коротких роликах комик Илья Макаров в роли ведущего с юмором рассказывает про то, как:

- настраивать умный поиск на RAG
- вайб-кодить с AI
- ускорять разработку приложений
- создавать корпоративных AI-агентов

Выбирайте простые и удобные AI-сервисы, не вставая с дивана!

Читать полностью…

Метаверсище и ИИще

Гугль тизерит какие невероятные возможности Veo3.1

Какая-то ВидеоНанаБанана.
Поглядите видосы, я пока не понимаю, как они добавляют или удаляют объекты с имеющихся видео. Ингредиенты?
Отправляют всех желающих почитать вот такой вот док:
Introducing Veo 3.1 and advanced capabilities in Flow

А в ноябре ждем Нанабанану 2.

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

На этот раз от самого Доброкотова, известного в миру как АI molodtca

Бригада, но это аниме опенинг.

Уже пятый в серии. Делал где-то месяц в свободное от студийных проектов время (и да, пришлось пересмотреть сериал целиком — освежить ключевые моменты).

Звук

Я всегда начинаю с музыкальной темы — она даёт нужную структуру. Поэтому написал черновой текст, через Claude адаптировал на японский и пошёл в Suno. В этом опенинге хотелось сделать именно кавер на оригинальную мелодию (она важна для вайба), поэтому с помощью Cover сделал около 50 версий, пока не нашлась вишенка.

Картинки

Дальше начинается высокофункциональный аутизм — генерация стиллшотов. Благо теперь есть нано банан, абсолютное величие. Без него бы сошёл с ума: делать лоры на каждого персонажа, инпейнтить их в сцены и заниматься другой первобытной дикостью.

В процессе открыл для себя, что бананой довольно удобно итерационно пользоваться не только в нативном чате, но и в нодовой системе — большая часть шотов сделана шаг за шагом в Фиджитал+.

Видео

Если раньше в анимацию могла только Luma 2 (где и делал все прошлые опенинги), то сейчас все модели это умеют. НО — часть моделей (например, Veo-3) превращает 2D в квази 3D. Поэтому если делаете анимацию — ваша остановочка это Minimax 2 и новый Kling 2.5. В последнем сделана бóльшая часть шотов, а кадры с start-end frame — в Минимаксе. Потрачено где-то по 6к кредитов в каждом.

Монтаж

Для личных приколдесов использую платный CapCut. Весёлый и заряженный.

Да вот и всё, жарьте, бандиты! 🐺


@cgevent

Читать полностью…

Метаверсище и ИИще

Знаю тут многие пользуются Дипсиком.
У них вот такое обновление - DeepSeek-OCR, модель для перевода картинок в текст\маркдаун.
Распознает даже химические формулы и конвертит их в SMILES формат.
- Состоит из 2 компонентов - DeepEncoder (380M) и DeepSeek MoE (3B, 570M активных)
- Нативные разрешения - 512×512, 640x640, 1024x1024, 1280×1280

Распознает картинки с очень низким качеством и большой компрессией.
https://github.com/deepseek-ai/DeepSeek-OCR

@cgevent

Читать полностью…

Метаверсище и ИИще

Когда анекдоты перестают быть анекдотами


Новости технологий: изобретен аппарат автоматического бритья:
- Бросаешь рубль, суешь голову в прорезь
и он тебя автоматически бреет.
- Но ведь у всех разные лица!?!?
- В первый раз да ...


@cgevent

Читать полностью…

Метаверсище и ИИще

FlashVSR
Towards Real-Time Diffusion-Based Streaming Video Super-Resolution


Точно не лучший апскейлер видео, но зато опенсорсный, раз уж в коментах были вопросы.

Есть и код:
https://github.com/OpenImagingLab/FlashVSR
И ноды для комфи:
https://github.com/smthemex/ComfyUI_FlashVSR

Ест много памяти, как все апскейлеры.
Использует Block-Sparse Attention, который будет капризничать на слабых видеокартах.

@cgevent

Читать полностью…

Метаверсище и ИИще

Игорь написал хорошую статью, процитирую для затравки:

Чаще всего это выглядит как карго-культ. Все бегают, кричат "Надо срочно всем использовать AI! Сейчас все будут работать в 2 раза быстрее!", покупают лицензии ChatGPT и аналогов всему офису и ждут чуда. Но будем честны: у 9 из 10 компаний получается не «цифровая трансформация», а дорогостоящий «театр инноваций».

Отлично рассказывает, почему все эти ИИ-курсы, ИИ-академии и ИИ-трансформации - полный булшит, и с чего надо начинать.

Прочитал и подумал, что в принципе годные рецепты для внедрения даже в одну голову - фрилансера, солопренера, компании из одного человека.

https://habr.com/ru/articles/965016/

@cgevent

Читать полностью…

Метаверсище и ИИще

Преступно долго не писал про Qwen Image Edit with camera control Лору.

Наконец-то под нее сделали демоспейс, можно попробовать сам:
https://huggingface.co/spaces/linoyts/Qwen-Image-Edit-Angles

Суете свою картинку, получаете изображение под другим углом камеры с сохранением консистентности.

Но в сети светятся примеры с 4х шаговой лорой, там уже вообше полный интерактив. См видео.

Также народ вонзает эти новые кадры как first-last frames и получает видео-переходы от одного ракурса к другому, опять же с сохранением консистентности.

Она есть и на аггрегаторах и на Fal и в Комфи.

https://huggingface.co/dx8152/Qwen-Edit-2509-Multiple-angles
https://huggingface.co/Phr00t/Qwen-Image-Edit-Rapid-AIO/tree/main

@cgevent

Читать полностью…

Метаверсище и ИИще

Свежеискусанная нодовой истерикой Krea.ai

А твитторе раздавали коды раннего доступа к нодовым фичам, но сейчас перестали.

Кто ещё не покусан ComfyUi?

@cgevent

Читать полностью…

Метаверсище и ИИще

Офигейте и попадайте со стульев! Университет Мэриленда и Microsoft протестировали 26 языков на всех топовых LLM — и английские промпты оказались НЕ самыми эффективными! 🤯

Результаты просто дикие:
- Польский — 88% (первое место!)
- Русский — 84% (пятое место)
- Английский — только 83.9% (шестое место!)

Пока все годами мучаются с английскими промптами, думая что так «правильнее», оказывается наш родной русский работает лучше!

Протестировали на OpenAI, Gemini, Llama — везде одинаковый результат. Даже китайский с огромной базой данных показал один из худших результатов.

Практический вывод: Сложные задачи теперь можно спокойно задавать ИИ по-русски — это эффективнее английского. Особенно когда нужна точность выполнения.

Кто бы мог подумать, что польский станет языком №1 для общения с искусственным интеллектом! 🙂

🔮 Хранители Легиона ➕

Читать полностью…

Метаверсище и ИИще

Не так давно писал про Deepseek OCR - перевод изображений в тексты.

Индийские коллеги из Datalab бахнули Чандру.
Ещё один OCR, который, конечно, побивает Мистраль и Дипсик на разных OCR тестах.

40 языков, формулы, рукописи и пр.

И все это с кодом!

Демо есть тут:
https://www.datalab.to/playground/documents/new

А код тут:
https://github.com/datalab-to/chandra

На видео - оцифровка рукописи 1913 года на Ramanujan language.

@cgevent

Читать полностью…

Метаверсище и ИИще

Есть и хорошие новости с музыкальных полей.
Китайцам похоже наплевать на UMG и они бахнули MiniMax Music 2.0

Треки по ПЯТЬ минут
Анонсируется точный контроль над музыкальной аранжировкой и инструментами
Акапелла и дуэты (интересно)
Ну и понятно, что "студио кволити и все такое"
Есть на сайте:
https://www.minimax.io/audio/music
И на Фал:
https://fal.ai/models/fal-ai/minimax-music/v2

Но до Суно, как из Китая пешком.

@cgevent

Читать полностью…

Метаверсище и ИИще

FIBO

Вы будете смеяться но у нас новый опенсорсный(!) генератор картинок.

Идея: короткие промпты работают плохо, поэтому давайте натренируем модель на конского размера промптах, а еще лучше на json-промптах.
А как же пользователи, которые двух слов связать не могут в обычной жизни?
А для них при генерации дадим генератор промптов, который раскучерявливает их потуги до структурированных длинных промптов.
Пишут, что можно использовать встроенный генератор промптов, но рекомендуют указывать Gemini через апи-ключ, тренировали с помощью Gemini.

Идея хорошая, но очень сильно напрягает телега про "тренировали только на лицензионных картинках" - это как бы звучит как "худосочный датасет".

Впрочем, надо пробовать, благо есть демоспейс - тихоновская белка вышла ядреная.

Есть три режима: Generate, Refine(типа редактирование) и Inspire

Гитхаб сделано толково, причем есть полный обвес - демо, концы на Fal.ai и Replicate, готовые комфи ноды.

Все это вы найдете вот тут:
https://github.com/Bria-AI/FIBO?tab=readme-ov-file#-quick-start

Навалитесь, потестируйте, выглядит неплохо...
А уж по их бенчмаркам побивает всех мокрыми тряпками с большим отрывом.
https://github.com/Bria-AI/FIBO?tab=readme-ov-file#prism-benchmark-model-comparison


Демо:
https://huggingface.co/spaces/briaai/FIBO
https://platform.bria.ai/labs/fibo

@cgevent

Читать полностью…

Метаверсище и ИИще

От Иронова до наших дней

Google бахнул убийцу очередной пачки стартапов продукт Pomelli для создания маркетинговых кампаний для брендов.

Речь идет про создание бренд-контента в произвольных масштабах.

Вы даете на вход веб-сайт компании, Pomelli это все пережевывает и выдает наружу пакован брендированного контента, который уже объединен замыслом некой рекламной кампании.

Чего не написано в телеграмчиках, так это то, что создание этого пакована (то есть маркетинговой кампании) можно промптить самому (либо соглашацца на варианты ИИ), а полученные материалы можно править не только в фотошопе, но и Нанабананой.

Все это отсылает меня в докембрий, когда появился лебедевский генератор логотипов - Николай Иронов. Подумайте, какой путь мы прошли: теперь вы даже можете ничего не писать, а просто вонзить свой веб-сайт на вход, и получите все для смм и маркетинга.

А сайт вам сделал кто? Правильно, ИИ.

А промпт для генерации сайта написал кто? Правильно, ну .. вы поняли.

Закончим тем, что маркетинг компанию для вас тоже будет делать какой-нибудь ИИ-агент по типа Мануса, и все, что вам остается, это спать и есть еду в голову.

А оно как-то там само..

https://labs.google.com/pomelli/ (впн штаты)

@cgevent

Читать полностью…

Метаверсище и ИИще

Google представил новую функцию в Gemini Canvas, интерактивном рабочем пространстве внутри Gemini: теперь вы можете создавать целые презентации на основе промпта или загруженного файла.

Напишите «Создать презентацию по [теме]» или загрузите документ, таблицу или исследовательскую работу - Gemini автоматически сгенерирует слайды с текстом, визуальными элементами и целостным дизайном.

Вы можете экспортировать их в Google Slides, редактировать или дорабатывать.
Доступно для всех стран и аккаунтов, но для Pro будет именно Gemini 2.5 Pro под капотом.

И кстати, не только презентации:
https://gemini.google/overview/canvas/

@cgevent

Читать полностью…

Метаверсище и ИИще

А в Veo тем временем прикрутили инструмент для аннотаций.
Он и раньше их понимал, но надо было где-то их рисовать, а теперь прямо во Flow для Ingredients or Frames to Video появилась иконка с карандашиком. Там мини Paint с текстом и стрелками.
Обратите внимание на видео, как там пишут промпт "используй инструкции из аннотации, а потом удали ее к буйволу".
А еще во Flow Scenebuilder появилась Portrait Mode.

@cgevent

Читать полностью…

Метаверсище и ИИще

Krea Realtime 14B: Real-Time Video Generation

Довольно любопытный маркетинговый ход от Krea (внимание, это опенсорс).

Смотрите что они сделали:
Krea Realtime 14B получен путем дистилляции из Wan 2.1 14B T2V с использованием Self-Forcing, техники преобразования диффузионных моделей в авторегрессионные модели. Преобразование, а не обучение(дорого), поэтому и дистилляция.

Тут главная фишка в том, что в обычных диффузионных моделях, надо ждать, когда "проявится\расшумится" все видео. А в авторегрессии, можно получать каждый кадр (пачку кадров) прям в процессе и начинать их стримить (подобно выводу текста в чат), не дожидаясь окончания всей генерации.
Как следствие: юзеры могут изменять подсказки в процессе генерации, мгновенно менять стиль видео и просматривать первые кадры за 1 секунду.

С реалтаймом они отчаянно читерят:
11 кадров в секунду на 4 шагах и гроцессоре NVIDIA B200(!).
Заявляя что это САМАЯ большая реалтаймовая модель видео в мире.

Уже можно попробовать на fal.ai (причем также video2video)

Я попробовал (это Wan 2.1, без иллюзий), щас покажу, а пока смотрите сладкия черрипики от Krea и читайте тех отчет тут:
https://www.krea.ai/blog/krea-realtime-14b

Есть код: https://github.com/krea-ai/realtime-video
Модель тут: https://huggingface.co/krea/krea-realtime-video


@cgevent

Читать полностью…

Метаверсище и ИИще

FlashWorld: High-quality 3D Scene Generation within Seconds

А вот интересная опенсорсная ответочка от Хуньяньского на генерацию миров.
Тут правда под капотом гауссианы и качество среднее, но при этом авторы клянуцца, что генерят 3DGS-сцену на 5 секунда на "single GPU", что в 10-100 раз быстрее предыдущих методов.
Для гиков может быть интересно, код есть:
https://imlixinyang.github.io/FlashWorld-Project-Page/

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

Автор: Павел Жигарев | Noizlab
4K версии : 1 и 2
Telegram

🎬 Эксперимент: создание AI-кино трейлеров на open-source модели Flux ⏱️ Срок: 8 недель в совокупности. 💡 Как началось: пришла идея а можно ли сделать «настоящее» КИНО с актерами в их «прайм» форме и без цензуры, Midjourney и все остальные нейронки не позволяли этого из-за цензуры и прав ,да и консистентность от кадра к кадру оставляет желать лучшего .. — поэтому тут было решено - только кастомные решение , только хардкор!. Взял самую сложную задачу: «молодой» Арнольд в образе Конана с полной экипировкой под эстетику 80-х. Так же у меня есть своя “кино” модель Flux обученная на нескольких тысячах кадров из фильмов что сделало картинку более “киношной”


Где было сложно : Ручной inpaint/upscale каждой детали костюма (ремни, бляхи, мех, шнуровка) — чтобы ничего не «плавало». Полировка лица на проблемных кадрах. Без этого консистентность разваливается.
Сделал около 3000 генераций видео чтобы отобрать самые лучшие дубли.. это очень долго и муторно..

🚀 AI Стек:
Prompts - мой ChatGPTs
SwarmUI - Основной Хост.
Finetuned
Flux.dev + Kohya_SS (Dreambooth для finetuning)
ComfyUI - Batch Second Pass Upscale
Editing: Krea
Flux.dev (быстро дешево)
VideoGen - Higgsfield AI, Kling 2.1 start/end. Hailuo-02 (action), Seedance Pro (статика)
Final Cut Pro + Плагины
Face Fusion (полировка лица)
Topazlabs (Upscale 4K)
ElevenLabs - диктор озвучка
Музыка - Custom

Музыка и звук:
Отдельное внимание было к саунду так как в осноном все забивают на это Музыку для обеих роликов писал сам. Более того это был мой первый опыт написания классической и трехмерной мызыки а так же SFX тоже был собран с нуля. Так же классно получилось имплементировать заглавную тему Конана от маэстро Безила Полидуриса.

🎯 Финал:
Не претендую на 100% консистентность, но старался сделать Конана как можно ближе к оригиналу . Этим видео хочется показать: в умелых руках ИИ-инструменты + насмотренность + креативные навыки 12 профессий в одном хе-хе + выдержка дают превосходный результат — шаг к настоящему кино на open-source стеке, от омоложения актёров до возрождения франшиз.
Если интересны подробности о проекте и как AI становится рабочим инструментом, а не генератором мемов — присоединяйтесь мы про ИИ Кино и чуть-чуть про мемы )


@cgevent

Читать полностью…

Метаверсище и ИИще

Will Smith в Veo 3.1

Мне кажется, это уже AGI...

Тут и звук, и макарон на.

Сколько Виллов Смитов дадим?

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

Мне всегда нравился жанр роад-муви — дорожное приключение, как правило, двух друзей или напарников. Когда вышел сериал "Настоящий детектив" с Макконахи и Харрельсоном я параллельно читал «Одноэтажную Америку» Ильфа и Петрова. И как-то так меня вдохновили две эти вселенные плюс другие подобные фильмы и сериалы, что я написал короткий сценарий. А точнее синопсис, как бы мог выглядеть такой мэшап. Сейчас одним предложением его можно охарактеризовать так: советские писатели оказываются втянуты в игру спецслужб, где есть место и высоким технологиям, и мистическим культам США 1930-х. Написал пару листов и забыл, так как таких набросков было не мало.

Периодически по работе моушн-дизайнером и для своих творческих проектов я создавал либо мультяшные истории со скелетной анимацией, либо какие-то коллажные ролики в стилистике перекладной анимации в After Effects и Adobe Character. Делал клипы, мультики по типу Масяни и тд, но быстро к ним охладевал, так как не было обратной реакции, а времени и сил уходило немало. Думаю многим знакомо это чувство. И вот ура, появились нейросети и увидеть воплощение своей идеи занимает пару нажатий (по крайней мере так думают заказчики). И вот как я делаю эти пару нажатий: пишу сценарий в чате gpt, опираясь на первоисточники. Там же делаю промты на шоты, которые генерирую во
freepik.com. С подпиской премиум+ дается безлимит на генерацию картинок, а я в 99% случаев использую i2v. Также обучил характеры своих персонажей, но при генерации они получаются хуже, чем просто прикрепить фото как реф и в промте ссылаться на него. Видео с диалогами делаю Veo 3. Есть артефакты и моменты брака, например слова в ударениях или где-то неправильно буква произносится. В общем, что-то типа 6 пальца, который искушенный человек не пропустит. Но я сознательно не трачу время и кредиты на эти доработки, потому что мне важнее реализовать максимум проекта с качеством 90%, чем один эпизод с качеством 100%. Поэтому если после 2-3 попыток Veo выдает все же брак по голосу - иду в hedra или sync и пытаюсь переозвучить там, поэтому голоса у персонажей "гуляют". Знаю, что можно обучить свою голосовую модель, но пока интонации звучат пресно. Часто сгенерированные картинки редактирую в Фотошопе, так получается быстрее, чем той же нанабананой. Но если нужен поворот предмета, другой ракурс, то есть пересобрать сцену - она прям радует. Ну и общая сборка в Premier Pro - монтаж, работа со звуком, субтитры. Во время монтажа меняется и сценарий зачастую, но на то он и монтаж. На самом деле, никаких хитрых приемов, а скорее уже базовый набор инструментов для дизайнера и концепт-художника. Меня самого сильно привлекают вирусные ролики на повседневные бытовые темы - котики, кассиры, бабульки. Вот как сейчас активно бомбят интернет ролики, сделанные в сора 2. Но моя мечта это делать сложные исторические или фантастические большие проекты. И в будущем вижу ИИ как неотъемлемую часть кинопроцесса.

Для нейропрожарки я прикрепил, слитые в одно видео 6 эпизодов, а вообще они выходят по 1 минуте примерно раз в неделю без строгого графика. По времени 1 эпизод примерно 1-2 рабочих дня (учитывая написанный сценарий) и день на доработку и саунд-дизайн на свежую голову + релиз на площадки, а это тоже время. Всего запланировал 18 эпизодов. Следить можно на всех ресурсах с адресом
@vshtatskom

@cgevent

Читать полностью…
Subscribe to a channel