Канал о сферах CG, Игр и Генератива, все с помощью чего мы генерируем визуальное и интерактивное искусство. Статистику не предоставляю, смотрите на tgstat.ru mentorcampus.ru youtube.com/user/TheThirdDimention Вопросы и предложения: @Evgeniy_Vegera
сдохла sdxl turbo + tensorrt = 50fps @ 4090
Видео не ускорено. Теперь инсульт доступен и в реалтайме,
what a time to be alive!
Забавно, что при такой скорости боттлнек уже на фронтенде.
тред
@derplearning
С тех пор, как Unity обосралась со своей новой бизнес-моделью, Godot не оставляет надежды занять освобождающееся место и показывает реалистичные демки со сканами и модной системой освещения SDFGI Lighting.
Лайтинг основан на дистанс-филдах, как в UE, но пока не умеет в окклюдеры и эмиссивные поверхности, при этом свет динамический.
А помните время, когда Blender не воспринимали всерьез и говорили, что это не стандарт индустрии? С Godot вполне может произойти то же самое.
У меня, к сожалению, не хватает времени на изучение нового движка, поэтому я к вам, комьюнити, хочу обратиться. Напишите, пожалуйста, в комментариях о плюсах и минусах Godot. Может ли он составить достойную конкуренцию Unity и UE?
SceneTex - интересная работа, которая берет наработки в области генерации text2img и прожекта на геометрию. Из опорной стены архвизеров выбили еще пару кирпичиков.
В этой работе постарались решить довольно крупную проблему согласованности пространства для генерации. Когда прожект идет на отдельный объект, проблем почти нет. А когда у вас стул или диван стоит на полу, то велик шанс залететь с текстурой дивана на пол или стену.
Тут получилось избежать подобных проблем, в видео как раз показана работа конкурентных алгоритмов с подобными проблемами.
Дело за малым, либо продать наработки, либо самостоятельно довести до релизного продукта. Одно из двух обязательно произойдет.
Описание
Видео
⬆️Риалтайм рисовалки растут как будто их тоже кто-то генерирует (кажется, люди начинают догадываться, что AGI уже тут и сам себя распространяет).
Для бесплатного входа используйте код: JAVILOP или LINUS
https://www.freepik.com
⬆️У Krea.ai появился апскейлер, который добавляет деталей, если вы сдвигаете силу воздействия генерации в большую сторону. Особенно интересно работает с лицами, попробуйте свое лицо. В итоге попадете либо в зловещую долину, либо просто почувствуете странное ощущение, потому что почти все черты сохраняются, но минимально меняются уголки глаз, носа, рта, лба, и вот это уже как бы не вы, но глазом не сразу понятно, что изменилось.
https://www.krea.ai/apps/image/enhancer
Новостей иногда падает столько, что выделять под каждую отдельный пост кажется нет смысла, к тому же не то чтобы прям прорывные обновления выходят.
Это на сегодня лучшее, поэтому идет первой.
🤕Онлайн-рисовалка с реальтайм-генерацией ваших каляк. Боги, что за нейро-мета-ирония, теперь мем про сову стал реальностью. Масттрай.
https://drawfast.tldraw.com/
🤕Неофициальный sdxl-turbo. Соревнуемся в промптировании быстрее генераций.
https://huggingface.co/spaces/diffusers/unofficial-SDXL-Turbo-i2i-t2i
🤕Апскейлер, который не просто улучшает качество, а добавляет детали. Не дают попробовать бесплатно, сразу просят подписку. Сомнительно, но окей.
https://magnific.ai/
Тренды последнего месяца стремятся к реальтайму, а это значит, что алгоритмы оптимизируются и скоро будут совершенно дешевы в вычислениях. Следующим этапом необходимо решить проблему с коэффициентом диффузной стабильности, чтобы картинка не рассыпалась при каждой генерации, ну и выводить на рынок носимое устройство и жить в дивном новом мире.
Кстати забыл с вами поделиться, такие видосики из статичных картинок можно погенерить ниже по линку like stable-video-diffusion.
Сорс
Я первый раз, когда увидел ролик, была надежда увидеть какой-то новый движок — звучит еще модно: StarEngine.
По сути, это же модификация Lumberyard, который когда-то был CryEngine. История там запутанная, и в открытых источниках сложно найти информацию из какой же версии Lumberyard или CryEngine был собран StarEngine.
Но отдельные фичи этого движка действительно были бы полезны для ресерча и имплементации в другие известные нам движки. Понятно, что часто функционал дописывается под конкретный проект, например, бесшовная загрузка целых планет при входе и выходе из атмосферы. Starfield тихо рыдает в сторонке. Система света, исторически не использующая лайтмапы (еще задолго до Lumen), выглядит зачастую в разы лучше того, что можно получить на любом другом движке. Об остальных фичах смотрите в получасовом ролике о возможностях. Оно того стоит!
На самом деле, что-то мне подсказывает, что в ближайшее время, видимо, в начале 24 года, мы увидим, возможно, некоторые сюрпризы, которые готовит для нас Crytek. Но я вам ничего не говорил ⏫
Видео полностью
Наша команда трудилась-трудилась и выкатила две крупные (во всех смыслах) модели в релиз! 😧
➡️➡️➡️ Kandinsky 3.0 для генерации изображений и Kandinsky Video для генерации видео
Познакомиться и найти все ссылки можно в статьях на Хабре. Здесь про Kandinsky 3.0, а здесь про Kandinsky Video.
Ставим лайки, делаем репосты, а админ этого канала запасается ящиком энергетиков без сахара на следующий релиз. Как говорится, stay tuned. 🦔
8 декабря в пространстве «Суперметалл» в Москве пройдет долгожданная встреча представителей игровой индустрии PROTOTYPE vol.1/23
🎙К дискуссиям присоединятся спикеры ведущих профильных компаний: Astrum Entertainment, VK Play, Owl Studio, Innova, Esprit Games, NAU Engine, Geeky House, Saber RS, Vengeance Games LLC, RuStore, ассоциаций АПРИОРИ, РВИ и других.
Мероприятие пройдет в формате дискуссий и выступлений в стиле TED и объединит около тысячи представителей игрового сообщества. Вот некоторые из заявленных тем:
🗺 Российские проекты на мировом рынке: Дискуссия о российских проектах на мировом рынке и особенностях их продвижения, о партнерах и планах на взаимодействие.
🎮 Инди-разработчики: Дискуссия об инди-разработчиках, проектах, успехах и неудачах в условиях кризиса.
🛠 Игровые движки и софт: Дискуссия о том, что сейчас происходит с мировыми игровыми движками и какие перспективы зарубежных движков в России.
📊 Маркетинг и продвижение в геймдеве: Дискуссия об инструментах и трендах маркетинга и продвижения в геймдеве.
Подробная программа и бесплатная регистрация по ссылке: https://clck.ru/36eSNa
#реклама
Давайте проверим ваш глазомер, сколько тут CG?
У меня больший восторг вызвала не сама виста, а этот милый домик из "Американской мечты" посреди индустриальных конструкций и зданий.
Вы, наверняка, уже где-то цепляли взглядом новости о Krea.ai, которая позволяет делать генерации в реальном времени, просто добавляя на канвас минимальное количество деталей.
Это новая фича, которая пока не доступна для использования всем, но там есть один интересный нюанс, который позволит на вход подавать не только ваши каляки, но и стриминг с камеры и потенциально любой другой стриминг.
Генерация потокового видео удовольствие дорогое, поэтому, скорее всего, оно и войдет в Pro подписку.
Для регистрации пользуйтесь кодом KREA-FRIENDS
, спасибо Uxlive
Из интересного там еще есть возможность тренировать свои датасеты. Пока не пробовал, но все еще грежу надеждой получить сносный генератор текстур. Как протестирую, отпишусь.
Как вы отнесетесь к появлению AI NPC?
Microsoft в лице главного менеджера по игровому ИИ подразделения Xbox сообщила о сотрудничестве с Inworld.
Прямым текстом говорится:
"Мы видим мир возможностей для ускорения творчества разработчиков игр, уменьшения сложности и улучшения пользовательского опыта"
Ну, вы поняли, в первую очередь кому нужно будет доучиваться.
Будьте уверены, если что-то становится достоянием общественности, то что-то подобное уже, как пару лет пилится инхаус у крупных девелоперов.
Диалоги, квестовые цепочки и создание историй словно двигались к этой автоматизации, вы понимаете, если видели когда-либо нарративные графы.
У меня вопрос, который я уже поднимал тут. Вы ок с тем, что будете общаться и взаимодействовать с полностью сгенерированным игровым нарративным контентом в будущем? Все диалоги, все общение с вами, все побочные квесты, все записки будут сгенерированы. Условно у вас будет ИИ, как в West World, который будет ограничен рамками мира, в котором он находится.
Я вчера попал в подборку на DTF, составленную моими друзьями из геймдева. Там есть много каналов, с владельцами которых я знаком и сам их читаю. Так что советую! Обязательно лайкните! Выйдем в топ и поднимем геймдев с колен!
Далее хочу приветствовать тех, кто только присоединился, welcome to the family 😀
И заодно сообщить, что более узкопрофильно по индустрии можно пообщаться у меня в дискорде MentorCampus, показать свои работы, в том числе для получения фидбека, по разным направлениям, от инвиры до тачек.
Также там сидят много крутых художников, но они, как правило, либо в кранчах, либо готовятся кранчить, либо умерли 😀
Что-то я совсем забыл про рубрику "от СОЗДАТЕЛЯ "
Открывайте форточки, я буду душить.
Я, конечно, не фанат лысой железяки из 80-х, но хотел бы защитить разработчиков от нападок со стороны бдящей общественности. По сети ходят фотки моделей турели из недавно вышедшего Robocop: Rogue City. Якобы разрабы расслабились опять и делают неоптимизированные модели.
Дело в том, что технологии двинулись вперед, и при разработке игр на UE с использованием Nanite не обязательно оптимизировать все до состояния Совы. Можно использовать и очень полигональные модели и комбинировать подходы между собой, используя и лоуполи, и мидполи, и хайполи.
Концепция переноса стиля в AdobeFirefly.
К текстурированию, в самом деле, тоже есть вопросики. Этот подход, конечно, не закрывает всех потребностей, но дает укорение на некоторых этапах.
Стоит разделить текстурирование на basic и advanced. Для первого варианта это идеальное решение, для второго можно использовать как базу с дальнейшей доработкой.
Причем важно в экосистеме Substance держать в доступе фрагментированную версию материала, чтобы был доступ к редактированию. Но вряд ли это реализуемо.
Таким образом, это будет прекрасным инструментом в рекламе, например, где нет потребности в хардкорном текстурировании.
🛠 Составил для вас кринж рейтинг лучших игровых персонажей... ну, с некоторыми улучшениями.
Узнали, согласны? Кого я пропустил и кого можно было бы добавить, кидайте в комменты. Хороших вам выходных! 🥰
🚀 Вывод российских геймдев разработчиков на мировые рынки!
Центр развития креативной экономики АСИ запускает акселераторы с целью вывода российских геймдев-разработчиков на зарубежные рынки. Первый акселератор будет ориентирован на азиатские рынки, в частности, Китай. В рамках программы помощи 30 компаниям предоставят обучение, экспертную поддержку и возможность установить контакты с партнерами из дружественных стран.
🎮 Главная задача акселератора - разработка видеоигр с зарубежными партнерами и совместное продвижение игровой индустрии. Участники программы получат знания про экспорт в страны Азии и БРИКС+, создадут стратегии совместного производства игр и смогут представить свои проекты на крупных международных форумах.
🌍 Результаты акселератора будут представлены на Петербургском международном экономическом форуме, Восточном экономическом форуме и саммите БРИКС. Также планируется распространение опыта и результатов программы на другие страны.
Это отличная возможность для российских геймдев разработчиков расширить свои границы и выйти на мировой уровень! 🌟
Ну и щепотка LLM от китайской компании DeepSeek. Работает на трансформерах и только с текстом. Вообще, конечно, забавно, что большое количество языковых моделей явно будут продвигать политику и взгляды той страны, в которой она была разработана.
Отсюда нужен фреймворк, способный запрашивать данные из разных моделей и выводить тебе факты с поправками на географию и пропаганду.
Чат с открытым исходным кодом.
67 миллиардов параметров.
2 триллиона двуязычных токенов.
Базы до ноября 22 года.
Хотите стать pro в нейросетях и зарабатывать на своем творчестве - вам в Phygital+, в котором собраны все самые топовые нейронки:
Midjourney, DALL-E 3, Stable Diffusion Xl, Control Net, обучение своих моделей Lora и Dreambooth, ChatGPT4 и GPT4-Vision, а также еще 20 AI тулзов и все они могут соединяться и сочетаться друг с другом, позволяя вам контролировать каждый шаг, создавая потрясающие работы.
Также в Phygital+ больше 40 кастомных моделей Stable Diffusion, готовые темплейты и туториалы.
Большинство моделей бесплатны, но для тех, кто хочет полную мощь всех нейронок сейчас в Phygital+ с чёрная пятница по промо-коду CGIT скидка 50% на любой тарифный план.
Можно оплатить с российских карт🔥
Го, тестить.
#реклама
Ты еще не научился делать ровную, аккуратную сетку, а Mesh GPT уже взяли на работу.
Что интересно, генерации происходят на базе LLM-модели, обученной на выборке с готовыми моделями. При разработке стремились добиться схожих результатов с тем, как обычно художники производят этап Lowpoly.
И тут я вижу проблему вот в чем. С одной стороны, цель благородная: облегчить, автоматизировать один из этапов производства. С другой, этот этап настолько заебистый, и столько входящих параметров нужно учитывать, чтобы действительно по требованиям сделать эту лоупольку, что, казалось бы, нет смысла это автоматизировать.
Т.к. помимо пайплайна Lowpoly+bake существуют и другие: мидполи, с фасками, без фасок, через USD с сабдивами, nanite и другие, которые, как я очень надеюсь, вытеснят со временем все остальные. Пока что я вижу, что так и происходит, проблема только в том, что не все движки нативно поддерживают эту технологию.
Пока алгоритм оптимизируют и доведут до потребностей реального продакшена, переход уже произойдет.
Если с самим принципом построения мы разобрались, то сама идея генерации через LLM дает куда более точные результаты, чем через те же поинтклауды. Грани мы имеем более четкие, что важно для хардсерфейс объектов. Тут под хардсерфейс я имею в виду любые твердотельные объекты, включая мебель, тоже туда же, не органические формы в целом. Вопрос только в том, может ли этот подход также эффективно работать с более органическими формами.
Читать подробнее
Видео
Вот в порядке бреда! Гипотетически у нас есть способ забирать импульсы из мозга, также у нас есть сети, которые, "как говорил Хуанг", будут генерировать каждый пиксель. Они, в теории, смогут генерировать контент, опираясь на какое-то подобие инпута, состоящего из наших импульсов (аналог промптов). Как скоро мы сможем сделать себе персональный рай или ад? Или просто уйти в галлюцинации?
Ладно, давайте просто опустимся с небес и попробуем предположить, возможен ли просто генеративный обещанный Хуангом игровой мир. В теории алгоритмы генерации окружения с получением глубины для проджекта уже есть. Алгоритмы проджекта текстур на генеративную геометрию уже есть (пример). Алгоритмы расстановки (дрессинга) на локациях уже есть (PrometheanAI). Автономные AI-driven агенты уже есть. Музыка, тексты, генерации квестов есть. Материала для обучения тонна, игр за последние 30-40 лет понавыпускали достаточно.
Тут важно понимать, что я говорю не о готовых решениях а о возможном развитии создания развлекательного цифрового контента.
Да, все это с большой оговоркой, да, сейчас собрать это все воедино мало кому под силу, скорее даже некому. И это вообще не перспектива ближайших 10 лет. Но сам вектор человеческой мысли и дорожка, которую мы себе прокладываем, с одной стороны, меня радует, а с другой стороны, я понимаю, что мы бредем по этому лесу и однажды упадем в медвежий капкан, который сами же себе и вырыли.
На видео генерация FPS в SD
⬆️2 декабря Epic собирается запустить в Fortnite следующий крупный эвент "The Big Bang", который будет посвящен концерту Eminem.
И это, на самом деле, событие, и то, что делают эпики каждый раз на эвентах, стоит того, чтобы установить в очередной раз дистрибутив и поприсутствовать на нем.
На всех прошлых я присутствовал и не пожалел, также ставил игру, потом после эвента удалял. По сути, эти эвенты — это единственное такое крупное событие в цифровом мире. Музыканты за один такой эвент, который длится 1-2 дня, получают инкам, равный их годовому обороту концертной деятельности.
Кроме повышения прослушивания на стримингах, узнаваемости бренда музыканта, огромную роль играет продажа внутриигровых предметов, созданных специально к эвенту, в том числе скины музыканта и другие украшательства.
С сегодняшним анонсом от StabilityAI версии для генерации img2video, мы получим рост инструментов для создания и модификации видео.
Да, у нас уже были Runway, Pika и другие подобные инструменты, но возможность тонкой настройки, большого комьюнити и возможность допиливания модулей, это лучший бензин для продукта.
Изменение парадигмы создания VFX для low и middle сегмента почувствуют это на себе в полной мере, трекинг, маскирование и сокращение времени генерации для разного рода эффектов, это то что ждет нас в ближайшее время.
В видео несколько примеров того, что можно будет делать в разы удобнее и быстрее. Промпт, футаж и матирование основные инструменты new wave.
В общем, в видосе не было ни капли графики! Все ракеты тоже настоящие! Запуск Starship начнется через полтора часа.
К слову, там тоже не будет ни капли графики, наконец-то сможем вживую увидеть плоскую землю!
Смотреть тут.
Чем отличаются тонны сгенерированного однообразного контента от контента, который генерируют люди, понимающие ценность визуального?
Умение применять накопленный опыт под новые инструменты и в новых обстоятельствах, понимать тренды и триггеры, удивляющие восприятие. Понимание человеческих слабостей и умение ломать привычный ход вещей.
Так получилась реклама магазина нижнего белья для бабушек от (VOGUE). Кайфую от белья, от бабушек, шучу... не от белья. 🏳️
🎣 Во время Bloomberg New Economy Summit в Сингапуре, фаундер DreamWorks, Jeffrey Katzenberg, заявил, что самыми подверженными влиянию от AI сферами будут сфера развлечения, медиа и интернет, само собой.
С одной стороны мы получим новые прорывные инструменты для создания контента, с другой — это удешевление и переосмысление того, как этот контент создается. Если раньше для создания мультфильма требовалось, условно, 500 аниматоров, то в перспективе не потребуется и 10% от этого количества, чтобы создать нечто подобное. Сроки производства тоже сокращаются, говорит он.
Но, с упрощением с одной стороны, приходит усложнение с другой. Из-за этого сроки только растут. Мы не можем делать фильм, игру или мультфильм таким же по наполнению и качеству, как и 10 лет назад.
Сложность производства и количество контента растет пропорционально упрощению его создания.
Я всегда повторяю это. Это уже произошло в игровой индустрии, когда люди смогли делать игры в одиночку, когда количество иди команд выросло экспоненциально, крупные студии выбрали модель "недосягаемости".
Пользуясь своими безграничными ресурсами, они стали делать игры, которые не под силу не одной инди-команде. Эта стратегия позволяет им продавать игры по 5-10 лет, обновляя их и поддерживая на плаву, пока разрабатывается следующая. (RDR, GTA, COD, ASSASSIN и т.д.)
И зацикливаясь на свои же прошлые посты, в который раз напишу, что только своевременные знания и "широкие ноздри", способные учуять ветер перемен, помогут оказаться в нужном месте, готовым рискнуть и сделать то, что другие не могут или еще не успели.
Runway представил MotionBrush с возможностью рисовать маску на области изображения для генерации движения (динамики).
Хочу себе такую же, на случай, если меня когда-нибудь парализует.😬
Забавный ответ поучил пользователь GPT на запрос о создании блюпринта на UE:
"how do I get the normal between two 3d points in unreal blueprint"
По итогу чат выдал, кроме самого ответа, базу данных с логинами, паролями и IP адресами с сайта EA.com.
Дивный новый мир!
Сорс
#реклама
DarkGPT – некоторые AI решения, о которых вы могли не знать. И лучше бы не знали.
😈 AI-Детектив – бот, встроенный в легендарную библиотеку Кибердетектива. Бесплатный и очень опасный. Уверен, вы не захотите, чтобы он оказался в руках ваших врагов или конкурентов.
😎 HackerGPT - бесплатное обучение применению GPT для хакинга. Теперь, чтобы стать опасным хакером не надо долго и упорно учиться - это плюс, минус - инструмент может оказаться в руках отморозков.
🙂 А вот представьте, если кто-то сделает агентов-хакеров на основе того же MetaGPT. Страшно.
Майки на днях анонсировали выход инструментов для разработки игр на основе ИИ.
В сети ожидаемо завалили вайнами такую инициативу. Опять всех уволят и кушац будет нечего. Казалось бы, за последние годы всем должны были набить оскомину эти разговорчики, но нет.
Людям просто нравится ныть, причём по любому поводу. Сокращения в индустрии также подогрели почву. Один из самых тупых поводов для нытья – это то, что всё это скажется на качестве игр. Ну скажется и скажется, капитализм предоставляет очень удобный инструмент голосования вашими деньгами, не нравится – не покупай. Рынок развернёт действительно неудачные решения.
Да, сейчас эти инструменты не настолько идеальны, насколько будут отточены через 5-10 лет, но мы неизбежно движемся в направлении взаимодействия и коммуникации с ИИ. Отказываться от этого так же глупо, как отказываться от электричества. Дайте время, и оно будет использоваться не только для лампочки, висящей одиноко посреди деревянной избы.
Ролик-презентацию смотрите тут