Канал о сферах CG, Игр и Генератива, все с помощью чего мы генерируем визуальное и интерактивное искусство. Статистику не предоставляю, смотрите на tgstat.ru mentorcampus.ru youtube.com/user/TheThirdDimention Вопросы и предложения: @Evgeniy_Vegera
Сегодня дропнули загадочный тизер по Mass Effect - Epsilon. Ничего, конечно, не понятно, но остается надеяться, что это не будет провалом, как последние пару частей и особенно Андромеда, хоть я и люблю ее за окружение.
Есть также надежда на какие-то новые технологии, вспомним хотя бы лицевую анимацию в Андромеде 😬
Ну и на какие-то процедурные тулзы, т.к. контента пилить для разных планет нужно просто будет как папа карло. Ну и конечно же, я жду, кто первым из разрабов вскроется в применении чат-ботов хотя бы для генерации текста третичных NPC.
Беспилотник в Сан-Франциско внезапно психанул, будьте осторожны, пятницы бывают не только у людей!
Читать полностью…Resident Evil Village запущен на iPhone.
Я всегда говорил, что не нужно ругать мобилки. Есть в среде разработчиков некое пренебрежение к мобильным платформам. Перефразируя, разруха исторически не в мобилках, а в головах.
Apple планомерно выстраивая свою экосистему много лет, позволит, купив одну игру, запускать её на Mac, iPhone, iPad, Apple TV, не теряя прогресса. Если только индустрию не заполонят идиоты, подобные Джону Ричителло из Unity.
С одной стороны, не хотелось бы, чтобы это становилось трендом, но уж больно заманчиво выглядит возможность таскать с собой исключительно мобилу, а не всю плойку, занимая в чемодане ровно половину места.
Чем устойчивее будет связь между платформами, тем быстрее индустрия и движки подстроятся под портирование, тем дешевле и безболезненнее оно будет для разработчиков. Но это все в прекрасной экосистеме будущего.
Очень переживаю, что текста много и он не крепится к видосу, поэтому вот отдельно дичь! Это очень важно)
Читать полностью…Мы приближаемся к диффузии в реальном времени. Real-Time-Latent-Consistency-Model.
Я запустил это примерно в 6 fps, просто из браузера со своего телефона, потому что стримится все равно с сервера.
Экспериментируйте с промптами и скидывайте свои результаты в комменты.
Попробуйте тоже, только дайте разрешение камеры на съемку. Сервер правда частенько лежит из-за наплыва желающих, но вы пробьетесь, я знаю!)
Неплохое начало для понедельника.
Тестить тут.
Еще один пример, но уже более практичный. Правильная обратная связь в виде прожекшена релайта на отсканенную поверхность дает потрясающие результаты.
Сделано под Quest3
Могу поздравить коллег из цеха постпрода, у вас прибавление!
Cuberic - решение, которое закрывает потребности очень среднего постпродакшена в создании сцен и вкомпаживания материала в него. Вы можете сгенерировать сцену, после сегментирования распаралаксить, задвигать как вам нужно, получить Depth map, в общем делать все то, что вы привыкли, только немного быстрее. Даже инпэинт привычный есть.
Теперь давайте к минусам, попробуем взвесить количество итераций генераций против создания трёхмерной сцены с нуля. ⚖ Вот почему я написал "среднего постпродакшена".
Последнее время мы видим все больше инструментов, которые пробуют применить новые подходы для старых задач.
Но как любой инструмент, они не могут закрыть всех потребности, потому что иначе они превратятся в громоздкий, скучный инструмент, как After Effects или Nuke. Поэтому судьба у таких ребят, быть купленными и интегрированными, ну или уничтоженными.
Спокойной вам пятницы, и не верьте всему, что видите!
@CGIT_Vines
Вспоминаю времена из детства, когда хотелось рисовать круто, но я не умел, и тогда брал лист бумаги с готовой картинкой, прикладывал к окну и перерисовывал через просвечивающиеся листы бумаги.
Времена меняются, и подходы тоже. Моторику теперь можно натренировать через MixAR и Quest3. На выходе результат для мозга будет одинаковым.
Также вспомнился стол для классических аниматоров с подсветкой снизу, чтобы можно было прорисовывать кадры, стоящие между двумя ключевыми. Этот артефакт эпохи неолита назывался - стеклофон.
Рабочий пайплайн для презентации своих работ. Не обязательно персонажки. Цена вопроса $5 и только на аппсторе. Снимаем на камеру телефона, перекидывает дату в софт и рендерим. В этом конкретном случае персонажа рендерили в Marmoset, комнату в Blender.
Приложение VirtuCamera.
Есть бриджи для Maya и Blender. Знаю, что вы знаете альтернативные софты и в бесплатном формате и не только для iPhone. Если под рукой, кидайте в комменты.
Божечки, кажется, день удался!
Riffusion - это просто невероятная сетка, которая позволяет написать свою лирику. Вы указываете промпт в каком стиле вы хотите, и на выходе получаете музыку, и это все на весьма приличном уровне скомбайнится!!!
Вокал слышится вполне человеческим, без железного привкуса, музыка тоже звучит чисто.
Короче, сегодня все будут бомбить от этого!"
Кидайте в комменты свои вариации!
@CGIT_Vines
Generative Gaussian Splatting for Efficient 3D Content Creation
Просто держу в курсе, что паниковать по поводу "image to 3D" нет причины. Если надумаете тестить, то лучше закидывайте картинки с хорошей чистой цветовой сегментацией, все вот эти ваши градиенты и блики оно понимает плохо.
UPD: к слову о переводе сплатов в геометрию, тут это присутствует.
После того как Firefly2 дропнул новые модельки, можно оценить степень реализма. Например, руки. Все, никто больше не смеется. Но по глазам все еще можно определить, хоть и не везде.
Честно говоря, я немного чувствую себя неловко, когда накидываю концепцию того, что мне нужно в Dallie 3, а потом обращаюсь за помощью к концептеру, чтобы немного скорректировать под мой запрос.
Генерации не мои, это разные твитерские нагенерили.
А теперь про продукт, который должен релизнуться в начале следующего года - Simulon.
Попробую предположить и не обосраться. После трёх лет разработки нам хотят показать что-то наподобие Wonder Studio, но с другого ракурса. Скажу сразу, информации по проекту очень мало, а особенно про то, что у него под капотом.
У вас должен быть, как минимум, iPhone, чтобы снять видео. LiDAR'ом отсканировать пространство вокруг объекта и втрекать туда персонажа, действие, битву, любой VFX и так далее. Все это как раз считается в облаках.
Картинка рендерится по-честному, с отражениями, тенями, свет ставится на основе HDR-карты, которую получили из видео. Поэтому объекты выглядят втреканными и вкомпоженными.
На выходе вы получаете красивую картинку с интеграцией того, что вы туда засунули.
Вопросов, конечно, больше, чем ответов. Вангую, мы не получим никакого occlusion culling вообще, слабая программная база у ребят, явно.
Когда раздавали инвестиции тем же Wonder Studio, Simulon явно стоял на улице под дождем, грустно стекая вниз по стеклу.
Но конкуренция, конечно, - это всегда хорошо! 😄
Университет Компьютерной графики Юты изобрел свой Nanite для ускорения и сокращения требуемых ресурсов для вычислений при рендеринге.
Адаптивное лодирование в зависимости от расстояния до камеры. В общем, та же история, только при виде сбоку.
Иногда хочется, чтобы прогресс в некоторых областях шел быстрее. Сколько можно заниматься "monkey job" и тратить человеческий ресурс на бессмысленные действия? Мы, к сожалению, упираемся в приоритеты при разработке инхаус движков, чтобы сделать это стандартом и забыть об этой технической стороне. Но подвижки есть, поверьте)
Сорс
Я, собственно, вот что хочу сказать после просмотра ролика, выпущенного перед объявлением открытия предзаказов Смуты по 1621₽.
Т.к. я очень переживаю за состояние индустрии и мне не безразлично, что в ней происходит, пишу этот текст.
У меня, честно, когнитивный диссонанс вызывает видеоряд в сочетании с тем, что игра релизится 26 февраля 2024 года.
Помимо этого у меня почему-то есть очень большие опасения в том, что ребята, которые работают над игрой, работают там в комфортных условиях и получают достойную зарплату.
Также я бы с удовольствием послушал о внутренних процессах, кранчах и, в целом, том, что происходит на проекте. Конечно, в рамках НДА.
Так что я открываю прием заявок от разработчиков, которым есть что сказать мне в личной форме. Гарантирую конфиденциальность и, в случае чего, поддержку. Контакты в описании канала.
Поделитесь с друзьями разработчиками.
Ахахаха ой лол, я не могу)))
У меня парой параметров получился Цыпцын! Прости 😵Считаю это сговор артбридера и Сергея!
В общем, незаслуженно забытый Artbreeder выкатил удобный интерфейс с регулированием параметров, таких как, возраст, цвета, эмоции, украшения и добавил еще отдельные группы, где можно превратить что угодно в еду и другие предметы, зачем? Потому что можем!)
Знаю, что большинство параметров существовали до этого, но UI не стоит на месте!
🌡 Генерация моделей еще на один китайский шажок ближе.
Иногда выскакивают такие вот миражи, сами модели выглядят просто на голову выше всего того, что генерили ранее, и геометрия и текстуры прям хороши. Но на самом деле не совсем понимаешь, что получится на релизе и вот почему.
Во-первых, это китайская компания Deemos, которая занимается созданием всего генеративного, ориентированная на B2B. Тут и дипфейки лица и дефолтный генереж двумерных тян и релайты и face reconstruction. У них большой штат, который скорее всего может состоять из армии джунов, которые будут допиливать ассеты, видели мы такие бизнес-модели. Но время покажет, может я и зря быканул.
Положительный момент, что компания основана на базе шанхайского университета науки. Тут хорошо бы поучиться такому дикому предпринимательству.
Если все действительно как показывают, то по ощущениям, в Китае не будут переживать, как в Европе, за комфорт сотрудников. Уволят к Hui'ям, впрочем, как и в Америке. А рядовой 3D-шник пойдёт искать свою миску риса.
Попробовать пока не где, можно только записаться в вейтлист.
Осторожно, сайт у меня аж вылетает на мобилке, возможно так сильно партия сканирует мои данные🖕
😵Почему происходят проебы?
Как часто ваши собеседования или рабочий процесс в целом не приносят ожидаемого результата? Вы завалили собес или ненавидите коллегу.
СНГ да и в целом индустрия CG и IT славна своей токсичностью и забиванием хуя на элементарные нормы ведения этики внутри компании, отношения к сотрудникам, даже в крупных компаниях. Что приводит меня в ебейший ужас.
Но поговорим о том, что если с компанией в целом все хорошо.
Однако, по каким то причинам вы не прошли. Например, по хардскиллам, тут вы можете догадаться, так как скорее всего вы знаете на что способны, какими навыками обладаете и что можете на себя взять .
В конце концов есть тестовые задания, по параметрам которого точно станет понятно, подходите вы под критерии, и сами видите какие скилы в себе стоит доточить.
Но что делать, если вы уверенный в себе специалист, понимаете, что подходите под должность, но все равно не получаете работу или теряете ее? Ответом может быть то, что вас посчитали не сочетающимся либо с политикой компании либо с работой в коллективе, и в целом сотрудником который принесет или приносит больше проблем чем пользы.
🟡Проблемы могут быть связаны с работой в команде и отношению к помощи другим, открытости или способности адекватно воспринимать фидбек.
🟡Или неспособностью решать стрессовые задачи связанные с концентрацией и гибкостью, способностью подстраиваться под новые вводные.
🟡Сложностями с анализом входящей задачи и самоанализом в частности. Адекватной оценки своих способностей, умением уложиться в эстимации, заранее предупредить, если не успеваете.
🟡Способностью находить решения нестандартных ситуаций. Если не уверены, спросить вовремя, у коллег или у лидов, находя баланс между R&D и эффективно затраченным временем.
🟡Умением управлять своими эмоциями и эмоциями других. Эмпатия и умение разделять рабочее и личное. Навык разрешения конфликтов. В целом это об эмоциональном интеллекте.
Пунктов тут могло быть и больше, но для этого есть отдельные книги, стримы и подкасты.
Этим постом я просто хотел напомнить о важности развития этой части личности, т.к. иногда приходится сталкиваться с незрелостью или запущенностью даже на высоких должностях. Если у вас в компании явные ценностные расхождения, то это повод задуматься, как руководству так и сотруднику.
Ребята из Synticate были одной из первых дизайн-студий, кто начал работать с нейросетями.
Посмотрите, какое арт-видео они создали для фестиваля креативных индустрий G8 c помощью Stable Duffusion. Они назвали этот стиль neuro motion.
Подписывайтесь на их телеграм-канал - там можно найти работы для вдохновения, полезные материалы для CG художников и просто забавный life-контент внутренней кухни студии.
Реклама «ООО Синтикейт» erid: Kra23Xfkt
Обожаю такие прототипы, щепотка взаимодействия и погружение вырастает экспоненциально.
Теперь главное не засрать пространство, случайно разархивировав все на рабочий стол.
Умение концептеров делать часть работы в 3D, довольно давно стало обязательным, хотя все еще встречаются "откровения" и споры в туторах и курсах о нужности этого навыка.
Генерации разного вида решают одну из основных задач в концепте - это скорость итераций.
Концентрирование, наверное, одна из областей, которая за последние 20 лет точно претерпела изменения больше, чем все другие области вместе взятые. Казалось бы, старички должны были уже приспособиться к такой степени неопределенности в профессии.
Дело в том, что все изменения не касались непосредственно скилла рисования, построения композиции, чувства прекрасного, в целом.
Стоит ли переживать за то, что части изображений теперь можно получать быстрее, с правильным светом и перспективой? Концептеры, как изменилась ваша работа?
В видео использовали TensorRT with SD 1.5 и SDXL. И Kitbash набор.
Буквально сегодня выкатили работу по процедурной генерации трехмерного окружения 3D-GPT.
Генерации строятся на LLM и супер подробном описании всего, что можно описать. От размера и степени эрозии почвы горных хребтов, до параметров кривой образующей лепестки Герберы. Буквально до диапазона сантиметров с описанием градиента цвета и отношения пропорций лепестков к пестику.
Все прекрасно уже понимают объемы контента, которые потребуются закрывать в будущем, поэтому основная задача - сократить количество ручной работы художников, да-да, мы никуда от этого не денемся.
Создание локаций выглядит привычным образом, через текстовый запрос, который интерпретируется многоступенчатой структурой описания, далее геометрия подается в Blender для трассировки лучей и вывода рендера.
На данный момент проблема заключается в том, что сделать очень сложные модели в textTo3D пока представляется маловероятным, по крайней мере, в контексте этой работы. Но я уверен, что это на себя заберут отдельные модели, может даже Adobe или его конкуренты.
Информации пока крайне мало, и потрогать пока ничего не дают.
В 24 году нам обещают стартапы с AI ассистентами. Кроме тех, которые будут помогать вам с учебой, бизнесом, путешествиями и т.д., будут и те, которые заменят вам вторую половину.
Виртуальные инфлюенсеры уже сейчас генерируют около $70k в месяц. Посещения страниц инфлюенсеров насчитывают до 151 миллиона в месяц.
Но подводные камни совсем не в том, что Тян больше не будут нужны, а в том, что это будет персонификацией ИИ настолько универсального, что вы отдадите ему все, даже свою способность формировать свое мировоззрение.
Супер-апп, который будет новым интерфейсом взаимодействия со всем цифровым. Он будет настолько удобным, что вы не захотите пользоваться ничем другим.
Это упростит буквально все, оплату, распознавание изображения, помощь в формировании вашего путешествия, посещение театров, ресторанов, заказ еды и товаров. Если вы согласитесь отдать ему свои данные, он будет работать еще лучше. За это нужно будет заплатить, вы согласны?
Отдельно ещё хотелось бы сказать о супер удобной фиче "prompt genius".
Когда вы прибываете в ступоре, она допишет за вас недостающие промпты, основываясь на ваших вводных.
Как хорошо, что мысль разработчиков пошла в эту сторону. Не для того мы эволюционировали, чтобы ещё промпты для роботов писать! 🤌
Еще из наблюдений, не пишите в прямую исполнителя песен, за это в развитом мире по голове дают, напишите хотя бы "Elvis-inspired", так никто не догадается 😄
Ну и конечно, оцените, какой я романтический дроп сделал для вас, мои дорогие, аж вспотел.
А вот это занятная реализация релайта, посредством сегментирования и замены фона, а также перевода актора в PBR пригодный формат для рендеринга.
К сожалению, пока далеко не в реальном времени, крутится при 2-3 fps, пока просчитываются текстуры, на Nvidia 6000 Ada. После крутится чуть бодрее, но все еще не в реальном времени.
Когда-нибудь наступит момент осознания, что люди с экранов на государственном уровне были полностью синтезированы и управлялись AGI. Пелевину привет!
Основано на этой работе.
Есть, в общем, такая продакшен-студия - Bad Decisions. Они чем-то напоминают или даже копируют Corridor Digital, но суть не в этом. Они сильно захайпились последнее время за счет переноса известных сцен из кино в 3D через использование Gaussian Splatting. Тут они перенесли фильм Shining, так же в полном видео есть Матрица, Бесславные ублюдки, Асасин и Гарри Поттер.
Я честно не могу сказать, что это прям очень частая потребность в 3D или кино-продакшене (я именно про перевод из кино-материала в 3D), но эффект производит интересный. Ладно, может быть есть польза данных траектории камеры и может быть для Deep композа удобно имплементировать материал.
Можно еще попробовать повытаскивать из игр данные, но тоже не понятно для чего, т.к. есть инструменты более удобные для того, чтобы вытащить оригинальную геометрию и текстуры сразу. (Поправьте, если еще видите какую-то киллер-фичу, которую я не углядел)
Google запрыгнул в AI Train. Вслед за Bing, они предоставили возможность генерировать картинки по запросу прямо из поисковой строки. Также можно создавать подобные картинки на основе любой выбранной из поиска.
Конечно, как любая корпорация, они позаботились о безопасности всех, поэтому никаких легушат Пепе, управляющим самолётом, летящим в башни близнецы, там не сделать.
Также там есть ограничение по возрасту 👀 и метки, которые будут говорить, что это AI.
Пока доступ только для избранных, но скоро раскатают для всех.
Кстати, Bing справляется на отлично с генерацией первого порядка, когда вы только ищете идею. Я в своём пайплайне уже использую.
Несмотря на то, что экономика хайпа делает скорее зло, чем добро в неумелых руках, AR индустрия продолжает работать над ошибками даже на низких оборотах.
Одной из главных проблем является слабая аппаратная часть, не способная делать "сложные" PBR просчеты и другие множественные вычисления в реальном времени, такие как трекинг с использованием различных технологий, костылей и хитростей.
И в таких случаях мы вынуждены будем прибегать к облачным вычислениям. Только в этом случае результат становится хоть сколько-то сносным.
Вопрос лишь в том, придут ли облака на время, или нам уже не позволят выполнять все это локально? Не очень хочется и тут отдавать ЦОДам скрытые проценты.
Невероятно, что вытворяет Pikalabs. Они сейчас единственные, кто выдаёт настолько качественный контент.
Уже чувствуется острая потребность в плагинах в стиле Controlnet с поддержкой мокапа лица и возможностью управлять камерой.