Канал о сферах CG, Игр и Генератива, все с помощью чего мы генерируем визуальное и интерактивное искусство. Статистику не предоставляю, смотрите на tgstat.ru mentorcampus.ru youtube.com/user/TheThirdDimention Вопросы и предложения: @Evgeniy_Vegera
Настало время еще раз вернуться к этому великолепному произведению.
Без визуального ряда, конечно, он не был бы настолько сильным. Хорошей недели 💀
Клип полностью
Вчера вышло обновление для Yandex браузера с опцией краткого пересказа видео.
Ну я, в общем, решил пойти попробовать на своих стримах, так как хотя бы знаю о чем там говорится и могу судить о качестве резюмирования.
И я, честно говоря, кайфанул от технологии, насколько точно она разбирает мой двухчасовой трындеж. Во-первых, это удобная штука для использования в качестве таймкодов, во-вторых, супер крутая фича для длинных подкастов, особенно когда тебе надо найти какую-то важную информацию.
Это я к вам пришел -_-
Давайте вы сами решите, нужны каналу эти бусты или нет.
Я пропустил, когда все играли в игру "Волк и бусты яйца", но если у вас премиум и вдруг они лежат без дела и их некуда приткнуть, закинуть можно по этой ссылке.
/channel/CGIT_Vines?boost
Коротко и эпично!
Просто посмотрите этот 4-минутный Сinematic Breakdown Cyberpunk 2077: Phantom Liberty
от студии Kansas Studios.
Блэт, еще больше захотелось поиграть, но времени от этого не появилось. 😭
Весь ролик тут
Че, у кого так же?)
Суть показать как вы изменились с момента как начали заниматься гемдевом.(подставьте вашу профессию)
Давайте, кидайте в комменты)
Я начну.
#реклама
Будущее уже здесь
По прогнозам футурологов, совсем скоро у каждого из нас появится свой персональный аватар, а в виртуальной реальности будет проходить не меньше 70% нашей жизни.
Рынок одежды для виртуальных персонажей только формируется, и благодаря новой программе «Дизайн одежды в цифровой среде» от Музы и Beinopen у тебя есть все шансы занять места в первом ряду. Работа с Blender и Clo3D, создание и продажа цифровой одежды — 2 месяца концентрированного обучения от ведущих экспертов индустрии.
Скидка 10%, беспроцентная рассрочка и вебинар от кураторов программы – по ссылке.
Просто охренеть, как же я ванганул, когда писал этот пост.
Ждать долго не пришлось, потому что Андрей Карпатный выдал пост, который описывает возможный вектор развития LLM моделей в сторону базы ядра операционной системы на основе текущих вычислительных концепций. Потому что многие из них схожи с тем, чем занимается ОС на низком уровне.
Еще одна занимательная деталь: у Карпатного в профиле написано - "Building a kind of JARVIS". Стоит ли сомневаться?
💵 Недавнее исследование Morgan Stanley показывает, что к 2030 году количество людей, совмещающих занятость на нескольких работах, значительно увеличится.
Сейчас общее количество людей, в целом, совмещающих такой подход, около 5%, и этот показатель растет на 5% в год.
Помните, как я вам говорил, что не нужно бояться того, что ИИ лишит вас работы? И что мы будем работать только больше, а также учиться больше в разных областях. Причем эти знания будут больше поверхностными, базовыми, а всю остальную работу сделает ИИ.
Так что технологическая прокрастинация откладывается, готовьтесь к эстафете.
Я просто охреневаю, какие грани обретает идея, если посмотреть на неё под немного другим углом.
Что это - ретро-реконструкция, historical splatting, prehistoric metaverse? Хаха.
Так или иначе, Polycam научился Gaussian splatting, и на мобильных устройствах его тоже можно попробовать.
Кидайте идеи, что можно перевести в 3D? Прибытие поезда и высадка на луну уже заняты!
Потестировал сервис verticle.one для генерации трехмерных моделей, textTo3d.
Промпт был такой: "Generate a red motorcycle with fire on fuel tank."
Как видно, пламя на бензобаке сгенерировать не получилось, так что давайте без деталей на текстурах, это пока слишком сложно.
Генерация проходит довольно долго (что-то около 15 минут), но сразу над 4 моделями. Качество оцените сами.
Я не вижу сложностей с тем, чтобы автоматизировать процессы по ремоделингу и ретекстурингу, с использованием проджекта из тех же диффузионных моделей.
На выходе получим чуть более приемлемый результат, который сможем кинуть в ту зловонную кучу, подготовленную для всех решений, способных заткнуть этап прототипа на ранних стадиях разработки продукта.
Это еще одна монетка в копилку того, что разработка трехмерного контента пойдет по этому пути, быстро или медленно, зависит от хайпа по генеративу. Мы сейчас на пике, но очевидно, и он пройдет.
Я не буду писать много текста про релиз Dallie 3, потому что описание можно прочитать буквально везде.
Визуализация вместо тысячи слов, смотрите видео! Важна сама механика взаимодействия! Вектор развития агентов и их коллаборации будет только расти. По итогу мы придем к тому, что великий калькулятор можно будет просить о чем угодно, обо всем, что можно получить в цифровом мире. Фильмы, мультфильмы, игры, музыка, любой контент о вас, под вас.
Не понимаю, почему все раскупали "1984", когда нужно читать "Дивный новый мир".
Заканчивая рабочую неделю, просто не забывайте, зачем вы полезли в графику, котики🍸
Читать полностью…Мы вчера могли наблюдать best practices от Unity о том, как похоронить свой движок за одну новость.
Они, я уверен, одумаются и смягчат политику, но запашок, конечно, останется.
Не устану повторять, Unreal и только Unreal.
Если не в курсе, вот можно почитать у Андрея 🙏
Ладно-ладно, в общем, вы просили, я замутил 😐
Заодно затестил еще одну сетку, которую мне посоветовал подписчик в комментариях - RaskAI.
Только переводил в ней уже из генерированного английского в Heygen на генерированный русский, т.е. провернул классический анадиплоз.
В общем мой голос я узнаю, схожесть на ~ 95%, с учетом что технология еще молодая, шерсть на жопе встает от того что нас ждет впереди.
Подписал видосы, чтобы было понятно че к чему. Cheers!
Помогите мне пошутить, потому что я уже не могу с этими BodyCams эффектами.
А знаете что это? Щас, щас, набрали воздуха?! Пааажитее... Тсссс...
Это UEFN (Unreal Engine Fortnite)
Жду Pong с этим же эффектом.
NPC in Starfield VS NPC in Cyberpunk.
К слову, после первых патчей я уже практически не встречаю в Starfield вот этих криповых.
Коридоры показали тесты по замене лиц в играх через facemorph с помощью Picsi.
Несмотря на то, что сейчас они собрали этот пайплайн через сторонний софт, я уверен, что нечто подобное мы получим в ближайшей перспективе, и именно это имел в виду Хуанг, когда говорил, что каждый пиксель будет сгенерирован.
Уже сейчас это не выглядит чем-то невозможным и требующим больших вычислительных мощностей.
Где-то удалось улучшить визуально, где-то получилось на порядок хуже, чем в оригинале. Пока всё же художественный взгляд нужен и он чувствуется, даже несмотря на технические ограничения движков. Лица, пропущенные через художников, выглядят более натуральными, более имперфектными, это как раз то, что заставляет нас выглядеть людьми. Пока что первенство за нами)
Полное видео тут
Unreal Engine в 2024 году станет платным.
Все мы думали, какая дичь будет в следующем 2024 году, и вот!
Скорее всего, это будет подписочная модель, как у Adobe или Autodesk. Нюанс заключается в том, что подписка появится для областей, не связанных с геймдевом, т.е. для кино, рекламы и т.д. Если вы делаете игры, для вас пока ничего не поменяется.
Эпики сейчас в целом занимаются реструктуризацией компании, увольнения, в том числе Галенкина, касаются этого.
Fortnite больше не приносит столько денег, как раньше, эпики не могут больше работать в убыток и раздавать всем все бесплатно. Пришло время собирать урожай.
Это не значит, что они перестанут делать игры, но это не будет их фокусом. Epic Games теперь больше про сервис.
Посмотреть спич Sweeney можно тут.
Когда уже этот Вальтрон соберется воедино?
Neural Microfacet Fields for Inverse Rendering - метод, который позволяет восстанавливать характеристики материалов, основываясь всего на 100 фотографиях объекта.
Точность будет страдать довольно долго, пока мы не отодвинем барьер вычислений, который позволит быстрее обрабатывать большие объемы данных. Доработка руками, конечно, все еще нужна, но хотя бы мы сможем получать базовое распределение по PBR картам, чтобы не генерировать их с нуля.
Подробнее тут
Забытые технологии древних.
Марко из Португалии делает то, на что многие сейчас не согласятся. Делает долго, руками. Можно ли считать, что в перерывах между съемками сет-декораторы так делают свои pet проекты?
Давайте про еще одну технодемку повайним.
Откуда вообще появилась уверенность в том, что такая камера это вообще удачный подход? (The complex expedition не считается) Никто же играл еще. Просто увидели хорошую механику хайпа и начали копипастить.
Во первых это лютейшее дерьмо. Во вторых это скучно. Когда все вокруг на сканах, это низкий жанр! И в продакшене это скучно и смотреть на это скучно. В третьих опять зачем-то показывать ебучую трясущуюся камеру, ходьбу со скоростью последней стадии артроза. И о механика запугивания змеи веточкой!
Я очень надеюсь, что это не выйдет в игровой прототип и так и останется техдемкой.
Писал текст вчера ночью, и чет утром прочитал, прям жёстко получилось, сделали и сделали, молодцы. Биполярочка видимо)
К слову, с блика от солнца я кайфанул больше чем от всей демки.
Полное видео
У меня есть знакомый Артем, который делает игры. Не тот, о котором вы могли подумать — тому еще долго делать. 😂
А вот другой Артем уже выпустил игру, над которой они работали достаточно долго, около 4 лет. Мы еще на старте общались, у нас не получилось поработать вместе, но я все время следил за ходом разработки. И вот наконец-то ребята релизнулись и уже в трендингах стима висят.
Могу только порадоваться и не останавливаться на достигнутом.
Поддержать ребят можно на Steam и VK Play, благо стоит не дорого совсем.
Тут чуть подробнее Артем описал.
Ваще не реклама, хорошего человека можно и просто так поддержать.
Спасибо за это интервью. Теперь, я думаю, что Фридман и Цукерберг оба ящеры, так как ни один из них не умеет выражать эмоции. 🐸
Ну ладно, к сути. Я пару раз постил эксперименты reality labs, и с тех пор принципиально ничего не изменилось. Самая главная боль в заднице - это сканирование аватаров, и не просто получение трехмерной головы, а скан всех ваших эмоций, чтобы их можно было блендить поверх вашей болванки. Этого не сделать без специальной студии сканирования.
Эффект присутствия - кайф, не спорю. Трёхмерная голова в метре от вас настолько близко, что можно полностью ощутить всю зловещесть долины. Супер.
Стоило ли это всех инвестиций, или Цукерберг все еще просто зализывает раны после насмешек над аватарами из его Horizon? 🤡
Или он сделал лица настолько реалистичными, потому что пытается быть похожим на человека? Но и тут не удалось. Ладно, извините, у меня, на самом деле, еще много шуток про него есть.
Выход Quest3 тоже принципиальными нововведениями не отличился, ни там, ни там нет киллер-фич. А вот где они действительно могут сойтись, так это, если обе технологии замерджить на ИИ агентов. Тут полный эдикшн обеспечен, Гослинг не даст соврать.
VR умер. Да здравствует VR!
Еще примеры и исследования на тему влияния ИИ на продуктивность людей и разделение труда. Спойлер: они все подтвреждают тезис о великом уравнении.
1. Исследование MIT почти 500 сотрудников, чья работа в основном состоит из написания текстов показало, что GPT существенно снижает разницу в качестве работы между сильными и менее опытными или талантливыми сотрудниками. При этом GPT больше заменяет усилия работников, чем дополняет их навыки.
2. Исследование показывает, что доступ к генеративному ИИ повышает творческий потенциал людей при написании коротких рассказов, особенно у менее креативных авторов, но в то же время приводит к снижению уникальности и разнообразия создаваемого контента.
3. Эксперимент оценивающий влияние помощи ИИ на юридическое мышление: студенты сдавали экзамены по праву с помощью GPT-4 и без неё. Оказалось, что худшие студенты выигрывали больше всего от ИИ, а лучшие - теряли.
4. Исследование более чем 5,000 сотрудников тех поддержки использующих генеративный ИИ. Худшие агенты техподдержки и новички только вышедшие на работу показали максимальный прирост результата. Так же сильно улучшилась оценка качества решения проблемы со стороны клиента.
Меня всегда в любом бизнесе (особенно, крупном) поражало количество тупой и бесполезной работы. Очень для многих ролей это было близко к 100%. Теперь эта проблема решена: тупую работу делают роботы, а люди, даже неквалифицированные, с помощью роботов делают (относительно и в кавычках) «сложную».
Если саммаризировать, то DLSS + наработки Nvidia по компрессии текстур + технологии подобные Nanite сделают картину более реалистичной.
С точки зрения разработки это не принесет существенных изменений, разве что будет хотеться впихнуть еще больше деталей в кадр, потому что вычислительные мощности как бы освободились, алло!
А это значит, что на продакшене нужно будет выдавать больше контента, а значит, что разработка станет дороже опять🤡
На оптимизацию можно будет подзабить еще немного. Это всегда весы или корзина с яйцами.
Конечно, оптимизация - это лютейшая хуйня, которой нам приходится заниматься, чтобы перераспределить ресурсы наиболее эффективным способом. Если бы не тупые, медлительные компьютеры, нам бы не пришлось обслуживать их прихоти).
Заценить новый DLSS 3.5 можно будет в ближайшем Cyberpunk
Принес вам прогресс в нейронном текстуринге от MeshyAI. Вопросов, конечно, больше, чем ответов.
Если нам не важен уникальный визуальный ряд и консистентность, то можно использовать.
Получение корректных, а тем более физически корректных, или хотя бы PBR значений в дополнительных текстурных каналах - речи не идет пока.
Таким образом, опять все гавно скидываем на этап прототипирования. Тут конечно, подобные инструменты могут чувствовать себя чуть более комфортно. Продолжаем следить, но чемоданы пакуем.
Как сделать красивую презентацию продукта с говенным текстурингом, смотреть тут
Ахаха, Роблокс, ты чего, прекрати!!!
Теперь миры можно там создавать вот так. Какой там скиллсет нужен для этого, вы, думаю, представляете?
Вы, например, отучились пару лет для геймдева, а 10-летний пиздюк делает х10 от вашей месячной зарплаты, просто потому что делает это по-другому, без вот этой всей шелухи.
Код будет писаться так же. В итоге, это станет чем-то похожим на YouTube только для игр. Эпики, кстати, этим же путем идут.
Просто представьте модель создания контента, которая при меньших вложениях будет приносить денег больше, чем среднестатистическая игра, например, Inside или Hellblade, хоть я и люблю и одну, и вторую. Повод задуматься, на чем вы сейчас сконцентрированы и какие навыки вам будут нужны лет через 5-10.
Как вам недавний хит "Only Up", кстати? Или, например, насколько серьезно подходили в продакшене к шоу "ЧБД"?
Я бы хотел напомнить о безмаркерном решении для захвата движений - MoveAI.
Кроме захвата тела, вы можете трекать руки и пальцы, причем на очень высоком качестве. Это ли не счастье?
И немного офтопом хотелось бы подвайнить. Безусловно, сейчас огромное количество решений выходит в облачном виде, вам не нужно скачивать софт на компьютер. Где-то можно пользоваться триалами, где-то оформлять подписку.
Слишком много разделенных инструментов появилось, за которые нужно платить. Во-первых, нужно будет тратить много, чтобы выполнять свою работу быстрее и оставаться конкурентоспособным. Во-вторых, невозможно скачать эти решения с торрента. Это для тех, кто привык экономить на программном обеспечении. Так мы довольно быстро перейдем в облака. Про новую Винду тоже слухи ходят, что ее не нужно будет ставить на комп.
Я не сомневаюсь, что впереди нас ждут трудные времена, связанные с этим, но рано или поздно рынок решит и функционал станет более доступным. Но это будет потом.
Думаете, зря полыхаю?
Короче, протестил.
Я, честно говоря, до мурашек взволнован тем, как хорошо он переводит и насколько круто он копирует мой голос, заставляя меня говорить при этом на другом языке. Липсинг без нареканий.
Этот маленький кусок видео я записывал для старта своей площадки по менторству в геймдеве, но еще не выкладывал никуда, так что своего рода спойлер. 🏃
Единственное нарекание: перевод неизвестных слов, например, моей фамилии. Тут он ее засрал, конечно)