Я Валерия и я кормлю разные нейросети разными картинками По всем вопросам @lerarussia
Новостей иногда падает столько, что выделять под каждую отдельный пост кажется нет смысла, к тому же не то чтобы прям прорывные обновления выходят.
Это на сегодня лучшее, поэтому идет первой.
🤕Онлайн-рисовалка с реальтайм-генерацией ваших каляк. Боги, что за нейро-мета-ирония, теперь мем про сову стал реальностью. Масттрай.
https://drawfast.tldraw.com/
🤕Неофициальный sdxl-turbo. Соревнуемся в промптировании быстрее генераций.
https://huggingface.co/spaces/diffusers/unofficial-SDXL-Turbo-i2i-t2i
🤕Апскейлер, который не просто улучшает качество, а добавляет детали. Не дают попробовать бесплатно, сразу просят подписку. Сомнительно, но окей.
https://magnific.ai/
Тренды последнего месяца стремятся к реальтайму, а это значит, что алгоритмы оптимизируются и скоро будут совершенно дешевы в вычислениях. Следующим этапом необходимо решить проблему с коэффициентом диффузной стабильности, чтобы картинка не рассыпалась при каждой генерации, ну и выводить на рынок носимое устройство и жить в дивном новом мире.
Когда посмотрел весь сериал c OpenAI, но AGI как персонаж не появился...
Зато появился Stable Diffusion Video!
OpenSource генерация видео от StabilitiAI. На данный момент анонсировано два варианта генераций: img2video и text2video(здесь пока кода нет для инференса).
Есть два чекпоинта:
SVD —14 кадров генерации и 576x1024px разрешение
SVD-XT — 25 кадров генерации и 576x1024px разрешение
Я потестил пока img2video (в посте пример мем) для генерации брал этот reference. Жрет 40+ gb VRAM, что ограничивает на данные момент многих, хотя можно арендовать кластеры или A100 (80gb)/H100 для тестов. Хотя умельцы в ближайшее время возможно оптимизируют.
Так же ожидаем внедрение в A1111 и ComfyUI.
INFO—PAPER—GITHUB—HF_DEMO—COLAB(не мой, брал с просторов дискорда, он упоротый, но работает)
остальные свои примеры генерации кидаю в комменты под постом
еще допом линк, тест вариант как с помощью SVD генерят референсы для супер качественного 3d. — LINK
Генерации получаются качественные из-за крутой консистенции кадров, намного круче Gen-2
ИИ-метаверсы.
Тут вот все постят видосы из Krea.ai
Выглядит нарядно, но неуникально.
Смотрите, я уже постил про грядущий стриминг из Stable Diffusion в помощью вебкамеры. Пока это 1-2 fps и понятно, что с приходом новых лор, екстеншенов и форков ускоренной Stable Diffusion и развитием железа это все будет неизбежно ускоряться и улучшаться.
И мы получим бесконечное количество метаверсиков (копий этого мира, залетающих к нам в мозг через глазки). Кстати, вот тут есть шанс для виарчика оттяпать себе новую полянку - генерация локаций и залипательные трипы, первое, что приходит в голову. И не надо городить убогих аватаров и плясать в UE с локациями.
Что касается Krea, держите три видоса. Один, это с которого все плачут кипятком. Второй - это реальный тест из раннего доступа. Третий (с книжными полками) - это полный аналог из Automatic1111 с Контролнетом и вебкой, работает уже сейчас. Там Redream, подключенный к A1111, который работает с LCM со скоростью около 2 кадров в секунду, причем с подключением к Photoshop и даже к iPad(!)
Фича Krea в том, что они пилят очень ловкие инструменты, понятные новому нормальному юзеру, а не в вот этом вот быстром стриминге. Стриминг грядет и в других решениях, как видно из третьего видоса.
Но у меня есть подозрение, что когда Адобченко в очередной раз имплементирует новую фичу к себе в продукты, то ловким стартапам придется пивотнуться.
Ну и на очереди пост про Метачкины новые генеративные модели для видео(!) и картинок. И там прям совсем все ловко.
Ссылки на видосы:
https://twitter.com/i/status/1725194622807523691
https://twitter.com/i/status/1725133868930334831
https://twitter.com/i/status/1724936239697043476
Джон Леннон жив (ну почти): The Beatles все таки выпустили свою песню Now And Then с помощью ИИ. За основу взяли демо-запись 1978 года, а нейронка обработала её, вытащила голос покойного Джона и все сделала красиво
Легенды не умирают
Победитель конкурса от ЭйАйЛеры
Нам с каналом Digital-шкаф сложно было выбрать победителя! Поэтому их будет двое. Первый — в предыдущем посте.
Автор работ, которые я решила от отметить — Алсу Мавлиханова @mavlihanova_alsu поработала над коллаборацией Gucci х башкирского художника Ахмата Лутфуллина. Я оценила истории каждого образа и краткое их описание и, конечно, башкирский мед! В образах — отсылка на определенное, культурно значимое животное, а ценности Gucci переплетаются с контекстом башкирской культуры. Да, звучит неожиданно, но в этом и был смысл конкурса. Прочитайте концепцию, чтобы лучше понимать работу!
Алсу, напишите @alexkuchmadshf, чтобы забрать приз!
Отдельно отмечу участников, которые подошли к конкурсу со всей ответственностью, например, поясняли свои концепции. Ведь в мире искусства и мире моды это важнейшее умение — рассказать о том, что ты делаешь, как ты видишь. В случае таких конкурсов хочется узнавать интересные истории и новых авторов, а не просто смотреть красивые картинки — красивых картинок в интернете теперь достаточно, я думаю, вы понимаете почему. Да и сама красота — вещь довольно субъективная.
Позже мы с Digital-шкаф расскажем о других работах, которые показались нам любопытными. Все работы можно увидеть по ссылке.
Кроме того, можно подсмотреть у авторов интересные пайплайны.
Работа с нейросетями — это в основном творческий обход ограничений
Даже с теми инструментами, которым удалось достаточно развиться, обрасти хорошим UX или даже техподдержкой.
А уж если мы говорим про инструменты в опенсорсе, то это часто тестинг, работа с тем что есть или докручивание инструмента собственными руками. Что, разумеется, не сравнится с работой «на результат» в программах, к которым большинство творцов привыкло за последний десяток лет.
Нравится как коллега работает с AnimateDiff вопреки всем заверениям, что он сейчас хорошо генерирует только красивых девушек. Чудесные сюжеты и анимация.
В Kandinsky 2.2 появилась возможность генерировать видео!
Все очень демократично и понятно, генерируем в чат боте, запускать тут.
По возможностям все ожидаемо: 4 секунды видео, 24 кадра в секунду, 640х640 пикселей. При подаче исходного изображения разрешение будет копироваться с него (без этого разрешением пока управлять нельзя).
Что замечательного кроме доступности? 16 готовых вариантов анимации, которые можно просто вызвать кнопкой. А также возможность сразу создать «минифильм» из прописанных один за другим промтов. Тоже, что и в Deforum, но упаковано не для гиков.
Тестинг мне понравился, классная возможность генерировать прямо в телефоне, в боте, видео получаются достаточно артистичными и в меру отдают зловещей долиной. Рада, что это наконец-то раскроет потенциал нейровидео перед массовым русскоязычным пользователем.
Ждем новых кнопок, возможность менять разрешения и долгого хронометража!
ЭйАйЛера х Digital-шкаф
КОНКУРС
Тема: генерация вымышленной коллекции модного бренда и художника
Ребята, мы хотим замотивировать вас на творчество и запускаем конкурс на лучшую генерацию вымышленной модной коллекции бренда и какого-либо художника!
Как принять участие:
Возьмите любой модный бренд и художника, коллаборации которых не было в реальной жизни и сгенерируйте 4 фото, зайдите на диск по ссылке, создайте там папку со своим именем, загрузите работы + промт в текстовом файле.
*использовать можно любую нейросеть (или набор нейросетей), также можно использовать собственные модели, неизвестных художников. В файле можно описать не только промт, но и интересный редкий пайплайн — это будет плюсом для жюри.
Призы: 16 октября мы выберем победителя, он получит 5000р + работы 1,2 и 3 места мы опубликуем в каналах с ссылкой на ваши социальные сети!
Старт сегодня, финал - 16 октября
*Задача этого конкурса не только оживить заскучавший модный рынок и найти классных ии-специалистов, а еще и научиться друг у друга, поэтому не забывайте добавлять промты, когда загружаете ваши работы!
Наши каналы:
ЭйАйЛера – нейросети глазами художницы и евангелиста Валерии Титовой
Digital - шкаф – всё о моде будущего от аналитика рынка моды и технологий Алексея Кучмы
Всем удачи и огромного вдохновения!
DALLE 3 восхитителен
По крайней мере первые результаты вызывают восторг. Верность промта, понимание метафор и абстракций, реализм и красота стиля делает инструмент пригодным как минимум для брейншторма. А еще нейросеть пока работать без страшной цензуры и может организовать пистолет во рту, например (??) и натуру. То, за что мы полюбили и восхищались DALLE на первых порах.
Поэтому интересно, как этот новый этап развития инструмента отразится на жизни художников и дизайнеров. Ведь именно появление DALLE 2 и генерации типа хомяков-тракторов парадоксально впервые заставили воспринимать нейросети всерьез.
Возможность сделать 100 запросов теперь есть в Bing, после регистрации можно проверить по ссылке.
Писала об обзоре на DALLE еще месяц назад, но сама не верила, что это будет интересно.
AI FILM FESTIVAL 2024
Runway обьявил новый конкурс для ИИ-кинематографистов. В прошлом году такими экспериментами занимались только редкие визионеры и гики. После лавины новых инструментов ИИ-видео уже доступно и для начинающих, и для профессионалов. Образовалось уже какое-то количество профессий будущего типа ИИ-режиссер и нейродизайнер.
Список жюри пока обновляется. Дедлайн подачи заявки — март 2024.
Победителей этого года вы можете посмотреть на сайте, среди них есть, конечно, ASAP ROCKY, с его революционными клипами. Но вообще если в прошлом году применение нейронных сетей среди победителей было либо робкими шагами либо формальностью, то за этот год произошли титанические сдвиги.
Ждем не только интересных сюжетов, но и необычные пайплайны и авторские разработки (ну пожалуйста! 🥺 )
Нейрогенеративная графика на Останкинской башне в Москве
«Прошлое — не будущее» by SXEMA (Валерия Титова и Павел Харитонов)
Работа для огромных экранов архитектурной доминанты сделана с помощью 3D-модели головы человека и нейрогенеративной обработки с помощью warpfusion на основе StableDiffusion. О пайплайне работы я буду много рассказывать на ближайших образовательных мероприятиях, спойлер: мультимедиа это круто, любой формат можно подчинить себе.
В основе работы — песочные часы как символ времени. Люди и профессии прошлого и настоящего как песок перетекают в людей и профессии будущего. Но весь этот песок остается внутри часов — ничто не проходит зря.
Работа стала одним из победителей опен-колла Generative Gallery, до 27 сентября ее можно увидеть на башне каждый вечер с 20:00 до 20:40. Буду рада, если вам удастся зафиксировать выставку на фото или видео и отметить меня в социальных сетях!
Новый вид монтажа
🔥 Все что вы видите в этом ролике сгенерировалось за один раз, без склеек, без использования программ для монтажа.
📕 Склейки между кадрами - моя попытка теста QR code ControlNET (который сейчас проживает второй расцвет)
в AnimateDiff.
💗 Это успех, теперь приятные эффекты шума, такие важные для некоторых клипов или творческих работ, можно создавать максимально контролируемо.
🐑 То есть AnimateDiff превращается в полноценную продакшн студию у вас в компе, где есть актеры, движения, эффекты, сцены, идеи.
🐈⬛ Пока это сложный инструмент, хотя уверен, что вскоре появится сервис, где нужно будет только писать промпт и задавать стили, Лоры и т.д.Не могу не наиграться с AnimateDiff, например эта работа полностью HD, 1920x1080 генерация, 13 секунд. Это сильно впечатляет, хотя и себестоимость таких 13 секунд вышла в 10$.
AnimateDiff
Лекции фестиваля NUR есть в открытом доступе
Образовательная программа фестиваля получилась насыщенной и яркой, я сама постаралась посмотреть все, на что успевала. Организаторы порадовали трансляциями и записями, которые вы теперь можете посмотреть в любое время.
☀️Моя дискуссия с Львом Переулковым, ее можно посмотреть (и, конечно, прокомментировать и репостнуть) здесь
🌑Лекция Вероники Боглай о трендах и искусственном интеллекте, в которой мне удалось немного поучаствовать в сессии вопросов и ответов
💗Лекция Евы Свиридовой, основательницы сообщества художников SXEMA (в котором я состою и делаю крутые кейсы), о нашем будущем, о фиджитале — границе миров реального и цифрового и о том, чего будет хотеть поколение альфа.
Но я советую вам просмотреть весь список лекций, потому что получился целый курс для мультимедиа художников от разных профессиональных спикеров всех областей и на всех уровнях производства работы.
RunwayML добавили тестовое управление камерой!
Нейронные сети, генерирующие видео сейчас — объект пристального внимания. Несмотря на то, что они позволяют делать красивые и оригинальные вещи — управляемость у них слабая, для серьезных проектов они пока не подходят.
Теперь в GEN2 можно управлять камерой, выставляя в настройках заготовленное движение: по горизонтали, по вертикали, зум или поворот вокруг оси. Результаты все еще не идеальные, но прогресс инструмента невероятный, каждые две недели они добавляют что-то новое и актуальное. В общем, Кристабаль Валенсуэла ни в чем не обманул!
Подкаст с гендиректором RunwayML
Вышел подкаст с соучеридитеоем и гендиректором RunwayML Кристобалем Валенсуэлой, самой известной сейчас платформы для генерации видео.
Интервью с CEO это всегда отличный шанс не только заглянуть вглубь проекта, но и прогнозировать будущее какой-либо сферы в ИИ.
🫀Кратко о том, что можно послушать/прочесть в подкасте:
- Где знакомятся люди, которые потом делают такие шумные и передовые стартапы как RunwayML
- Как устроена генерация видео сейчас и как сделать из нее продукт для широкой аудитории и инструмент для больших художников
- Главная цель Runway сделать реализацию идей продакшне дешевой и доступной
- Почему создание интерфейсов для использования в ИИ — самое сложное
- Что такое RunwayStudios и как они помогают художникам объединить искусство и науку
Интервью в целом получилось как подробный ликбез по генерации видео, так что если вы в этом ничего не понимаете — это ваш шанс разобраться!
Я думаю, что лучшие фильмы еще предстоит снять, а лучшие истории еще предстоит рассказать. Мы могли бы считать, что золотая эра кино произошла в одном конкретном десятилетии много лет назад. Я действительно думаю, что нам еще предстоит увидеть настоящую золотую эпоху кино. Тот момент, когда больше людей смогут создавать то, что раньше было сферой только небольших студий, небольших агентств и небольших команд, теперь станет заметен каждому.
CollageRL
- моделька для генерации коллажей по исходной картинке из газет (или любого другого сета картинок)
Finally, теперь можно писать анонимные письма авторам любимых каналов 😅
Код
Пейпер
@derplearning
Карен Ченг описала классный интерактив с помощью LumaAI
ИИ-энтузиастка показала, как можно собрать всю семью для создания 3D снимков. Можно посмотреть не только снимки, но и достаточно полный туториал.
В следующем году ждем не только движущееся фото, но и целые модели для путешествий по прошлому вместо привычных фото. Кажется, это классный способ сохранить дорогие воспоминания достаточно достоверными.
Представляете, попасть в снятую таким образом комнату своего детства и оглядеть семейный праздник, снятый в 3D? Быт, личные воспоминания, но и большой интересный шаг для документалистики — в этом направлении может развиваться документальная фотография.
Нейрогенеративная серия «Разобщение» на фестивале Чудо Света в Петербурге
В программе фестиваля также много работ других диджитал, VR и нейрохудожников.
Нейрогенеративная работа «Разобщение», которую я создала специально для фестиваля, обращает внимание на одиночество в городе. Мне хотелось подчеркнуть, что изначально большой город Петербург теперь еще и унизан сетью цифровых коммуникаций. Жители городов сейчас больше общаются в цифровом пространстве и видят других людей на экране, а не в реальном мире. Растет непонимание, тоска, нарциссизм. Обстоятельства жизни показали мне, насколько ценно и важно живое общение, человеческие прикосновения.
Работа каждого художника экспонируется в своеобразном аккуратном «окошке» яркой и красивой проекцией. Таким образом зритель как будто заглядывает в мир художника, мне показалось это созвучным моей идее об одиночестве. Организаторы постарались интегрировать инновационные работы художников в архитектуру и культурный ландшафт Петропавловской крепости, а я постаралась поработать с важными для меня сейчас темами внутри исторической локации.
Фестиваль пройдет с 4 по 6 ноября, успейте посетить!
LumaAI наконец представили что-то доступное в text-to-3D
Нейросеть Genie генерирует 3D-модели по текстовому описанию.
Бот работает бесплатно и очень быстро, пока с промтами и без команд. Полученную модельку можно сохранить и использовать как угодно.
Заходим и генерируем, можно в сообщениях с ботом 🫀🦾
Итоги конкурса!
Ребята, мы с Лерой подвели итоги конкурса и у нас есть крутые новости!
Мы не смогли выбрать 1 первое место и решили объявить 2-х победителей (по версии каждого из каналов).
Первый победитель – Anastasia Vishnevetskaya @avish_art
Напишите пожалуйста @alexkuchmadshf для того, чтобы забрать свой приз!
Коллаборация: Vermeer х Margiela
Подробнее о концепте в паке Анастасии по ссылке, также она сделала вариант коллаборации Ann Demeulemeester x Paul Klee
В подборках в ближайшие дни мы покажем тех, кого выделили в финале и расскажем о работах и участниках, пока минутка важной информации:
Хочу сказать огромное спасибо всем, кто принял участие, было ооочень много классных работ, выбирали больше недели, но в итоге все равно увеличили количество победителей, спасибо за труд и уделенное время! Теперь у нас с вами есть папка с огромным набором знаний о том, как создавать модные образы в нейросетях, переходите по ссылке, вдохновляйтесь, изучайте и перенимайте опыт для новых проектов!
Имя второго победителя появится в канале ЭйАйЛера ➡️
Также напоминаю, что на этой неделе мы запустим еще один конкурс, в котором я также призываю участвовать, будет оочень интересно + конечно, призы!
Мои любимые тесты анимации Kandinsky с иллюстрацией московской октябрьской погоды сохраняют очарование инструментов, которыми я пользовалась раньше типа DiscoDiffusion до всеобщего курса на реализм.
Читать полностью…Дала интервью ТЕХНО Яндексу, рассказала о своем процессе и дала советы, читайте скорее 🫀🦾
Читать полностью…Диалоги нейрохудожников
Runway запустил вдохновляющий подкаст. В первом выпуске Клэр Эванс и Стивен Марш беседуют о нейросетях в искусстве. В целом мысли и состояния, которые пережил каждый, кто решился заниматься нейроискусством, эйайартом, искусством и нейронками, нейродизайном и так далее.
Психотерапевтично и спасительно в нынешней гонке технологий. Буквально вижу, как коллеги не спят и не отдыхают даже по будням и в свободное от проектов время тестят DALLE, учат ComfyUI, борятся с AnimateDiff и восхищаются Gaussian Splatting. Если что-то из этого непонятно, пролистайте канал и вернитесь на три клетки назад.
Я просто охреневаю, какие грани обретает идея, если посмотреть на неё под немного другим углом.
Что это - ретро-реконструкция, historical splatting, prehistoric metaverse? Хаха.
Так или иначе, Polycam научился Gaussian splatting, и на мобильных устройствах его тоже можно попробовать.
Кидайте идеи, что можно перевести в 3D? Прибытие поезда и высадка на луну уже заняты!
AI-обложка журнала ПЖ про искусственный интеллект
Всегда радуюсь классным прецедентам в области публикации и практического применения нейрогенеративной графики.
Автор обложки художница Анастасия Владимирская, советую следить за ее новыми работами и коллаборациями.
ПЖ обратились с запросом сделать цифровую обложку с эффектом погружения. Я сделала статичные картинки, но в ходе процесса пришла идея добавить движения, и я решила из сгенерированных изображений сделать покадровую анимацию, плюс добавить фрагменты видео, получились такие диджитал коллажи.
О процессе работы можно прочесть в материале ПЖ, любопытно разница в оценке работы нейросетей у тех, кто только с ними знакомится и у автора, который работает с ними часто.
Санкции отбросят нас на 10 лет назад
И поскольку Дуров решил ввернуть в телеграм-каналы рейтинговую систему как у ВКонтакте 2000х у вас есть шанс поддержать мой канал /channel/leraneuralpics?boost
Для поддержки нужна подписка на Premium и обновленное приложение Telegram. Если оно не обновилось само, сделайте это вручную.
Обещаю без флуда и стиля жизни (для него у меня есть личные аккаунты). Только нейронные сети, искусство, тесты и разбор самых интересных кейсов.
Простой инструмент для генерации по спирали, гигачаду и любой маске с помощью ControlNet
Энтузиасты собрали удобный интерфейс на Huggingface, с которым каждый может сделать свой кьюар, спираль и все что угодно. На этой неделе генерации разных авторов очень взволновали не только нейрохудожников, поэтому в опенсорс появился инструмент IllusionDiffusion.
Открываете пространство, берете свою или заготовленную маску и генерируете по очереди.
Сейчас это не более чем тесты и игра, но перспективно это классный дизайнерский и творческий инструмент, выглядит чисто и управляемо.
Только Runway выкатили возможность управлять камерой в генерациях, как Pika тут же выпустили такую же фичу! Чувствуете как атмосфера нагнетается, котаны?
Подробнее о фиче: камера управляется параметром -camera
и работает с ОДНИМ из следующих типов движения:
* Zoom: приближаем/удаляем камеру через -camera zoom in/out
.
* Панорамирование: двигаем камеру вверх/вниз/влево/вправо с помощью -camera pan up/down/left/right
. Можно комбинировать два не конфликтующих направления, например, -camera pan up right
.
* Поворот: вертим камеру по часовой стрелке или против часовой через -camera rotate clockwise/counterclockwise/anticlockwise
или сокращения cw/ccw/acw
.
Интенсивность движения камеры по-прежнему можно регулировать с помощью параметра -motion XX
задавая от 1 до 4.
Другие обновления:
* -fps
теперь по умолчанию стоит 24.
* Автоматический канал "upvotes" больше не доступен.
PS: anti-clockwise говорят в Британии, а counterclockwise говорят в Америке.... Теперь ты знаешь как генерить, заправляясь чайком.
Дискорд Pika
Пост с параметрами для генерации
Дискуссия «ИИ в современном искусстве» со Львом Переулковым и Валерией Титовой на фестивале NUR
8 сентября, в 15:00 в рамках образовательной программы на фестивале цифрового искусства NUR поговорим о том:
🫀Какие возможности дают нейросети современному художнику
🦾Кому принадлежит искусство, созданное с помощью нейросетей
🌀Сможет ли ИИ стать полноценным автором произведений
🌒Какой след ИИ оставит в истории искусства
✨И многие другие
Регистрация по ссылке, там же можно посмотреть образовательную и выставочную программу фестиваля
VOGUE и искусственный интеллект наконец-то вместе
Художник Вина Уи создал серию «Воображаемые границы» с помощью Midjouney о будущем филлипинской моды.
Серия довольно консервативная, в ней нет каких-то серьёзных инноваций, но есть следование концепции автора, реалистичность и эстетика Vogue.
Если мы посмотрим на финалистов AI Fashion Week, то там в целом прослеживается такая же тенденция — ИИ здесь действительно присутствует строго как инструмент для создания довольно простых концепций. Но здорово, что даже не революционные, но любопытные концепты теперь можно создавать намного быстрее, чем это было бы в эскизе или в 3D.