cgevent | Unsorted

Telegram-канал cgevent - Метаверсище и ИИще

37805

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn

Subscribe to a channel

Метаверсище и ИИще

Первая полностью открытая модель для генерации разговорного аудио - Hertz-dev (8.5B параметров). Слушайте образцы ниже, там очень клево. Это все либо сгенерировано AI, либо в диалоге с AI.

Направлена на создание естественных и плавных аудиосообщений. Состоит из трех основных компонентов: hertz-codec, hertz-lm и hertz-vae.

Hertz-codec — это аудиокодек, который преобразует аудио в необходимое представление, что позволяет экономить ресурсы без потери качества. Hertz-lm — языковая модель, обученная на 20 миллионах часов аудиоданных, может генерировать текстовые репрезентации звука и обладает контекстом до 4,5 минут. Модель доступна в двух версиях: с предобучением на текстовых данных и исключительно на аудиоданных.
Hertz-vae — мощная модель, которая отвечает за восстановление семантики речи с высокой точностью.

Модель полностью открытая и она никак еще не настроена на инструкции, не файнтюнена, поэтому ее можно поднастроить под ЛЮБУЮ аудиозадачу, от классификации эмоций до перевода в реальном времени.
Обещают, что задержка в 2 раза ниже всего имеющегося на рынке, на RTX 4090 - 120 мс.

Подробнее: https://si.inc/hertz-dev/
Код: https://github.com/Standard-Intelligence/hertz-dev/tree/main

Читать полностью…

Метаверсище и ИИще

Опенсорсные Видеогенераторы, притормозите, пожалуйста, я не успеваю.

Эпически обновился код для EasyAnimate от Алибабы (да, это они файнтюнили CogVideoX-Fun).

Генерация видео до 1024x1024, 49 кадров, 8 кадров в секунду, 12B параметров(!), MMDIT и image2video.

Есть поддержка Комфи из коробки. Но памяти вам понадобится 24 гига.

60GB на диске!!

И вишенко - у них там заявлен ControlNet - EasyAnimateV5-12b-zh-Control

Есть только одна проблема - когда это все оттестировать?

Все есть, бумага, демо, код, вебсайт(старый, v3).
https://github.com/aigc-apps/EasyAnimate

Я поставил демо на просчет, но оно, похоже, посчитается чуть позже, чем никогда.
Поэтому вот вам черипики с их гитхаба, он самый обновленный.

@cgevent

Читать полностью…

Метаверсище и ИИще

В этом смысле работа Google Recapture выглядит поинтереснее.

На входе видео, а выходе реконструкция сцены и видео с других ракурсов.

Такие работы уже были среди китайских бумаг, но у Гугла это выглядит как работающий, если не продукт, то демо.

Но, как обычно у Гугла, ни кода ни демо.

https://generative-video-camera-controls.github.io/

@cgevent

Читать полностью…

Метаверсище и ИИще

У нас новый опенсорсный фаворит в области видеогенерации.

CogVideoX1.5-5B поддерживает 10-секундные видеоролики в 1360х768, а CogVideoX1.5-5B-I2V - создание видео с любым разрешением.

Нагенерил вам нейродеда, всяких тварей, девушек на пляже и всякоразного. Понятно, что в анатомию и NSFW он не умеет. Но я пока потестировал чистый текст2видео. Что же будет с Image2Video?!

И качество на голову выше, чем у всяких Мочи, Пирамид и Аллегров.

До image2video доберусь в понедельник. Всем хорошего воскресенья.

https://github.com/THUDM/CogVideo

Две вишенки. В Комфи и diffusers пока не завезли. Отжирает 75 гигов VRAM.

@cgevent

Читать полностью…

Метаверсище и ИИще

Вот вы видели новые варианты управления камерой в Runway.

В опенсорсных моделях это будет появляться в виде контролНетов и Лор. И это будет не то чтобы недружелюбно.
Это будет просто зоопарк.

На видео пример работы, внимание, "DimensionX left orbit Lora" для CogVideo.
Лора для поворота налево.

Выглядит круто, особенно для опенсорсного генератора.

Но просто представьте как вы втыкаете очередную лору в CogVideo Lora node в Комфи, чтобы пошевелить ушами.

И во что все это превращается.

Я уже давно ною про вопросы управляемости видео-генерациями, но похоже пока ничего лучше чем video2video, где на входе кожаное видео не придумали.

А кожаное видео, зараза, надо уметь снимать. И кожаные нужны для него тоже, если это не котики.

Все, нейродед проворчался.

Лору, кстати, можете забрать тут

@cgevent

Читать полностью…

Метаверсище и ИИще

В России беспощадная ипотечная ставка, в Турции инфляция 70% и почти мёртвый рынок, в Европе - конские налоги и перегретые цены. Где теперь покупать недвижимость?

Независимый аналитик Андрей Негинский рекомендует рассмотреть 3 перспективных региона:

1. ОАЭ. Экономическая и политическая стабильность, низкие налоги, пассивный доход от аренды 6-7% годовых в $. Редкими квартирами в Дубае и других эмиратах Андрей делится в блоге (уже 73.000 подписчиков).

2. Бали. Не перегретый рынок, растущая экономика, доходность до 40% годовых при перепродаже. Апарты от 70 тыс $ и виллы от 150 вы найдете в этом канале про Индонезию.

3. Таиланд. Низкая инфляция, легкая конвертация валюты, стоимость аренды растет на 10% в год. Квартиры и виллы с интересным дизайном - на канале о Таиланде.

Подписывайтесь на каналы про ОАЭ, Бали и Таиланд, чтобы следить за новостями рынка недвижимости и не упустить лучшие объекты.

#промо

Читать полностью…

Метаверсище и ИИще

Что-то это уже слишком хорошо для липсинка.

У Тиктока 4 месяца назад вышел X-Portrait
https://github.com/bytedance/X-Portrait

Но сейчас они бахнули X-Portrait 2 и это уже запредельно выразительно.
Я прям очень жду код, потому что они похоже могут уделать Runway Act One - и все это будет локально, без подписок и кредитов.

Поглядите вот тут, это стоит того:
https://byteaigc.github.io/X-Portrait2/

@cgevent

Читать полностью…

Метаверсище и ИИще

❗️РСХБ ищет стартапы, которые могут разработать цифровые продукты и сервисы для следующих задач Банка и агрохолдингов:

- Создание ИИ-ассистентов и ботов
- Парсинг и кластеризация данных
- Веб-приложения с геймификацией
- Решения автомодерации отзывов, товаров и услуг
- Генерация контента и изображений с GenAI
- Автоматизация импорта, интеллектуального поиска и анализа данных с помощью ИИ
- Сервисы для создания лендингов и сайтов
- Инструменты проектирования и планировщики, системы визуального проектирования архитектуры информационных систем

📍12 ноября в 16:00 Россельхозбанк совместно со Сколково приглашает заинтересованные компании на онлайн-митап, где представители подразделений РСХБ и агрокомпаний поделятся особенностями внутренней работы, расскажут о взаимодействии с отраслевыми игроками, крупным и среднем бизнесом, а также озвучат запросы и задачи, под которые ищут ИТ-компании для разработки внутренних цифровых сервисов.

Вы узнаете как эффективно взаимодействовать с РСХБ, стать резидентами Венчурной студии и использовать возможности инфраструктуры Банка для поиска заказчиков и партнеров.

Присоединяйтесь к встрече 12 ноября в 16:00!

Регистрация на онлайн-митап

Статус резидента Венчурной студии РСХБ обеспечивает:
🌾 проекты на разработку от Банка и агрохолдингов,
🌾 финансирование пилотных проектов,
🌾 содействие в привлечение инвестиций, в том числе через АгроИнвест Клуб РСХБ, и помощь в структурировании сделок,
🌾 доступ к сообществу партнеров и клиентов Банка,
🌾 индивидуальные условия по продуктам Банка,
🌾 долгосрочное взаимовыгодное сотрудничество с Банком в качестве крупного заказчика и надежного партнера.

Задачи и направления проектов представлены на сайте.

Если ваша компания разрабатывает цифровые продукты и сервисы для B2C и B2B, имеет рабочее решение или прототип, а также опытную команду для реализациипроекта в Банке - подавайте заявку до 15 ноября!

Подать заявку в Венчурную студию РСХБ

#промо

Читать полностью…

Метаверсище и ИИще

Loras in Krea

Похоже тренинг Лор становится user-friendy фичей в разных генераторах, включая даже видеогенераторы (см новость про видеолоры для Клинга).

Да, это и рарбше было доступно, но помните все эти вопросы, от который новые нормальные падают в старый нормальный обморок, сколько эпох, какие теги лучше данбуру или ллм, как подписывать, как размечать, койя или острис, может флюксжим? Ну вы поняли.

Сейчас все идет к однокнопкам.

В Креа, кстати, раньше был полный файнтюнинг модели. С Сценарио тоже - раньше всех, наверное.

Но я о том, что это сейчас будет просто, а не сложно.

И да, в Креа можно тренить Лоры для Флюкса! Каково?

the following code will grant access to the first 100 to claim it:

EARLYBIRD

access here:
https://krea.ai/train

И зацените музику...

@cgevent

Читать полностью…

Метаверсище и ИИще

Подписчики, конечно, радуют.

Как они это делают с помощью text2image? Ведь попадают же.

Я вот тут подумал, не пора ли переименоваться в НейроДеда? КиберДед есть (Андрей Масалович). А НейроДеда в инфопространстве вроде нет. Или я плохо искал.

Пойду сменю аватарку в чате с комментариями. И прям задумался, не переименовать ли канал. Хотя смм-щики говорят, что вроде не стоит.

P.S. Домрик, спасибо, дорогой.

@cgevent

Читать полностью…

Метаверсище и ИИще

Mochi-1 на H100. Меньше минуты. Память решает.

Обновил все, что мог. И мне начинает нравиться.

На видео сначала вариант с 40 steps, а потом 100 steps.

@cgevent

Читать полностью…

Метаверсище и ИИще

Mochi-1. Ну как-то так.

Хотя шаги выкручены на 100 steps.

Понимание промпта действительно крутое. Но исполнение - ну такое.

Two white women with long, flowing blonde hair walking side by side along a wide, sandy beach on a bright, sunny day. Both are mid-laugh, their expressions full of joy and friendship, as they walk in sync, close together, barefoot on the warm sand. The sunlight casts a golden glow over their hair, which flows slightly in the sea breeze, adding a touch of dynamic movement. In the background, powerful sea waves crash rhythmically along the shore, their white foam glistening under the vibrant sunlight. The sky is a rich, clear blue with only a few wispy clouds, intensifying the vivid, cheerful atmosphere. Their footprints are left behind in the sand, showing the path they've taken. Seagulls can be seen faintly in the sky above, and small seashells are scattered along the beach. The scene captures a lively, carefree moment between friends in a picturesque, natural beach setting. Hight quality video

Negative: The video is not of a high quality, it has a low resolution.

@cgevent

Читать полностью…

Метаверсище и ИИще

Очень годный подкаст.

Гость нового выпуска Sravni Podcast — Валера Бабушкин, эксперт в области ML и анализа данных, автор книги о проектировании ML-систем.

Обсудили будущее машинного обучения, сложности с поиском хороших инженеров и менеджеров, несовершенство собеседований и специфику работы в big tech.

Также в этом выпуске:

- Неизвестный бэкграунд Валеры: чем занимался ранее?
- Компетенции, ошибки и карьерный путь ML-специалистов
- Полезные материалы, которые помогут лучше понять ML
- Кто самый крутой в ML прямо сейчас — среди отдельных экспертов и компаний

А ещё разыгрывается книга Валеры — смотрите выпуск до конца и участвуйте в конкурсе.

YouTube
RUTUBE
Яндекс Музыка

Читать полностью…

Метаверсище и ИИще

Для тех, кто запутался в разрешениях.

Ну не генерит Flux 1.1 pro ultra ничего в 4к.

У них на сайте прямо сказано - 4MP.
Это, грубо говоря, 2к. А точнее, если перемножить х и у, то должно получаться около 4 миллионов пикселей.

4к - это, опять же, грубо говоря, 8 мегапикселей. Около 8.3МP.


Обычно 4к используется больше для разрешений камер, а не картинок:
3840 x 2160 (8,294,400 pixels) или 4096×2160 (8,847,360 pixels).

Короче, 4МP - это примерно 2к. И это щас умеет Flux 1.1 pro ultra. А не 4к.

https://www.cctv-outlet.com/news/1080p-vs-4mp-vs-2k-vs-4k-whats-their-differences/

@cgevent

Читать полностью…

Метаверсище и ИИще

А почему все молчат?

FLUX1.1 [pro] Ultra and Raw Modes

В четыре раза большее разрешение при том же времени генерации.

Raw Mode - cуперфотореализьм.

Уже завезли в Krea.ai

И на репликейт
https://replicate.com/black-forest-labs/flux-1.1-pro-ultra

И на фал
https://fal.ai/models/fal-ai/flux-pro/v1.1-ultra

Новость:
https://blackforestlabs.ai/flux-1-1-ultra/

@cgevent

Читать полностью…

Метаверсище и ИИще

AutoVFX: Да простит меня Даня, но щас вот за VFX. Не чокаясь.

Это очень забавная работа китайских студентов из Иллинойса.
Но это прям полноценная попытка сделать однокнопочный Гудини или Майю. Вместе с Нюком до кучи.

Замысел на миллион - загружаете видео и голосом говорите, каких эффектов навалить и как приподвзорвать объекты в сцене.

И оно такое - апажалста.

Я сначала дам цитату, а потом разберу работу, уж больно лихие амбиции (в духе этого канала)

"Мы представляем AutoVFX, фреймворк, который автоматически создает реалистичные и динамичные VFX-видео из одного видео и инструкций на естественном языке. Используя нейро-3Д-моделирование сцены, генерацию кода на основе LLM и физическую симуляцию, AutoVFX способен обеспечить физически корректные, фотореалистичные эффекты, которыми можно управлять непосредственно с помощью инструкций на естественном языке."

Каково?

Поглядите примеры тут:
https://haoyuhsu.github.io/autovfx-website/

А теперь пробежимся, из какого опен-сорса и палок они собирают эту монструозную конструкцию.

Gaussian Splatting submodules
diff-gaussian-rasterization
segmentation & tracking modules
Grounded-Segment-Anything and GroundingDINO
recognize-anything
lighting estimation modules
PyTorch3D
Trimesh
Tracking-Anything-with-DEVA
По дороге ставится Блендор!
We use BakedSDF implemented in SDFStudio for surface reconstruction. Please make sure to use our custom SDFStudio for reproducibility. We recommend to create an extra environemnt for this part since CUDA 11.3 has been tested on this repo.

Это больше похоже, конечно, на эксперимент и дипломную работу, но безумство и отвага меня восхищают.
Почитайте их Гитхаб, это прям дерзко:
https://github.com/haoyuhsu/autovfx
@cgevent

Читать полностью…

Метаверсище и ИИще

У нас сегодня марафон по 2D-to-3D, поэтому потерпите.

Очень круто выстрелил Snap со своим сверхплотным 3D Tracking for Any video.
https://snap-research.github.io/DELTA/
Обратите внимание, что у них на демках есть генеративные видео.

Выглядит немного гиковато, но тут и камера трекер, и обжект трекер, причем объекты произвольные, от бабочек до кожаных. Деформируемые, в общем.

Те, кто в теме, загляните сюда:
https://snap-research.github.io/DELTA/pose_est.html
грузится долго, но примеры очень интересные.

Снап невыносимо круты в плане ресерча и даже обещают код.

@cgevent

Читать полностью…

Метаверсище и ИИще

DimensionX - крутилки камеры для image2video.

Писал два дня назад про это. Немного расшифрую.

Интересная опенсорсная работа. У них там внутри два "режиссера" - режиссер(ы) по пространству и режиссер по времени (S-Director и T-Director). Точнее по пространству у них выводок режиссеров - но пока работает только один, который крутит камеру влево(!). Какие будут остальные крутиляторы надо почитать в статье.

В этом смысле, конечно, интересно посмотреть на их T-Director - это как бы image2video - генерация видео до 145 кадров.

Они берут картинку и генерят множество вариаций с разных углов камеры (S-Directors) и анимацию (объектов на картинке, T-Director).

Оформлено это как Лора для CogVideoX. И пока это просто облет статичной картинки причем в одном направлении, влево.
Очень хочется поглядеть как будет выглядеть их оживление image2video.

https://github.com/wenqsun/DimensionX

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейродед в обед.

Тут вот на реддите наколхозили что-то типа image2video для Mochi-1 в ComfyUI.

Запускают на 12 гигах.

Там конечно, не image2video, а скорее image2image с плохо управляемым denoise.

Но я порезвился, благо считается 1 минуту, если есть 80 памяти и тайлинг просто отключаешь.

Нарезал вам нейродеда. Причем на последних тестах давал длительность 97 кадров, но когда дал 163 или 256 кадров мозги конечно сварились, это видно в конце.. Воркфлоу есть по ссылке на реддит.

Когда даешь ему блондинку, он немного капризничает, но мне одному кажется, что блондинке на видео нравится, как получился нейродед? Она что-то говорит, но я не могу разобрать. Причем на seed=0 она всегда говорит одно и тоже, при любых входных блондинках.

Задумался.

@cgevent

Читать полностью…

Метаверсище и ИИще

SUNO V4 SOON

Никто не знает когда, реддит и твиттор знатно булькают на этот счёт.

Пока есть кратенькая заметочка на Декодере и там же небольшой отрывок.
И утечка у Ника Флоата, которую юзеры приняли за намек на Midjourney Music.

Обещают меньше песка в вокале и жести в звуке.

Ждем-с.

@cgevent

Читать полностью…

Метаверсище и ИИще

Ну, за кожаных моделей.

Я уже писал про бренд одежды Mango, которые вовсю используют генеративых девушек и не только девушек для рекламы одежды.

Сейчас просто подоспели циферки экономии: реальная модель может стоить 35 долларов в час, в то время как агентство, у которого есть парк генеративных моделей, может брать 29 долларов в месяц за использование своих компьютерных двойников.

35 в час и 29 в месяц. Ничего личного. Экономика.

у меня все.
https://nypost.com/2024/10/31/lifestyle/fashion-models-pushed-to-the-side-as-ai-glam-bots-take-over/

@cgevent

Читать полностью…

Метаверсище и ИИще

Вчера случилось принять участие в разговоре про сценарии использования умного дома — и участники (включая меня) грустили по поводу ограниченности этих сценариев (особенно если не рассматривать связанные с медиапотреблением).
А сегодня натыкаюсь на интересный сценарий, который вчера никому из нас в голову не пришел: умная колыбель.
И правда — колыбелька, которая умеет малыша именно так укачивать, как ему нравится — и по его движениям ловить тот момент, когда он готов расплакаться, но еще не начал это делать и укачивание способно предотвратить плач — великая вещь. Если получится, конечно, но искушенные инвесторы из a16z в это верят и вкладываются. А их слова “a new wave of ‘parenting co-pilots’ built with LLMs and agents” очень хорошо иллюстрируют, какие домашние сценарии мы пропускаем, увлекшись решением, в общем, скорее профессиональных чем семейных задач.
https://techcrunch.com/2024/11/07/ai-powered-parenting-is-here-and-a16z-is-ready-to-back-it/

Читать полностью…

Метаверсище и ИИще

Причем Лоры в Krea.ai не только на персонажей, но и на стили.

Народ уже резвится.

@cgevent

Читать полностью…

Метаверсище и ИИще

CogVideoX1.5-5B-SAT

Апгрейд CogVideoX. Генератор видео по тексту и по картинке.

CogVideoX1.5-5B поддерживает 10-секундные видеоролики высокого разрешения (1360 * 768). Пишут что для такого разрешения надо 66ГБ VRAM

CogVideoX1.5-5B-I2V поддерживает любое разрешение (!??). Видимо, речь о разрешении входной картинки

Демки нет. кто умеет - запускаем самостоятельно

#image2video #text2video

Читать полностью…

Метаверсище и ИИще

Посмотрите, как Runway представляет курение сигарет.

Надо было через бонг курить

Читать полностью…

Метаверсище и ИИще

Mochi-1 на 3060 12 гиг.

Generation time: about 1 hour 17 minutes for sampling, plus another 22 minutes for VAE decoding

Prompt: "A stunningly beautiful young caucasian business woman with short brunette hair and piercing blue eyes stands confidently on the sidewalk of a busy city street, talking and smiling, carrying on a conversation. The day is overcast. In the background, towering skyscrapers create a sense of scale and grandeur, while honking cars and bustling crowds add to the lively atmosphere of the street scene. Focus is on the woman, tack sharp."

@cgevent

Читать полностью…

Метаверсище и ИИще

Mochi-Tamagochi. Разбираемся с опен-сорсным видео-генератором Genmo\Mochi-1.

Тут я немного размечу опен-сорсную поляну для начала.
На ней топчутся и конкурируют друг с другом:
Open Sora - самый старый проект, но одновременно самый заброшенный и по качеству самый слабый.

CogVideo - хорошо развивается, есть много форков и параллельных веток, есть модели 2B и 5B, есть image2video. Последние обновления в октябре.

Allegro - бодрый новичок, нет image2video, multiGPU support.

PyramidFlow - очень многообещающий проект. Есть image2video. Только что перетренировали на базе Flux. Есть старая модель 720p на базе SD30 и новая 384p (miniflux). Обещают скоро новую 720р модель. Есть MultiGPU.

Для всего этого списка есть поддержка ComfyUI от великого и могучего Jukka Seppänen
https://github.com/kijai?tab=repositories

А теперь перейдем к Mochi.
Главный недостаток - нет image2video.
Вначале было заявлено, что нужно 4 карты H100, чтобы это все посчитать. Действительно, в две A100 это не влезало по памяти, я проверял. На восьми считалось неторопливо. Но считалось. Но результат меня не так чтобы впечатлил.

Далее.
Есть как бы вполне себе коммерческий генератор Genmo, а Mochi-1 - это как бы исходный код, элегантно выложенный в опен сорс. Хороший пиар ход, имхо.

Но.
Результаты генерации у них на сайте (за деньги или унылые 3 бесплатных попытки) разительно отличаются от локальный генераций в Комфи или из командной строки.

В Комфи Jukka Seppänen сразу сделал так, чтобы это влезало в 24 гига, сократив требования с 320 гиг до 20 гиг VRAM. Это прям разорвало мне мозг.

И вот теперь, вышел анонс от самого ComfyUI, что они поддерживают Мочи на обычных видеокартах.

Там есть инструкции, что и откуда скачивать, бывалые разберутся, правда и там путаницы хватает. То ссылки на полные веса, то на пожатые. Но не суть - я протестировал все, вплоть до 40гиговых непожатых весов и без вае тайлинга.
Результат НЕ радует.

Более того, репозитарий Mochi-1 -
это самый кривой и косой репозитарий из всех моделей.
Ставится все плохо, с ошибками, пути перепутаны и такое ощущение, что разработчики выкладывали код именно как пиар-акцию, на отвали. Отвечают медленно, обновляют также.

Я немного прижал их вопросами, почему у них так сладенько на сайте и так кривенько локально.
Они заявили, что на сайте тоже модель 480р, что нет улучшайзера, что дело в промптах. Что у них на сайте стоит auto-prompter, который раскучерявливает промпты до годного. Я попросил поделиться примерами, ушли в тень, сказали "потом".
В общем у меня странные чувства по поводу этого генератора. Jukka говорит, что там есть апскейлер, но меня больше всего подбешивает их картиночка с метриками тут, где они на гнилой козе якобы обходят, внимание, Runway, Kling и Luma.

Тут мое доверие иссякло. Мне не нравится, то, что они делают.

А локальные генерации у них на уровне Пирамиды или Кога. Может чуть лучше. Но до закрытых генераторов им как до Луны, там все очень грустно. И никакой управляемости. Рулетка text2image. Да, я сделал лисичку с их сайта. Но твари от Кога мне нравятся больше.

Но есть и хорошая новость, народ запускает Мочи на 3060 с 12 гиг врам. Можете попробовать, вот инструкция:
https://www.reddit.com/r/StableDiffusion/s/z4ZA3fPKXz

У меня все, надеюсь полезно. Хоть и недобро.

@cgevent

Читать полностью…

Метаверсище и ИИще

А поглядите на такое видео. Очень познавательно. 2 минуты

https://www.youtube.com/watch?v=eQEaiZ2j9oc
Тот случай, когда 3Д нужно не для радости, а для информации и точности.
Для радости у нас есть ИИ, но им такое точно не сделать.

А видео мне нравится, во-первых, своей понятностью и познавательностью. Расширяет представление о том, как мы слушаем Suno и Udio.
А во-вторых, интересно подумать, после 1:38, что можно пристроиться в эту цепочку со своим сигналом, подавать в кожаный мозг импульсы не из воздуха(акустика), а из аудиофайла напрямую, через ЦАП.

Я уже писал про кохлеарные имплантанты - эта тема меня не отпускает - маленький ребенок, который НИКОГДА не слышал звуков, вдруг начинает чувствовать некоторые электрические импульсы (вообще-то даже непонятно, что он начинает чувствовать, так как это отклик нервной системы, а не сенсорные ощущения). То есть он начинает чувствовать некий шум в голове, причем шум не акустический, а "нервный".
И постепенно, мозг на учится воспринимать этот канал связи как слух!
Подробнее тут:
/channel/cgevent/8250

Подумайте, на каких сигналах мы можем еще дообучить мозг.

А я пойду перечитаю свои посты, как мозг добровольцев обучали определять направление на север с помощью обратной связи. Раньше больше писал про мозги, сейчас со всеми этим флюксами и минимаксами забросил. А зря наверное, материала много.

@cgevent

Читать полностью…

Метаверсище и ИИще

Flux 1.1 Ultra Raw Mode

Читать полностью…

Метаверсище и ИИще

Тут я понял, что надо пояснить за Tencent.

Многие знают, что это папа и владелец WeChat и всей этой огромной экосистемы.

Немногие знают, что, например, они владеют 40% от Epic Games. Да, тот самый, который UE
100% от Riot Games
84% от финской Supercell
100% норвежской Funcom

Ну в общем это как бы монстр.

Вот вам картинка с их долями.

Ну и все, кто говорят, что развитие ИИ надо сдерживать, как-то забывают, что есть Тенсент с неограниченным ресурсом, и которому на эти сдерживания будет начхать.

А техно-оптимистам остается порадоваться, что ИИ без денег не останется по-любому.

@cgevent

Читать полностью…
Subscribe to a channel