Мне кажется милым как создатель формата картинок WebP ходит по Твиттеру и рассказывает про бенефиты формата – и он на самом то деле прав, если сервис или ОС нормально не поддерживает WebP в 2024, это как минимум странно, потому что формат экономит терабайты трафика интернету.
Надеюсь, в телеграмме этот формат тоже начнут поддерживать наравне с Jpeg файлами, а не конвертировать в стикеры автоматом 😔
На наших глазах происходит переворот, в рамках отдельно взятого евросоюза:
1. Эппл разрешили сторонним браузерам и подобным приложениям использовать свои движки. Ждем настоящий Firefox и Chrome.
2. Начиная с iOS 17.4 разрешены альтернативные маркетплейсы приложений. Комиссии за продажу приложений не будет, но будет сбор в пол евро “за технологию”
3. Эппл разрешает сервисам стримминга игр (таким как Xbox Cloud Streaming или Nvidia GeForce Now) пристуствовать в AppStore. Т.е. теперь можно будет из аппстора поставить GeForce Now и удаленно играть в 3d игры прямо с планшета!
Это бомба, теперь заживем.
Классный пост от Антона, про то как он принял участие в соревновании по расшифровке древних свитков уничтоженных Везувием (тот вулкан, что уничтожил Помпеи и соседние города в 79 году).
Антон хоть пока и не выиграл главный приз, но выиграл промежуточный:
/channel/repushko_channel/1953
…пока в августе два студента (один из штатов, второй из Берлина) независимо друг от друга глазками(!) нашли какие-то непонятные рельефы, которые подтвердили изначальную идею: не смотря на то, что чернилы не видны, бумага осталась деформированной в местах написанных букв. В итоге задачей стало пытаться программно научиться определять вот эти деформированные места (иногда глазу и незаметные) и читать буковки. Где-то в этот момент (начало августа) я и ушел в соревнование с головой.
Очень люблю такое – сочетание передовых технологий и исторических материалов, это единственный способ заглянуть в наше, человеческое, прошлое
Плюсы своей офисной двери:
Можно прикинуться выдуманной корпорацией из фильма робокоп и смущать соседей ☕️
Минусы:
Приходится ходить в офис
Специально посмотрел промо-ролик Vision Pro, и видимо если маска не индивидуальная (а обещали такие именно делать при покупке, то есть под лицо юзера), то лицо может провалиться в эту маску – и придется так затягивать свое мини-лицо
Лучше бы рассказали, тянет это на внешний монитор или нет
Если вы пропустили, то нейролав это стартап, который возник из-за телеграм канала который вы сейчас читаете, точнее, после видео по ссылке и еще нескольких подобных, которые я делал исключительно чтобы поразвлекать вас и себя:
https://youtu.be/3RYNThid23g
Потом у меня была почти-что судебная тяжба с приведеньями Братьев Люмьер (их институтом), но наступил 2024, а значит видео в публичном домене, чтобы они там не говорили. Можете смотреть (ну или не смотреть, сюжета там не много, но зато все персонажи – актеры ☕️)
Я наткнулся на новый тул text2video (только не сгенерированное, а со стоков) – поэтому сегодня вам в ленту достается профессиональное рекламное видео, о том как какать не снимая футболки ☕️
✨ Хорошего дня ✨
Делал тут:
ai.invideo.io
UPD перезалил, пощажу ваши интернеты, 220 Mb даже для каканья перебор
Нравится наблюдать как новые технологии влияют на интерфейсы, вот интересный концепт на базе LLM:
– Если читаете длинный текст и хотите сделать его короче просто сожмите его пальцами и он суммаризируется не потеряв суть;
– Если хотите подробнее разобрать какой-то концепт, просто раздвиньте пальцами как при увеличении фото;
Форвардните, пожалуйста, кто-нибудь Дурову, мне кажется идеально для формата телеграм каналов и как premium фича, спасибо 🦆 я готов все каналы читать в виде пары предложений, даже свой
Автор концепта
Пятничная новость: куча товаров на Амазоне называются “I apologize but I cannot fulfill this request (because it violates OpenAI use Policy)” и подобными. Да, потому что выкладка товаров в магазины у многих уже автоматизирована через GPT. 2024, что ты делаешь, прекрати.
https://www.theverge.com/2024/1/12/24036156/openai-policy-amazon-ai-listings
Норм мы день для запуска на product hunt выбрали, какие-то ноунеймы конкурируют с нами ☕️
Читать полностью…Как раз наткнулся на реддит тред на тему сегодняшнего поста
Полным ходом несемся в SciFi 🦆
Мне кажется дни фото-эротики или фото-моделей постепенно подходят к концу — сделал эти картинки по простому промпту «Interior selfie of a tattooed woman with silver hair and piercings, shot on a low camera quality phone
» в MJ 6 style raw и эти девушки не существуют.
Я думаю, уже в этому году, нас ждет какой-то крупный адалт сервис который поставит такие генерации на поток, без каких-то лимитов на наготу (мелкие сервисы для генерации такого контента я уже видел, пока там нет такого фотореализма).
Причем, владельцы таких сервисов еще не распробовали совмещение генерации картинок с рекомендательными алгоритмами:
Пока что оценки используются для тренировки новых моделей, но в теории, оценки каждого пользователя могут позволить создать следующие генерации конкретно во вкусе пользователя — а это уже просто чистый дофамин-генератор, получать те самые, самые желанные картинки в вашем вкусе, 24/7, взломав чувство прекрасного каждого человека.
Если честно, я рад что застал старый интернет, где нужно было «искать», то что понравится именно тебе или просто знакомиться с другими людьми, что потом перетекало в обмен нюдисами (мне друг рассказывал ☕️) и всякое взрослое — все эти генеративные картинки / AI-секстинг чаты / робкие попытки в txt2video, приведут еще к большему увелечения количества инцелов и изоляции многих анонов по всему миру от реального оффлайн общения с людьми.
Уже давно пора вводить предмет «Этика в интернете и почему общаться вживую все еще клево», и каждый раз когда я вижу новый виток развития генерации текста, видео, картинок, я еще острее вспоминаю про это — но как всегда, многие учебные системы по миру отреагируют лет через ~10-20, когда большое количество людей уже попадет в «генеративную зависимость».
Короче, генеративные ИИ будто и благословение и проклятье одновременно — не могу перестать об этом думать 🤑
Давно не было космоса:
Ловите hi-res фото песчаной бури на Марсе, снимок сделан в 2022 году
Буря была настолько большой, что есть еще второй снимок этой же бури сделанный с орбиты Марса, приложу ссылку для масштаба
Кулибины из Stanford University x DeepMind из говна и палок собрали робота за $32k
Он управляется нейросеткой с ноутбука с GPU 3070TI и способен обучаться сложным задачам всего за 50 демонстраций. «Демонстрацией» тут называется последовательность действий, осуществляемая человеком со специальными контроллерами в руках (см. тут). Авторы тестировали робота на многих задачах, и в целом в более чем 50% случаев у него всё получается после шага обучения «подражанию» людям.
Делает ну буквально всё: готовит, заправляет стиралку, подметает, заправляет подушку в наволочку, протирает мебель... был бы у меня такой робот — я б может и не женился 🍷
Инструкция «собери сам» доступна тут, в основе лежат покупные робо-детали и распечатанные на 3D-принтере компоненты.
Больше демок: тут, тут, тут и тут. Тем, кто досмотрит приложенное видео до конца — бонус с нарезкой людей фейлов бота при готовке.
———————————
Начинаем 2024й год в AI с хороших новостей для сотрудников фастфуда☕️
Сегодня NASA объявили об окончании миссии героического вертолётика Ingenuity. Вертолётика, который смог.
Ingenuity разрабатывался на объедки бюджета миссии Mars 2020 (марсоход Perseverance), суммарно на программу было потрачено $85m. Кажется, что это много, но цена ровера БОЛЬШЕ ДВУХ МИЛЛИАРДОВ ДОЛЛАРОВ. В гирокоптере, например, процессор был тот же, что вставляли в телефоны Samsung Galaxy S5 или OnePlus One. Буквально кустарное производство по меркам космоиндустрии.
На него не возлагали больших надежд. Если правильно помню, в миссии было 5 основных целей (вроде успешного приземления на Марсе и развёртывания лопастей), и лишь пятая заключалась в тестовом полёте. В итоге за эти годы с момента десантирования малыш совершил невероятные 72 полёта, пролетев больше 17км (НА МАРСЕ) за 128 минут. Самый далёкий полёт позволил преодолеть 708 метров, самый длинный был 169 секунд (интересно, что ограничение вызвано не батарейками на борту, а тем, что моторы разогреваются на 1 градус Цельсия каждую секунду), а самая большая развитая скорость была 10 м/с (всё - разные полёты).
После недавней жёсткой посадки было обнаружено, что одна из лопастей повреждена, и продолжение миссии невозможно 😭 😭 Но в миссии было и много прекрасных моментов. Изначально Ingenuity не был предназначен для зимовки на Марсе, однако переписанная ээээ на лету (🙂) программа позволила скорректировать поведение (и самоподогрев). Также в ходе миссии коптер получил систему автоматического выбора посадочного места, пережил утрату сенсора, смог очиститься после песчаной бури... в общем, его жизнь была насыщенной.
Интересный факт: на Ingenuity был прикреплён кусочек первого самолёта братьев Райт — примерно так же, как и на Apollo 11 при высадке людей на Луну.
16-минутное видео от Veritasium о производстве Ingenuity.
На прикреплённом фото запечатлён момент «высадки» на Марс с брата-ровера в 2021м.
🫡🫡🫡 покойся с миром, мы за тобой придём
Нашел еще одно интересное применение моей "Image Edit, Copying & Merge GPT" для редактирования картинок:
Я уже больше года живу в текущей квартире, и все это время меня раздражают серые шторы которые достались от прошлых жильцов. Отсутствие ковра меня раздражает еще больше, но лень заняться этими вопросами всегда побеждала – подбирать что-то к чему-то это всегда муторный процесс и нужно лопатить пинтерест и тп, чтобы вдохновиться идеями, а это не самое мое любимое занятие, потому что я лучше поиграю в игры или поработаю.
В итоге, я просто скормил фотографию гостиной – и попросил добавить ковер на пол и поменять шторы.
Dalle 3, как мне кажется, в основном была обучена на "красивеньких картиночках" и модель почти всегда пытается сгенерировать то, что хорошо смотрится эстетически. В итоге, за ~5 минут получил идеи для ковра и штор, в цветовой гамме комнаты.
В текущей версии промпта GPT пытается перенести 21 (!) параметр исходный картинки. Если вы когда-то слышали про "оверинжениринг", то это про меня.
Если есть подписка в ChatPGT, то играться тут:
https://chat.openai.com/g/g-SIE5101qP-image-edit-copying-merge
А еще скоро будет 100k чатов с ней 💐
txt2img фейки успешно завоевывают инстаграм, новая эпоха интернета будет интересной 🔄
Читать полностью…Как смотрят Тома и Джери мальчики:
>Ставят торренты и качают все сезоны
Как смотрят Тома и Джери мужчины:
>Открывают официальный сайт ЦРУ с раскрытыми по закону о прозрачности файлами ноутбука Усамы бен Ладена, скачивают Тома и Джери, смотрят
Серьезно, есть официальный ЦРУ-сайт с файлами с ноутбука найденного в «убежище» лидера Аль-Каиды и там 140 серий Тома и Джери можно скачать без регистрации ☕️ я уже писал про эти данные, но не ожидал, что дают скачать вообще все с двух кликов
Сайт, уже с фильтром по видео:
https://www.cia.gov/library/abbottabad-compound/index_video.html
Классическое правило: «Первое поколение продуктов Apple не очень» во всей красе
Оказывается есть люди с не-элитарными, не-эльфийскими ушами, вы только представьте ☕️
Иногда пишут а как там чего нейролав – решили открыть наши данные по выручке, потому, что нам то без разницы а людям интересно:
https://twitter.com/literallydenis/status/1747318935932882945
В треде:
– Почему запускали новые продукты
– Какие гроухаки были
– 1-2 мема
– Планы и почему мы не планируем больше чем на 3+ месяца как команда (потому что хрен что спланируешь с таким AI темпом)
Клевый пример научного видео, где Ким Кардашьян и Тейлор Свифт обучают тиктокеров концепту определенного интеграла.
Думаю, этим способом можно будет обучить большую часть население земли чего-нибудь полезном (или не очень), клево же и наконец-то AI-аватары не для скам-рекламы нового дропа крипто-чего-то-там ☕️
Большие языковые модели часто ругают за то что они "галлюцинируют" ответы.
Суть этой проблемы лежит в архитектуре технологии – но люди замечают что модель "галлюцинирует" только в те моменты, когда модель ошибается в фактах и человек это заметил, на самом деле "галлюцинировать" ответы, это все что модель умеет и то, что она делает все время, просто чаще всего ответы модели выписываются логически и выглядят уместными.
Хорошая новость, что проблема галлюцинаций чинится даже с текущей архитектурой – с помощью введения дополнительных промежуточных этапов:
В Stanford нашли рабочий метод как заставить LLM отвечать корректные, реальные факты и на тестах их метод показал ~97% точности в фактчекинге.
Если коротко, они заставляют модель саму себя проверять на соответствие фактам, подавая в модель предыдущие ее же ответы, но уже с новыми промптами. Минусы такого подхода – время ответа становятся медленнее.
Можете тут бесплатно поиграться с их методом поверх англоязычной Wiki:
https://wikichat.genie.stanford.edu/
То есть все что демка ответит, на ~97% действительно содержится в англоязычной Wiki в виде фактов
Если коротко описать как это, когда запускаешь продукты на языках на которых не говоришь:
ВbI НАМ МИСКА РИСÂ. МЫ ВАМ ПИСÀТЬ ИСТÛРИИ 1 0 0 0 0 СИ МВОЛ 🇨🇳
Запустили с командой новый продукт LittleStory:
AI-генератор длинных и (относительно) интересных сказок для детей.
Пользователь регистрируется, добавляет на сайт описание ребенка (характер, возраст) и получает возможность с пары кликов сгенерировать историю и иллюстрации, где сам ребенок — главный герой, а сказка строится вокруг какой-то позитивной темы — здорового питания, хорошего поведения или простым языком рассказывается сложный научный концепт, аля квантовая физика для самых маленьких (сложность языка сказки подстраивается под возвраст).
Из прикольного — можно прописать любимую вселенную для сказки, игровую, книжную или из мультика. Ну и само собой каждая генерация тщательно проверяется на «безопасность темы» для детей.
Все работает на GPT4, поэтому бесплатно дать генерации пока что не можем — но зато мы нагенерировали сотни бесплатных сказок на разные темы, можно почитать и оценить качество.
Уже сейчас есть шесть языков (Английский, Хинди, Русский, Традиционный Китайский, Украинский, Голландский) и скоро доведем до 11+, еще планируем фичи вроде озвучки сказок или копирования голоса родителя для чтения этих самых сказок (небольшое вложение в SciFi от нас ☕️).
Это первый запуск нашей команды на Product Hunt, так что если у вас есть аккаунт, буду рад фидбеку там (комменты не на английском там удаляют 👍):
https://www.producthunt.com/posts/littlestory-io
Сайт проекта:
https://littlestory.io
(если мы ничего не сломали — а мы могли, то сразу откроется правильный язык)
P.S. Когда-нибудь расскажу как мы намучились с другими языками и gpt4 как переводчиком и с промптами размером с девятиэташку
P.P.S. Если вдруг решите поддержать проект и попробовать, то вот промо-код на 10% скидку при первой покупке WELCOME10
Запустился GPT-стор и моя GPT на 6 месте в мире в разделе Dalle, прикольненько
Доступен тут:
https://chat.openai.com/gpts
Самое главное теперь есть поиск по этим самым GPT
В Apple сделали рекламу шлема Vision Pro, в том же стиле что когда-то сделали для iPhone (второе видео), считываю это как довольно сильный посыл со стороны Apple что направление AR-шлема с нами на годы и по их мнению – такое же масштабное.
Я уже какое-то время записываю все домашние праздники в формате видео для шлема (spatial video) и тоже планировал взять его на запуске, но теперь искренне рад, что предзаказы и продажи пока будут доступны только в США, потому что зная Apple, немного стремно покупать устройство первого поколения – они часто глючат или так себе работают, а так будет много обзоров и станет понятно, насколько AR-шлем это революция или 😐-момент.
Лично я, расцениваю это устройство как замену монитору, если вы следите за каналом достаточно давно, то помните что я пытался работать в Quest 2 шлеме почти неделю – и это было тяжело, большое количество рабочих столов вокруг не окупало потеющее лицо, низкое качество пикселей, усталость шеи и глаз и тп, и тд.
Искренне надеюсь, что от шлема все будут в восторге и Apple доставит что обещали – хочется уже перестать покупать Мониторы/ТВ домой
У меня к вам предложение:
Вы игнорируете этот и следующий пост, а я вам раздражающую бегущую строку, которую делал пару часов ради того, чтобы ее закрепить 🤑
Спасибо, знал что мы договоримся!