То что нейронный сети уже узнают на фотографиях что угодно, это всем уже понятно.
Наткнулся на место, где можно поиграться самому с одним из таких датасетов и посмотреть поймет нейронная сеть, что на фото которое вы ей загрузите, или нет:
http://demo.cs.adelaide.edu.au/
Помимо сегментации (Generate segmentation), как на примере ниже, нейронная сеть может попробовать подписать текст (Generate caption) и объекты на вашей картинке (Object detection).
Результаты как правило хорошие, особенно если на фото есть люди, например, за обеденным столом. Особенно радует тот факт, насколько хорошо алгоритм вырезает область человека из фото, это значит, что через какое-то время в Photoshop станет на один удобный инструмент больше (запомните этот твит).
P.S. Вот прошлый пост, на тему распознавания объектов:
/channel/denissexy/421
Если попросить нейронную сеть (GAN) делать лица и наложить музыку, то получится примерно такое.
Достойная визуализация слова "крипота" 💖
Теперь вы можете порисовать вместе с нейронной сетью:
https://magenta.tensorflow.org/assets/sketch_rnn_demo/index.html
После того, как вы начнете рисовать объект, sketch-rnn попытается его дорисовать, работает довольно клево, ниже гифка. Сверху можно выбрать какой именно объект вы рисуете с нейронкой.
С телефона осторожнее — один датасет-каракуль весит около 5 мб.
Описание проекта находится тут:
https://magenta.tensorflow.org/sketch-rnn-demo ( 💖 Tensorflow)
В середине марта (до WWDC) Bloomberg делал пост о планах Apple на тему AR — там много слухов, часть из которых в итоге подтвердилась и в конце статьи речь идет о очках, которые, вполне логично выпустить, если решена проблема с трекингом поверхностей.
Ну так вот, по моему мнению, она решена в iOS 11:
https://www.youtube.com/watch?v=TBtwElmFbLA
И это настолько хорошо выглядит, что даже страшно представить, что было-бы, если бы кто-то из корпораций выпустил бы нормальные очки или линзы, в общем, устройство которые можно было бы использовать постоянно. Подождем немного и непременно узнаем.
Я так понимаю, что то, что показано в видео, было записано в специальной комнате с датчиками со всех сторон — но как же клево это все смотрится в AR 👾
На DTF вышел совершенно фантастический пост о возможностях AR kit в iOS11, с примерами. Я вот проморгал во время презентации на WWDС, что вокруг объекта в AR kit можно ходить и просмотреть его со всех сторон.
Жду не дождусь запуска AR kit на массовый рынок, чтобы посмотреть то, на что способны студии и инди разработчики 💖
https://dtf.ru/7618
Если вам кажется, что вы все понимаете в индустрии VR и вас сложно удивить, то я принес вам ссылку:
https://youtu.be/S5jWuwx1cP4
Я примерно понимаю, что происходит в видео, но расписывать это не возьмусь.
Вот официальная копипаста:
«We present FaceDisplay, a multi-display mobile virtual reality (VR) head mounted display (HMD), designed to enable non-HMD users to perceive and interact with the virtual world of the HMD user»
Скажу лишь только, что такой шлем очень бы пошел группе Daft Punk, но скорее всего не VR-геймерам (Если только за дело не взялась бы Nintendo)
Наконец, трезвые предсказания по VR\AR до 2025 года от Джези Скэла, профессора Carnegie Mellon University:
— Рынок VR игр достигнет $7,5-$22,5 млрд, что составит от 5% до 15% всей игровой индустрии [к примеру, рынок IoT платформ к этому времени не превысит $2 млрд]. Прогнозы Digi-Capital про рост рынка AR до $90 млрд к 2020 он называет «очень, очень неверным»;
— Рынок AR будет составлять всего лишь 15% от рынка VR;
— Большая часть взаимодействий с игровым миром будет реализованы через контроллеры, вроде Touch или Wands. Системы, которые бы отслеживали движения рук не будут активно внедрятся потому что а) дорого, б) они не точные, в) не передают тактильных ощущений;
— AR нужно много времени чтобы выглядеть так как повседневные очки. До этого момента AR будет громоздким и на улицах будет выглядеть глупо [Джэзи вспоминает чудовищный провал Google Glasses];
— Hololens не скоро станет повседневным явлением. Из-за тёмных стёкол сложно различить верхнюю часть лица. А общество не примет устройство, которое не позволяет установить естественный зрительный контакт;
— Никто не хочет быть собеседником человека с громадной камерой на очках, речь о приватность. Это еще одна проблема для развития повседневного AR;
— VR будет удерживать преимущество благодаря несравненно большему углу обзору;
— Сенсоры для аугментированной реальность находятся на стадии раннего детства: они недостаточно хорошо распознают окружающий мир и требуют много ресурсов.
И закончил он клёвой фразой «We are designing the eyes of the next generation. So I urge you to all work together to make sure we make the best damn eyes the world has ever known.»
Собрал любопытные исторические карты обработанные нейронной сетью pix2pix
http://telegra.ph/Starye-karty-teper-novye-karty-06-08
А вот это находчиво — на ТЖ пост о том, что хакеры могли управлять вирусом с помощью комментариев к постам Бритни Спирс в инстаграм ¯\_(ツ)_/¯
https://tjournal.ru/45138-vzlom-ili-instagram
Как же клево смотрятся все эти отсканированные 3D модели в умелых руках – по ссылке ниже клип группы Grand Yellow с песней “On My Way”
https://vimeo.com/akatre/onmyway
Я вас как-то мучил, просил задать вопросы таксистам: что они думают насчет автономных автомобилей? Как скоро они появятся и станут обычным видом такси?
Довольно много людей прислали ответы, спасибо вам за то, что поучаствовали 💖
В 70% ответы были в стиле «Да как робот по таким дорогам будет ездить», «Да, в мире где-то роботы начнут людей перевозить, но в России еще долго такого не случится», «Вы зиму нашу видели? Как он тут проедет!» и т.п.
Остальные в целом принимают автономное будущее, а один таксист пожилого возраста отдельно сетовал: «Я не знаю, чем буду заниматься через 10 лет, я сейчас уже вижу как сильно Uber изменил то, где я работаю, – что будет, ума не приложу».
Отдельно порадовал ответ в стиле «Да конечно наступит, но мне больше интересно, как поменяются бандиты под эту индустрию – заказал себе машину, загнал в свинцовый контейнер и разбирай там» – действительно интересная мысль, о которой я даже не думал.
Я наткнулся на довольно адекватное исследование на тему автомобилей будущего – в исследовании утверждается, что к 2030 году 95% всего транспортного потока такси будет осуществляться автономными машинами. Речь идет именно о такси, не о частных машинах и не о грузовых перевозках – что будет происходить там, в документе не уточняется.
То, к чему я со скептицизмом отношусь в документе, так это к части о банкротстве множества нефтяных компаний к 2030 году. Это 13 лет и у них сильное лобби, я хотел бы в это верить, но звучит наивно (исключительно мое мнение, я не навязываю, более того – я совсем не экономист, но промышленная индустрия все так же потребляет большое количество нефти).
Ну и ради интереса, посмотрите на фото Пятой Авеню Нью-Йорка в 1900 году – больше 90% транспорта это лошади с повозками. Посмотрите на эту же улицу в 1914 году – 90% транспорта это автомобили и это всего за 13 лет.
Но, конечно, у лошадей не было лобби и миллиардов долларов на торможение технологического прогресса 🎠
Ссылка на исследование в PDF, 15 мб (зеркало)
Я там выше хвастал, что мою статью взяли в GQ, так вот она теперь доступна на сайте, а я все также хочу пошутить, что в GQ дали написать сумасшедшему 🤴🏻(мне)
http://www.gq.ru/lifestyle/v-buduschem-nam-ostanetsya-tolko-trahatsya
Если мы уже в будущем, тогда что будет в будущем-будущем?
http://shir-man.com/static/tg/soccerwtf.mp4
Даже не знаю, что происходит на видео, но это вопрос времени, пока китайцы добавят туда огнемет 🤖
Многие пишут и спрашивают, забросил ли я канал (серьезно, человек 20 уже), нет не забросил, сейчас работы станет чуть поменьше и я выйду на привычное расписание, уже на следующей неделе 💖
https://vimeo.com/225331391
На видео ниже, вы можете посмотреть любопытный концепт фото-приложения в AR, то есть оно делает 2D снимки, привычные нам и оставляет их в том месте, где находилась камера в момент съемки.
Выходит довольно наглядно и во славу энтропии 👾
Любопытно было бы подвязать это к гео-данным и фоткам из инстаграма, чтобы посмотреть как выглядят все эти фото в реальном мире, и с каких ракурсов их фотографировали
Вы только представьте, через какое-то время, приложения по доставке еды обзаведутся такой AR фичей в рамках конкуренции между друг-другом:
https://www.youtube.com/watch?v=IjE1TnZ1S1c
Ох, скорее бы сентябрь, все это можно будет пощупать уже в продакшене. В целом и сейчас можно, но я искренне не люблю баги, поэтому решил не ставить новую версию iOS 11 раньше времени.
Это уже пятый пост про AR kit, я понимаю, что звучу как apple boy, но я все же о технологии, надеюсь Google допилит свой Tango на фоне таких успехов Apple с AR, и все в очередной раз изменится 🤖
Вы наверное все слышали про то, что возможно телеграму достанется блокировка в РФ, а возможно и нет — я не знаю как там будет, про политику я не пишу принципиально, но пока мы вместе и никто нас не разлучил, я просто хочу сказать вам спасибо, за то, что так получилось, что вы читаете мой канал.
Веду я его где-то месяцев 6 уже и мне не всегда удается уделить ему достаточно времени, особенно в последние недели, но я даже и не думал, что хобби ковырять что-то в нейронках или делиться своими фантазиями о будущем, может кому-нибудь понравится настолько.
Спасибо, вам, вы такие сладкие что сахар горчит после вас!
(не удержался и сделал этот пост еще более мерзким)
И чтобы это сообщение несло хоть какую-то пользу, вот вам робот-картошка:
https://www.youtube.com/watch?v=oNjPHcIzQkM
А еще я зарегистрировал порнодомен где всегда есть актуальные копии постов с моего канала:
http://denissexy.com
💖 💖 💖
Трансфер стилей с помощью нейронных сетей, становится все лучше и лучше —14 июня появился документ описывающий работу алгоритма для переноса текстуры лица (если так можно сказать) с фотореалестичной детализацией. То есть вы задаете стиль который хотели бы получить и выбираете лицо, на которое хотели бы наложить этот стиль, и получается очень клево.
Сам документ вот: https://arxiv.org/abs/1706.04306
А ниже пример того, что удалось получить на выходе.
Помните француза который на документы свои рендеры подал вместо фото? Ну так вот, через какое-то время это сможет сделать любой желающий — было бы здорово получить такой инструмент внутри смартфона, чтобы селфи можно было бы не снимать, а генерировать 💖
Исходный код, пока, недоступен
Наконец-то кто-то сделал регулятор громкости который не стыдно поставить себе на сайт
Читать полностью…На моём любимом канале «Kurzgesagt – In a Nutshell» новое видео:
https://youtu.be/WSKi8HfcxEk
О том как роботы захватывают рабочие места людей и о том, что в целом это не то же самое, что было в прошлом веке с автоматизацией производства — речь именно о замене людей алгоритмами, софтом.
Также в видео есть немного аналитики — на скриншоте ниже график возникновения новых рабочих мест в США, как видите, он так себе — а людей с каждым годом становится все больше.
С чем я абсолютно согласен — общество по всему миру будет меняться и поменяется еще при нашей жизни 💖🤖
Кто из нас не захотел бы быть доктором октопусом? Ну тем, который человеку пауку надавал еще, помните?
Так вот, в видео ниже дополнительная пара рук, которой управляют с помощью ног:
https://youtube.com/watch?v=sKjAp0iZ7dc
Нейронные сети уже генерировали лица несуществующих людей на основе общего датасета, но как правило на выходе получалось 256 на 256 пикселей и выглядело это так себе в плане детализации.
По ссылке автор задался целью генерировать 4к изображения лиц для арт проекта — ниже пару примеров того, что получилось на выходе и описание подхода.
http://mtyka.github.io/machine/learning/2017/06/06/highres-gan-faces.html
(Немного криповато, да?)
Продолжаю рекомендовать вам всякое – рекомендую авторский канал @groks Ильи Пестова — о технологических трендах и маркетинге. Отчёты, данные, графики, новости, подборки статей на русском и английском, и собственный взгляд на события от человека, работающего в индустрии диджитала
Читать полностью…Присядьте если вы стоите – по ссылке код, который позволяет реконструировать изображение лиц людей из считанной датчиками нейронной активности мозга обезьян.
Считанной. Активности. Мозга. Обезьян. Лица.
http://www.cell.com/cell/fulltext/S0092-8674(17)30538-X
UPD. То есть ученые смогли заглянуть в голову обезьянам и увидеть то, что они видели в какой-то момент
Помните, я спрашивал, нужен чат каналу или не нужен? На самом деле новый чат не нужен, но только потому, что у нас с @brodetsky и еще у 400 человек уже есть уютный чатик:
http://t.me/joinchat/AAAAAD8t8mqcQRZFr69hQQ
Во-первых, я там встретил своего двоюродного брата, во-вторых, если бы не этот чат – я бы не сделал этот канал, точно вам говорю 💖
В общем, заходите, мы там собираем интересные ссылки, обсуждаем новости IT, удивляемся спамерам и всегда рады новым гостям.