Тем временем огнеметы на роботах становятся мейнстримом – ниже видео о DIY проекте, где есть все что нужно: огнемет, робот, пластиковые солдатики убегающие в ужасе
Смотреть с 8:00
https://youtu.be/3NIg0vOetHo
Опрос, опрос 🎉 Скажите как вам этот канал, правда клевый?
👌Клевый – 435
👍👍👍👍👍👍👍 100%
👥 435 people voted so far.
Если ты Alexa (ассистент от Amazon) и никому не хочешь врать о своих связях с ЦРУ:
http://shir-man.com/static/tg/alexa.mp4 😰👮
Audi с помощью аналога кинекта, песочницы, Unity и VR шлема запустила прекрасный проект – вы строите себе куличики, замок, трассу в песочнице, а потом одеваете VR шлем и катаетесь по своей же трассе 🎈
Видео создания:
https://youtu.be/8Ik4Pn2fF7c
360 видео в процессе поездки:
https://youtu.be/KoMsDIb8uLk
Хорошо быть ребенком в 2017 году, я такое придумывал ползая щекой по песку в детстве. Песок был не вкусный!
Машинное обучение и мода – это те индустрии которые ещё столкнуться в будущем, так как в данный момент, как мне кажется, мода живет себе без прогресса, если это не касается новых видов синтетики, очков снепчата или модельера с 3d принтером 💁🏻
Так вот, на arxivorg любопытный документ о том как группа ученых пытается с помощью нейронной сети распознавать одежду – ремни, брюки, шорты, пуловеры, свитшоты – в общем одежду. В документе отдельно описано насколько это сложная и комплексная задача, но результаты распознавания уже сейчас неплохие, ниже будет пару примеров.
Сам документ находится по ссылке:
https://arxiv.org/abs/1703.01386
А я уже давно жду приложение, которое бы само собрало мне модный лук – я довольно ленивый чтобы мерить 20 вещей в магазине, но готов нажать пару кнопок на телефоне чтобы мне сделали клевый стиль и сказали где что купить, а лучше доставили.
И если уж мы о моде, а вы разработчик, и дочитали до этого места, то вот ссылка на датасет где почти 800000+ вещей по группам 🎉:
http://bit.ly/2mUHA7N
Я в последнее время развлекаю себя когда езжу в такси – спрашиваю о том, что думает таксист о автопилотах в автомобилестроении – типа "Как вы думаете, будут роботакси у нас по дорогам ездить в ближайшие лет 5?"
Все дают разные ответы и если честно, мне просто интересно послушать их доводы, я даже не спорю, просто собираю информацию – кто-то говорит "Да ты дороги эти видел?", "В -30 сломается твой робот", "Не существует таких процессоров, невозможно вычислить это все, физически не способны процессоры на это", ну а кто-то говорит "Да, верю – не знаю что делать на пенсии, раньше хоть думал таксовать буду, а сейчас вижу что не буду уже".
В общем – мне очень интересно почему люди думают, что этого не будет и у меня к вам предложение, вы когда в следующий раз поедете в такси, задайте этот вопрос чтобы поддержать беседу, и если вам вдруг будет не лень, поделитесь своим ответом со мной – а я соберу их в список.
Вот, даже кнопку сделал 💖
Новость мельком: GoogLeNet успешно определяет раковые метастазы в 92% случаев, в то время как опытный врач в 73%.
👨🏻🔬 + 🤖 = 💖
Детали: http://bit.ly/2lv6SsX
Autodesk с помощью "Dream catcher" спроектировал идеальное раллийное шасси по мнению алгоритма для генеративного дизайна.
Я рекомендую посмотреть это видео (https://youtube.com/watch?v=aR5N2Jl8k14), оно расскажет самое актуальное в мире дополненного дизайна и союза между человеком и компьютером, а ниже скину пару кадров шасси машины мечты для AI 🎈
При проектировании шасси все данные брались из реальных гоночных показателей (в видео об этом расскажут).
А дизайн будущего напоминает корабли из вселенной чужого
¯\_(ツ)_/¯
Знаете, что было бы если бы луна была бы всего в один пиксель размером?
Было бы такое: http://bit.ly/2m97GCr (не сотрите свой скролл 💕)
Нашёл забавную игрушку в браузере, которая наглядно показывает работу AI в самоуправляемых автомобилях. Это 2D пространство с двумя машинками и блоками, которые они успешно (или нет) объезжают. Машинками управляет нейросеть и правила, что движение вперёд это хорошо, а врезаться в стены — плохо. Для навигации используются 19 сенсоров, имитирующих технологию LIDAR, которую гугл и убер используют для своих беспилотных автомобилей, только сенсоров у них побольше. А ещё там можно дорисовывать блоки прямо на дороге машинки, и создавать им ощутимые проблемы :) Попробуйте, выглядит интересно. Самое главное, народ начинает привыкать к тому, что этого не избежать и вопрос "если" касательно self-driving cars уже превратился в "когда".
http://janhuenermann.com/projects/learning-to-drive
Я когда-то давно писал про Direct Sparse Odometry (DSO) – о технологии которая позволяет строить 3D сцену используя только изображение. Так вот, та же команда опубликовала видео подобного алгоритма, установленного уже на дрона. В видео дрон анализируя в режиме реального времени объекты вокруг себя избегает столкновений с объектами строя 3D сцену и пытаясь найти оптимальный маршрут "вокруг":
https://youtu.be/jh6tMHjxHSY
Мне кажется войну с машинами мы уже проиграли, этот то хоть без огнемета пока 🙈
Старый пост о DSO – http://bit.ly/2lmVsDr
Существует такой процесс у звукорежиссеров – разметка звуковой дорожки. Это муторный процесс, когда оператор прослушивает длинный аудиофайл и помечает на нем все сторонние шумы – кашель, мат, дефекты речи и тп. Процесс этот довольно сложный, а еще не очень надежный – так как работу делает человек и всегда может что-то пойти не так. На помощь, как всегда, приходят алгоритмы машинного обучения – по ссылке описание проекта который предлагает связку для разметки – работу алгоритма и человека:
Оператор выбирает один звук по шаблону (с текущей дорожки или из отдельного файла), после чего алгоритм предлагает ему свои варианты разметки, а человек "лайкая" решения алгоритма делают эту выборку точнее.
Вот видео (Смотреть с 1:20), где показано как это работает.
А вот интерактивное демо которое долго грузится и работает только с компьютера.
Это конечно не так впечатляет как разбивка аудио на дорожки с помощью машинного обучения, но во всяком случае уже сейчас работающий софт.
А еще такой алгоритм скорее всего уже есть у некоторых служб всякой там безопасности ¯\_(ツ)_/¯
Цитата: "Google закроет групповой мессенджер Spaces, не проработавший и года" ¯\_(ツ)_/¯
Этот прекрасный сериал про гугл и его мессенджеры:
http://bit.ly/2lPEFvK
Андрей @brodetsky скинул интересную нейронку (кстати, кто на него не подписался, подпишитесь, если бы не он я вообще бы канал не сделал 🎈) – на входе нейронной сети дают изображение объекта с определенного угла, далее нейронная сеть "галлюцинирует" дорисовывая 3D модель сама по себе. Само собой в алгоритме используется большой датасет 3D объектов, поэтому нейронка и выдает такое высокое качество синтеза.
Работает это все возмутительно хорошо, но к сожалению по ссылке на код, там выпадает 404 – я написал авторам, но они пока молчат, так что пока не получится это поковырять всем желающим ☹️
Ссылка на проект:
http://www.cs.unc.edu/~eunbyung/tvsn/
Ниже гифка с примером. Те объекты которые вращаются как раз "оживили" с помощью этого алгоритма.
А если вам вдруг интересно, на чем крутится бот медузы (@MeduzaEyesBot) – ну тот, который глаза закатывает, то вот описание Deep Warp алгоритма:
http://bit.ly/2niFkDj
А вот тут веб версия, где даже больше разных движений для глаз:
http://163.172.78.19/
Если обучить алгоритм машинного обучения на 80 миллионах комментариев с Reddit то получится такой прекрасный собеседник: http://comment.ai/
Ниже пара цитат, работает только с английским ¯\_(ツ)_/¯
А я тем временем нашел клиентом какого банка я стану
https://youtu.be/D0rStdHowAg?t=465
DOOMBANK!
Поскольку я тоже очень хочу попробовать в генеративный дизайн, а доступ в Dream Cather мне не дают, то вот вам генеративный трактор созданный мной от вдохновения постом выше.
"слабоумие_и_отвага.jpeg"
Пишет нам Денис (популярное имя🎈) по поводу ссылки выше:
«Я попробовал, очень понравилось, но захотелось поскроллить дальше солнечной системы. Грубо прикинул, сколько удается проскроллить за минуту и посчитал расстояние до ближайжей звезды Proxima Centauri. Получилось 12 суток беспрерывного скролла! А до самого дальнего видимого объекта вселенной, галактики GN-z11, скроллить 105,7 миллионов лет! И это притом что скроллить получается быстрее скорости света в 126 раз.
От осознания глубины вселенной я немного сошел с ума, поэтому мне пришлось кому-то написать об этом, извини»
Берегите свои скроллы, не покидайте пределов браузера 💁🏻
Команда создавшая технологию литий-ионных аккумуляторов отчиталась о создании новой технологии – вот краткие тезисы:
– Это недорогая в производстве и полностью твердотельная батарея
– Емкость батареи в 3 раза выше литий-ионных аккумуляторов
– Батарея сделана из негорючих материалов
– Новая технология поддерживает "быструю зарядку"
– Это первая полностью твердотельная аккумуляторная батарея, которая может работать при температуре до 60 градусов Цельсия
– Стеклянные электролиты позволяют инженерам наносить на пластинки и лить щелочные металлы как на катоде, так и на стороне анода без дендритов, что упрощает изготовление аккумуляторных элементов
(Я надеюсь есть хоть кто-то, кто понял что это значит)
И самое главное:
Другим преимуществом технологии является то, что элементы аккумуляторной батареи могут быть изготовлены из экологически чистых материалов. Стеклянные электролиты позволяют заменить дешевый натрий на литий. Натрий извлекается из морской воды, которая широко доступна.
В общем, поскольку эта команда создавшая технологию литий-ионных аккумуляторов, то есть очень большой шанс того, что это не просто "хайп" и очередная новость в стиле "ученые создали вечную батарею" – а реальная технология, которая (очень хочется верить) скоро поступит на рынок.
Подробнее и на английском тут:
https://news.utexas.edu/2017/02/28/goodenough-introduces-new-battery-technology
Кстати, команду исследователей возглавляет Джон Гуденаф и ему 94 года, это для тех кто любит жаловаться – "О, я уже слишком стар для этого js дерьма, мне почти 30" 🎈
Все же видели нового робота от Boston dynamics?
https://youtu.be/-7xvqQeoA8c
Я решил не ждать пока китайцы поставят на него огнеметы и справился сам, как я и говорил – эту войну мы уже проиграли.
Поскольку мы живем в эпоху где big data повсюду, машинное обучение только и ждет чтобы что-то еще спрогнозировать или проанализировать, то ничего удивительного, что люди ради науки готовы тратить свои силы и энергию, не жалея себя, так сказать, отдаваясь ей полностью.
Вчера я наткнулся на пост с заголовком 📝 "Кто-то на Reddit проанализировал все свои случаи мастурбации за четыре года и внес в табличку" (https://tjournal.ru/41411) – и сразу понял, это та самая big data которую мы заслужили и принялся прогонять эти данные (http://bit.ly/2lmXhAn) через нейронную сеть.
В итоге у меня получилось, что в 2017 году, 28 декабря в воскресенье, автору этой таблички будет скучно и он скорее то самое то сделает, минут на 28. А самое главное, удалось сделать карту секса этого чувака – секс у него будет только 44 раза (фиксируем падение на 11 пунктов). Там еще есть данные "аномально длинных сессий автора" – но я решил в них не слишком то углубляться ¯\_(ツ)_/¯
Я не самая яркая звездочка машинного обучения, поэтому скорее всего что-то напутал (я даже уверен, что напутал), но если вам нечего делать и вы хотите поковырять нейронку на основе данных, то вот ссылка на сервис где я все это делал:
https://bigml.com
(После импорта файла, сделайте датасет и уже на его основе стройте модельку, расставляя там веса и запуская тренировку)
Слава науке! 🎉
Наконец-то любопытный алгоритм улучшения качества low-res картинок (Super-Resolution), да еще и без требований к датасету (кроме картинки маленького разрешения), да еще и с открытым исходным кодом 💖:
http://liviu.me/blog/super-resolution-using-coordinates-networks
Ниже примеры работы
🎉 О, я вам отменный тупак принес, после которого я понимаю, что станет скорее всего так.
Но поскольку ботов стало довольно много – теперь можно не выходя из телеграма сделать такой ужас что ниже, слава роботам!
Цепочка ботов:
@beard_bot –> @MagicSmileBot –> @Icon8bot –> @EffectBot –> @PrismaBot –> @MeduzaEyesBot –> @EffectBot
Если Улыбашкин у вас лежит, и не отвечает, есть еще @MagicSmileBot – аналогичный бот (Спасибо Викентию, подписчику канала) 🐙
Читать полностью…