Шоппинг нормального человека, это когда ты входишь, берешь что хочешь и выходишь. И вместо охраны и полиции, ты получаешь чек о успешном списании средств.
В общем Amazon go, о котором вы скорее всего слышали, именно так и работает – там используются технологии как в автономном вождении: множество сенсоров в магазине строят 3d карту павильона, а алгоритмы компьютерного обучения позволяет понять где сейчас находится товар.
Сейчас магазин работает в бете и для сотрудников Амазона, а в 2017 году его откроют уже для всех.
А вообще я где-то видел продуктовый, где на каждом товаре дешевая радио-метка и все что нужно сделать, это проехать мимо сканера и сразу оплатить в терминале, ума не приложу где, если вы что-то такое знаете, напишите пожалуйста мне 🤓
Видео:
https://m.youtube.com/watch?v=NrmMk1Myrxc
Любопытный факт, "Responsive Design" понемногу исчезает как отдельная концепция, так как он перешел в категорию стандарта веб разработки – в 2011 году о нем писали все ui/ux блоги, в 2017 уже никто про это не хвастает.
На картинке скриншот популярности фразы в поиске гугла.
И если вам кажется, что "ой, да у роботов же нет души, что там может быть красивого" или "раньше ИИ выступал лучше, а сейчас опопсел", то вот композиция написанная роботом, но сыгранная человеком от тех же чуваков выше: https://m.soundcloud.com/jukedeck/today
Пишет им музыку уже другая нейронная сеть.
Я понимаю что это уже третий пост за день, но он клевый, честно и я один день молчал!
Я очень верю в такое направление VR индустрии как «воспроизведение катастрофы» (http://bit.ly/2gNwZrZ), это когда вы запускаете игру и у вас всего 2 часа 40 минут, пока вы не доберетесь с нижней палубы Титаника до шлюпки спасения. Геймплей таких игр подразумевает пересечение хронологии катастрофы и действий игрока, и мне кажется в плане наглядности и обучения – это прекрасное дополнение к сухому учебнику.
По сути – любая битва, любая катастрофа, любой прорыв в науке – может быть «пережит» с учетом тех данных что нам известны и все это в VR.
И вот музей «The Newseum» в Вашигтоне запустил VR симулятор «Перл Харбора» (http://wapo.st/2fS9usW) – музей даже пригласили ветерана–очевидца который подтвердил, что все очень похоже и точно передает атмосферу событий 1941 года.
Вот еще пару проектов которые я встречал на эту тему:
Инди проект про Титаник, пока без людей, но зато с моделью 1 в 1.
https://www.youtube.com/watch?v=aAl22fZFbcg
Повторение миссии Apollo 11 в VR как раз в аттаче к этому посту.
Сап, телеграм. Это пост без ссылки (и даже не реклама), так как он короткий и интересен только тем кто пользуется Uber в Москве (как я) – 25MSK25 промо-код на скидку 25%, на 25 поездок, до 15 декабря. Я не знаю подойдет ли он всем, нужен ли он вам, но как фанат облачного такси и чувак без прав, я доволен.
#оффтоп
Очень клевый документ на arxiv.org (http://bit.ly/2gj6ZnI) – в документе авторы предлагают neural style алгоритм, но адаптированный исключительно под шрифты. Это позволяет им сделать такое как ниже и это фантастика – это как Word Art нормального человека.
То есть иными словами – чтобы нарисовать какую-то надпись, в каком-то стиле, то вам нужен всего лишь сам шрифт, знания фотошопа вам для этого не нужны.
Сам алгоритм умеет комбинировать разные стили neural art под разные "слои" изображения. А значит, что этот алгоритм уже можно адаптировать под любую векторную графику – вдохнуть жизнь во flash Масяню и svg иконки, так сказать.
По ссылке только формулы и описание, исходный код пока недоступен.
Если вдруг вы хотели знать насколько клевый Google Maps в VR – настолько:
http://i.imgur.com/9Mw4ZOV.gifv
Всем привет, небольшое продолжение истории про «Телеграм ОС», а именно про опыт китайских коллег и WeeChat. Если у вас нет времени заглянуть по ссылке – то вот выжимка: Даже в китайском интернете e-commerce заказы происходят не через чат-ботов, как многие думают, а через html5 приложения которые запускаются внутри чатов. По ссылке пример из чата макдональдса и пару скриншотов.
http://shir-man.com/ieshchie-odin-udar-po-chatbotam-2/
Если вы всегда хотели стильного робота-друга, то мне кажется время вас обрадовать. Встречайте – робот BALLU (Bouyancy-Assisted Lightweight Legged Unit), это робот который передвигается «на стиле» с помощью шара с гелием.
На самом деле это исследование концепции когда роботу не нужно нести собственный вес, для этого к шарам с гелием крепятся ноги – маленькие тоненькие робоножки и робот буквально начинает «плыть» в воздухе.
И этими вот тонюсенькими робоножками BALLU и ходит, совсем как взрослый робот – очень мило как по мне.
Посмотрите видео в общем:
https://youtu.be/EdSoUbXirVI
Сап телеграм! Я знаю, что уже достал всех с призма-подобными алгоритмами (прошлый пост: /channel/denissexy/32), но на arxiv.org выложили описание улучшенного метода переноса художественного стиля, который работает намного качественнее – он "фактурнее" делает стилизацию, алгоритм умеет смешивать стили, использовать для различных объектов свой художественный стиль (учитывать контекст объекта), рендерить все это в хорошем разрешении – в общем посмотрите на картинки ниже, я впечатлён .
Будь я художником – я бы стал луддитом.
Ссылка на сам документ:
https://arxiv.org/pdf/1611.07865v1
Исходный код пока недоступен.
Теперь ясно как Трамп победил выборы – это новый уровень в спаме гугл аналитики я считаю
Читать полностью…Вот вы все веселились в играх типа поинт-н-клик, не воспринимали их всерьез – а в Голландии готовы тестировать AR приложение для полиции которое "подсвечивает" объекты на месте преступления.
На этом месте был такой поток шуток, что я вас пощадил. Но главное, что скорее всего оно правда будет работать и всякие heavy rain гаджеты действительно могут сильно помочь.
https://www.newscientist.com/article/2113450-dutch-police-use-augmented-reality-to-investigate-crime-scenes/
Запомните: роботы - наши верные друзья.
https://twitter.com/keith_alfaro/status/797982176906088448
https://youtu.be/ePUlJMtclcY
Я уже как-то писал про то, как нейронные сети генерируют образы на основе тех датасетов на которых их обучили (http://bit.ly/2gXERV7). Генерация таких изображений, да еще и в высоком разрешении, и без артефактов – одна из сложнейших задач которую пытаются решить ученые – и каждый шаг в этой области мне кажется будет даваться очень тяжело.
Но уже сейчас мы можем вырезать «часть» картинки, и просить нейронную сеть дорисовать ее, это делает Adobe research, я об этом напишу как-нибудь позже.
В видео к посту 10 классов изображений сгенерированных на основе 10 разных датасетов, каждый класс обучен на 1000 изображений одного типа. На выходе ученым удалось получить изображения 227x227 которые они и собрали в такое видео.
Если вам интересны детали того, как это работает, то вот ссылка на документ:
http://www.evolvingai.org/files/nguyen2016ppgn_v1.pdf
Как вы себе представляли битву магов? Вспышки света, огненные шары, Авада Кедавра, вот это все? Или как в той серии South Park?
На самом деле маги воюют с помощью юристов и не против других магов, а против магического пиратства – торрент трекера где находятся обучающие видео различным фокусам.
По ссылке интересная статья про «Art of Misdirection» – один из самых закрытых торрент трекеров мира, там всего 600 человек, доступ строго по инвайтам и на основе голосования за нового участника. На «Art of Misdirection» выкладывают пиратские материалы объясняющие как работает тот или иной фокус. Причем речь идет не о монетке из уха, речь идет о распиливании людей, левитации Коперфильда, освобождении от цепей в аквариуме и тп.
В общем если коротко – магическая индустрия также страдает от пиратства как и любая другая, лишая магов денег.
Я не знаю хорошо это или плохо, но нахожу очень смешным борьбу магов в интернете друг с другом. Они же маги, пусть отключат 53 порт по всему миру!
Вот статья на английском:
http://www.businessinsider.com/inside-art-of-misdirection-ultra-exclusive-private-torrent-tracker-magical-pirates-invites-2016-11
Сап телеграм. Этим утром я принес вам пост про приложение «Тлен» – про которое вы вполне могли слышать пару лет назад, так как о нём говорили даже на радио, и много еще где. В общем это поучительная история, где я и партнер по инди-студии почти заработали 1000 долларов на чб фотографиях.
(Мы конечно лошки, можно было бы и больше, но это уже другая поучительная история)
http://shir-man.com/prilozhieniie-tlien-ili-882-i-89-tysiach-skachiek-na-ghrusti-2/
Чуваки из Jukedeck попросили написанную ими нейронную сеть "сыграть" музыку определённой длинны и в определенном стиле. И вот что получилось: https://m.soundcloud.com/jukedeck/upright-piano-audio-synthesis
Я не знаю как вы, но я впечатлен и уже готов идти на концерт нейронной сети (на самом деле давно).
А еще интересно как будет трансформироваться индустрия музыки – когда каждый желающий сможет сделать датасет на Beatles и стилизовать под них свои домашние концерты. Что-то мне подсказывает, что индустрии лицензирования контента нейронные сети не нравятся ☺️
Я большой фанат железа 💖. То есть если говорить начистоту – то мой лучший альбом написала не Земфира, а Ардуино. В общем – если у вас есть дома осциллограф, вы немного представляете зачем он нужен и что такое demo сцена – то вы можете совершенно легально вывести на него такую красоту:
http://bit.ly/2gfB1pz
Все изображения которые выводятся на экран выводятся исключительно с помощью аудио-файла. То есть автор смог совместить и музыку, и образы, за что получает премию "👑 Sexy IT" ноября которую я только что выдумал.
Детали как автор проекта это сделал, можно почитать тут: http://oscilloscopemusic.com
Кстати, очень много инди проектов собрано на этом сайте, очень рекомендую: hackaday.com, это как dirty, но про железо.
Посмотрите музыку в общем.
Ну и раз мы про дизайн и дизайнеров – вот сайт http://logojoy.com – который с помощью не хитрого алгоритма помогает каждому желающему сделать логотип и фирменный стиль. Это не просто концепция, это рабочий сервис который приносит 15000 долларов в месяц и которым пользуются 50 тысяч человек в месяц.
Алгоритм комбинирует вещи которые вам нравится, с вещами которые нравятся дизайнерам (там есть уже собранные дизайнерами палитры и написания), в итоге получается полноценный фирменный стиль.
Кстати, как мне кажется, векторные иконки сервис берет отсюда (я не уверен) – https://thenounproject.com.
Если вам когда-нибудь была нужна SVG иконка, то скорее всего она там есть.
Ниже мой тестовый пример – пора открывать бутик "ебаное ничего", бутик где ничего не происходит, но с вывеской!
Нейронные сети говорили они, автономное вождение автомобиля говорили они, посмотрите какая новая и перспективная технология говорили они.
Встречайте – ALVINN (Autonomous Land Vehicle In a Neural Network), роботизированный автомобиль 1989 года в работе которого используются 4 нейронных сети параллельно.
В первой версии из-за технических ограничений ALVINN мог двигаться со скоростью 5.5 километров час, так как мощности его железа хватало на обработку 12 фотографий в секунду.
Кстати об оборудовании – ALVINN использовал CPU в 10 раз "слабее" чем CPU в Apple iWatch, требовал 5000 Ватт, а само вычислительное оборудование было размером с холодильник.
Я очень рекомендую посмотреть этот ролик, в нем рассказывают о том каким же образом работал алгоритм вождения.
Особенно мило запускался автопилот – большой центральной хардверной кнопкой.
https://youtu.be/ilP4aPDTBPE
А тут по ссылке детали текстом:
olivercameron/meet-alvin-the-self-driving-car-from-1989-f0e40492a354" rel="nofollow">https://medium.com/@olivercameron/meet-alvin-the-self-driving-car-from-1989-f0e40492a354
Если вы вдруг не знали насколько прекрасно интерактивное умножение матриц – то у меня для вас есть и ссылка, и гифка – http://matrixmultiplication.xyz/
Ума не приложу зачем вам это всё, но правда же красиво, да? Даа?
Всем доброе утро и вот немного нейронных сетей вам в ленту:
Если wave net дать 10 секунд Metallica, а потом попросить сыграть Metallica, то получится это: https://m.soundcloud.com/theperfectdangerous/thirty-seconds-of-wavenet-metallica
Теперь нужно дать послушать нейронке альбом, потому что на 10 секундах нефига не понятно же даже человеку.
Считается правда вся эта фигня десятки часов.
Привет всем тем кто подписался на канал и спасибо вам, вы молодцы ;) Да и вообще всем спасибо – если коротко, я тут пишу о всяком, что мне кажется интересным в области технологий – Нейронных сетях, VR, AR, науке, приложениях, алгоритмах и пытаюсь не быть занудой, но не всегда выходит.
Вот к примеру, если вы вдруг понимаете английский, я бы хотел порекомендовать вам прекрасный научный канал «Kurzgesagt – In a Nutshell» о всем на свете и конкретно это видео об устройстве квантового компьютера:
https://www.youtube.com/watch?v=JhHMJCUmq28
Ей богу я много времени потратил пытаясь понять как же он устроен и смог это сделать только после этого видео, рекомендую в общем.
Короткая новость от nplus1: "Нейросеть прочла по губам речь дикторов BBC"
https://nplus1.ru/news/2016/11/23/neural-network
"Тесты показали, что в 46,8 процентах случаев система правильно определяет, что сказал участник телепрограммы" – 50% это не так мало, как мне кажется, но явно есть куда расти.
Будет ли прайваси вообще в этом вашем будущем?
http://bit.ly/2fQb3eJ
Написал тут небольшой (🤓) продуктовый материал на тему того как будет выглядеть запуск приложения на смартфоне через пару лет, что такое "Операционная система Телеграм" и почему вам стоит прекратить делать чатбота сейчас (скорее всего правда стоит прекратить, но есть яркие звездочки).
Еще добавлю, что ради интереса перешел пару недель назад на чтение всех своих RSS лент в Телеграм, на "попробовать" и в итоге уже не представляю как вернуться назад, так как это быстро и удобно, и работает.
Я уже как-то писал о дорисовке объектов нейронной сетью (http://bit.ly/2eezfsO). Так вот, ученые из института Беркли разработали алгоритм Image-to-Image – который может визуально дорисовывать объекты учитывая "контекст" изображения.
Применений для этой технологии масса – создание текстур, реконструкция фотографий, применение в картографии, "умная" фоторетушь и тп, но если бы мне дали возможность выбирать, то я бы сделал детский "paint" для смартфона – очень это весело, нарисовать что-то тяп ляп и получить реалистичную текстуру.
Исходный код и детали доступны по ссылке: https://phillipi.github.io/pix2pix/
Короткие новости – совсем скоро можно будет посмотреть результаты УЗИ в VR, а также напечатать ваше чадо на 3d принтере, намного лучше чем черно-белый шум этот сейчас. Ниже – результат такого сканирования.
http://www.telegraph.co.uk/science/2016/11/21/parents-can-meet-unborn-children-first-time-3d-virtual-reality/
Многие спорят о полезности нового тачбара макбука pro – а я для себя решил, что это 100% мастхев, ведь там можно запустить Doom. А представьте, если сим-сити туда вывести на фулл-тайм?
https://www.youtube.com/watch?v=GD0L46y3IqI