Мне кажется, через какое-то время мы не сможем отличать фейки: на гифке демонстрация GAN алгоритма на знаменитостях с помощью твиттер-бота http://bit.ly/2ie6Wei
То есть улыбки сделаны автоматически
Кроме того, очень рекомендую сам канал «Мастриды» много хороших статей каждую неделю.
Читать полностью…"У нас было 6000 доменов, 250267 разных урлов, 570000 ботов, российские паспорта, крутое имя "AFK13" и от 3 до 5 миллионов долларов в сутки". Так бы сказал кто-то из команды Ad Fraud Komanda 13 – если бы их кто-то спросил о том, что они делают.
Эти чуваки умудрились обмануть крупнейшую сеть видео-рекламы, обмануть их алгоритмы выставления цен и распределения рекламы между площадками – их боты "просматривали" в день около 300 миллионов видео-реклам, за каждую из которых они получали около 13$ за просмотр.
Деятельность AFK13 уже сейчас называют одним из самых крупных рекламных интернет-фродов.
В общем это увлекательное исследование от White Ops (Компания по интернет безопасности) на страницах Forbes, рекомендую:
http://bit.ly/2hDQMdj
И спасибо вам всем за участие в голосовании – теперь понятно, что нам всем тут нравится что-то в стиле: алгоритмы машинного обучения, томаты и технологии.
Томатов у меня нет, технологии вроде как есть, а про ML сегодня тихо ;)
👨🏻 Первый опрос на канале – поскольку я сюда скромно скидываю, что считаю интересным (по возможности не дублируя посты популярных техно-блоггеров) и ума не приложу, почему люди подписываются – но спасибо вам всем, я решил всех спросить – Как дела, вы как вообще?
На самом деле нет, окей, не как дела, на самом деле вопрос про то, что вы хотели бы видеть на канале – такого плана, понять в общем хочу вас – тапните в вариант, помогите, м?
Результаты:
1) Я хотел бы видеть новости о нейронных сетях, я человек нейронного плана, порадуйте меня алгоритмами ML: 41 ■■■
2) Я хотел бы видеть посты о технологиях в целом – не так важно, в какой области: 22 ■■
3) Мне, Денис, просто нравится вас читать, пишите о чем хотите: 18 ■
4) Я хотел бы попросить больше разных новостей из всех IT сфер, без фокуса: 5
5) Я – томат: 20 ■
Если вы вдруг хотели бы вечеринки и песни здесь и сейчас, то вам нужно открыть эту ссылку:
http://bit.ly/2h1nWCW
Вы делаете фото, нейронка угадывает что это, text to speech поет об этом – в общем все, что мы так любим и не хуже Глюкозы.
Giorgio Cam это новый проект из серии A.I. Experiments (Помните где вы линии рисовали, а нейронка угадывала что это? Ну вот оно).
Исходный код тут:
http://bit.ly/2hQiFfF
Описание проекта в видео тут:
https://youtu.be/eKeI63VSpto
Стилизацию фотографий под картины мы уже прошли (/channel/denissexy/59), все что нужно для реализации – алгоритм, стиль который берем за основу и фото которое будем обрабатывать.
Теперь пришло время стилизовать аудио – Дмитрий Ульянов и Вадим Лебедев вчера выложили у себя в блоге исходный код под Torch, TensorFlow, Lasagne для стилизации аудио в различные стили. Мне сложно передать восторг, просто посмотрите короткий ролик где футурама стилизована под имперский марш, а Абрахам Линкольн читает Эминема (хоть это и не сам Линкольн).
Тут есть еще больше примеров и описание как это работает:
http://dmitryulyanov.github.io/audio-texture-synthesis-and-style-transfer/
А я, пожалуй, знаю чем займусь на выходные 😍😍😍😍😍
Хорошие новости для людей которые продюсируют поп-группы и которых очевидно нет на этом канале.
Встречайте - ALYSIA, система автоматического синтеза музыки, на основе уже написанного текста.
Как утверждают авторы – это вообще большая проблема, написать под уже написанный текст музыку, поэтому их алгоритм натренированный на попсе, может сильно упростить процесс создания простеньких композиций.
От себя скажу – что ждал этой фигни всю жизнь, так как лучшая шутка – это джингл (на самом деле нет).
По ссылке три примера, не пугайтесь вокала, его синтезировал человек (так себе синтезировал), но музыка получилась не хуже другой попсы точно:
http://www.cs.sjsu.edu/~ackerman/ALYSIA_songs.html
Документ на arxiv.org:
https://arxiv.org/pdf/1612.01058v1.pdf
Исходный код недоступен.
Искусство с помощью технологий получает новые инструменты самореализации – вот к примеру как выглядит «бесконечный холст» созданный художником Горо Фуджиту с помощью приложения для VR Шлема. Рисовалось все это с помощью контроллеров «Oculus Touch VR»
Я в восторге 🐿
https://vimeo.com/194697431
💖💝💖💝💖💝💖💝
Если вы хотели бы сделать своего робота, который отвечал бы вам на вопросы гифками, звуком и двигался, то вам просто необходима эта ссылка: http://imgur.com/a/ue4Ax (по ссылке код и инструкция)
Читать полностью…Ну и раз мы о роботах – Boston Dynamics демонстрирует своего робота на NIPS 2016. Посмотрите видео, разве мы уже не в будущем?
🤖💖🐕
https://t.co/WpuXPITI65
Если с вами вдруг так случалось, что вы открыли сайт на 10 минут и потратили на него случайно 5 часов жизни, и все это вместо работы, и вы в целом морально сильный человек, но вам нужна помощь, хотя бы изредка, то у меня для вас ссылка:
http://www.takeafive.com/
Работает без плагинов, сразу из браузера – вводите адрес сайта и выбираете кол-во минут которое можете себе позволить потупить. Ну или используйте IE – там функция автозакрытия вкладок с 6 версии (шучу, шучу).
https://youtu.be/NE_brdljjFA
Вот вас тут 234 достойных людей – и вот перед всеми вами я должен пообещать себе, что преодолею свою лень и тоже построю дома себе умное зеркало как на видео, и подключу к нему Alexa или Google Home. И я обязательно выведу туда связку команд – "– Алекса, а что на ужин?", "– Господи, жену спроси, я же робот, отстань".
Потому, что тут есть инструкция и каждый может сделать такое зеркало домой:
https://chrisuehlinger.com/blog/2016/08/20/voice-controlled-smart-mirror/
Ну, если победит лень.
https://youtu.be/qX8AIRsFmTA
Наткнулся на любопытный документ на arxiv.org для game-dev и VR индустрии.
Вы даете нейронной сети фотографию лица человека в низком качестве, потом немного нейронной магии и на выходе вы получаете файл с 3D моделью лица, с текстурой кожи в высоком разрешении.
Немного нейронной магии – это подготовленный заранее датасет, который содержит тысячи лиц с помощью которого и дорисовывают текстуру высокого разрешения, и самое главное 3d маску лица. Дальше уже магия заканчивается, так как рендер картинки происходит в обычном 3d пакете типа Cinema 4d.
В общем – в этом видео, на 1:28 3d-лицо Мухаммеда Али сделанное по мелкой фотографии.
Ссылка на документ: https://arxiv.org/abs/1612.00523
Исходный код пока недоступен.
https://youtu.be/ePUlJMtclcY
Я уже как-то писал про то, как нейронные сети генерируют образы на основе тех датасетов на которых их обучили (http://bit.ly/2gXERV7). Генерация таких изображений, да еще и в высоком разрешении, и без артефактов – одна из сложнейших задач которую пытаются решить ученые – и каждый шаг в этой области мне кажется будет даваться очень тяжело.
Но уже сейчас мы можем вырезать «часть» картинки, и просить нейронную сеть дорисовать ее, это делает Adobe research, я об этом напишу как-нибудь позже.
В видео к посту 10 классов изображений сгенерированных на основе 10 разных датасетов, каждый класс обучен на 1000 изображений одного типа. На выходе ученым удалось получить изображения 227x227 которые они и собрали в такое видео.
Если вам интересны детали того, как это работает, то вот ссылка на документ:
http://www.evolvingai.org/files/nguyen2016ppgn_v1.pdf
#свежий_я
Составил по просьбе TJournal подборку лучших зарубежных мастридов 2016 года (большинство текстов на английском, но с переводами): tjournal.ru/38989-itogi-2016-luchshie-inostrannie-teksti. За последний год я опубликовал на "Мастридах" ссылки на 300+ текстов, но в подборку попали 10 лучших. Поэтому обязательно прочитайте их все, если пропустили.
Любопытный пост о разборе новых наушников Air Pods которые не так давно поступили в продажу – http://bit.ly/2hH80ql
Если коротко – наушники обладают нулевой ремонтопригодностью и залиты внутри клеем, что по моему мнению не большая проблема – так как невозможно ремонтировать, то, что потеряно 👨🏻.
Внутри наушников стоит четыре чипа, главный из которых Cypress CY8C4146FN – ради интереса загуглил его спецификацию – 48-MHz ARM Cortex-M0+ CPU и много еще всего. Если мерить по MHz, то в Pentium 1993 года было 60-MHz, а в лунном модуле 1966 года – 2-MHz.
То есть эти наушники уже сейчас могут – посадить лунный модуль на луну, причем достаточно даже одного. Конкретно эта версия не сможет заменить смартфон, но само направление интересно – будут ли компьютеры (окей, это уже компьютеры, будут ли мощные компьютеры) в ушах? Ну то есть, почему нет, нафига нам дисплей с рабочими аудио-ассистентами?
А еще я мог что-то напутать и сравнивать разные архитектуры это глупо, но все-же забавно 🙈
Я не знаю 3D это или нет (мне кажется да), но это огромный боевой робот который скоро возьмет огромный меч и пойдет искать жалких людишек. В видео сказано, что это «Korea Future Technology», но кто верит этому вашему интернету. http://bit.ly/2h1WB3o
Читать полностью…Это не про айти, но можно сказать про технологии. И про китайцев.
Это видео на 20 минут где китайцы под открытым небом огромным станком обрабатывают заготовку из раскаленного металла с помощью двух погрузчиков.
Обычно такие вещи называют – Some crazy shit right here
http://bit.ly/2hLziMJ
Наверное многие уже видели, но я только сейчас залип https://earthengine.google.com/timelapse/ (открывать лучше не с телефона, не работает)
Это timelaps спутниковых снимков – вы указываете регион, а вам показывают как это регион менялся, ну, если у гугла есть снимки, само собой.
А еще у них клевый VR клиент (/channel/denissexy/69), Google Earth большие молодцы [x]
https://www.youtube.com/embed/HaFhfDzChUk
Не так давно на arxiv.org вышел документ о том как с помощью нейронных сетей (GAN) можно генерировать текстуры каких-либо объектов. Сам документ находится по ссылке: https://arxiv.org/abs/1611.08207
Применений для этой технологий много – было бы здорово получить такой "clone stamp" в фотошопе.
А на видео бесконечная Барселона, вид сверху 👨🏻💃🏻
(Пока явно есть что улучшать, исходный код недоступен)
Генерацией объектов нейронной сетью уже полгода как никого не удивишь (Прошлый пост на эту тему http://bit.ly/2gXERV7, осторжно фейсбук) – потому что выглядит результат генерации – так себе. На arxiv.org документ, о StackGAN, о том как генерировать фотореалистичные объекты из текста – то есть вы задаете текстовое описание в стиле "У птицы желтая шея и живот, серая спина и черные крылья" и в результате вы получаете фотореалистичное изображение этой птицы.
Работает это в связке из нескольких нейронных сетей, как я понял – одна генерирует объект (как по ссылке выше), другая же, находит ближайшую по виду фотографию птицы (вам все еще нужен датасет с птицами) и пытается ее применить к уже сгенерированной картинке.
Результаты как по мне – очень впечатляющие, ниже – пара примеров.
С нетерпением жду, когда появится нейронка который ты Гарри Поттера скормил, а она тебе всех героев сама нарисует и основные сцены. Да что уж, пусть кино генерирует.
Ссылка на документ – https://arxiv.org/pdf/1612.03242v1.pdf
Исходный код недоступен.
P.S. А еще теперь можно генерировать фотореалистичное порно, нужно подключить эту фигню https://open_nsfw.gitlab.io/
P.P.S. Хочу сказать всем Спасибо, кто подписался на мой канал, а также каналу @CatalogChannels, который включил меня в свою подборку интересных каналов. Сап!
«Нейронное караоке» – вот как nvidia называет свой проект, который вы скорее всего видели. Насколько я понимаю, там используется несколько нейронок – одна для визуального распознания образов (image recognition), вторая для генерации текстов (story telling) и третья уже для генерации простенькой музыки. А музыку поет уже какой-то простенький вокодер – а еще на канале автора есть другие примеры.
В общем, как по мне – не хуже группы «Серебро» получилось, да еще и на рождественскую тематику 🤖💖🎄
https://vimeo.com/192711856
https://developers.googleblog.com/2016/12/start-building-actions-on-google.html
Сегодня большой день для всей Google Now платформы, теперь каждый разработчик может делать свои приложения для голосового помощника, а назвали они все это Google Actions. Примерно об этом я писал в своей статье выше (/channel/denissexy/56), это очень здорово с точки зрения расширений функций платформы, наверное вместо Alexa, я таки возьму Google Home.
Окей, home просто дешевле.
https://youtu.be/yJCjVvIY4dU
Нейронные сети неплохо справляются с задачей определения визуальных образов в видео и фото, и давно пора обратить внимание на звук как на дополнительный источник для классификации того, что происходит в видео – что и делает нейронная сеть: SoundNet.
Из видео понятно как она работает, можно даже себя проверить, и попробовать угадать сцену до того как уберется размытие. По моему мнению комбинация визуального и аудио анализа – это прекрасный способ повысить точность определения объектов.
Сеть натренированна на 2 000 000 видео, и вы даже можете скачать исходный код SoundNet, включая модель, по этой ссылке: https://github.com/cvondrick/soundnet
https://www.youtube.com/watch?v=xvIk39rkkiU
Помните стильного робота на воздушных шарах (/channel/denissexy/64)? Ну так вот у него теперь есть прыгающий друг – робот Salto (Saltatorial Locomotion On Terrain Obstacles).
Salto весит около 100 грамм, может прыгать на метр, а самое главное он способен отталкиваться от поверхностей со скоростью 1.75 метров в секунду, причем находясь уже в воздухе.
Так и вижу, включаешь дома свет когда с работы пришел, а они давай скакать по всей квартире, прятаться 🤓
Утром разбирал Google Analytics и наткнулся там на трафик с motherboard.vice.com – в итоге оказалось, что это спам, да еще и не от Vice – а месть. В общем забавно, но можно и забить, и не читать если вы не пользуетесь Google Analytics.
http://shir-man.com/trafik-s-motherboard-vice-com-ili-spam-iz-rf-za-trampa-2/
Если вам вдруг интересно, что сейчас алгоритмы машинного зрения могут понять о фотографии, то примерно это могут ⬆️
Читать полностью…Шоппинг нормального человека, это когда ты входишь, берешь что хочешь и выходишь. И вместо охраны и полиции, ты получаешь чек о успешном списании средств.
В общем Amazon go, о котором вы скорее всего слышали, именно так и работает – там используются технологии как в автономном вождении: множество сенсоров в магазине строят 3d карту павильона, а алгоритмы компьютерного обучения позволяет понять где сейчас находится товар.
Сейчас магазин работает в бете и для сотрудников Амазона, а в 2017 году его откроют уже для всех.
А вообще я где-то видел продуктовый, где на каждом товаре дешевая радио-метка и все что нужно сделать, это проехать мимо сканера и сразу оплатить в терминале, ума не приложу где, если вы что-то такое знаете, напишите пожалуйста мне 🤓
Видео:
https://m.youtube.com/watch?v=NrmMk1Myrxc