Продолжаю рекомендовать вам всякое – рекомендую авторский канал @groks Ильи Пестова — о технологических трендах и маркетинге. Отчёты, данные, графики, новости, подборки статей на русском и английском, и собственный взгляд на события от человека, работающего в индустрии диджитала
Читать полностью…Присядьте если вы стоите – по ссылке код, который позволяет реконструировать изображение лиц людей из считанной датчиками нейронной активности мозга обезьян.
Считанной. Активности. Мозга. Обезьян. Лица.
http://www.cell.com/cell/fulltext/S0092-8674(17)30538-X
UPD. То есть ученые смогли заглянуть в голову обезьянам и увидеть то, что они видели в какой-то момент
Помните, я спрашивал, нужен чат каналу или не нужен? На самом деле новый чат не нужен, но только потому, что у нас с @brodetsky и еще у 400 человек уже есть уютный чатик:
http://t.me/joinchat/AAAAAD8t8mqcQRZFr69hQQ
Во-первых, я там встретил своего двоюродного брата, во-вторых, если бы не этот чат – я бы не сделал этот канал, точно вам говорю 💖
В общем, заходите, мы там собираем интересные ссылки, обсуждаем новости IT, удивляемся спамерам и всегда рады новым гостям.
#личноеможнонечитать
Я сначала расстроился, что потратил час вечером на IQ тест, и с меня просят 10$ за результаты, хотя при входе на сайт и при запуске теста никто не сказал, что тест платный. То есть, на этом моменте я стал считать, что IQ у меня довольно низкий, ведь это еще нужно постараться найти платный тест в интернете, потратить на него время и не получить результат.
Но потом оказалось, что у них там в коде страницы лежит ссылка на которую должен сделать редирект paypal после оплаты, и она работает без оплаты если по ней перейти, это же добавляет пару пунктов IQ к моим результатам?
Или это типа и был тест?
Любопытное устройство из Швейцарии – особенно для людей которые много работают стоя. Это что-то вроде экзоскелета который превращается в стул когда вы садитесь:
https://youtu.be/EP6iU-Ia-wY
Говорят вот-вот начнут производство, но цены я пока не нашел. Да и выглядит пока, гм, массивно.
Это получается – экзоскелет-мебель, да?
Детали: http://bit.ly/2qnP6pQ
Я, как человек, который потерпел сокрушительное поражение всем приложениям-калькуляторам калорий и фитнес-трекерам-браслетам, и больше полагается на "диетическое везение", чем на реальный просчет рациона (🙈), был бы несказанно рад такому алгоритму который готовят чуваки.
На arxiveorg появился любопытный документ о оценке калорийности еды по фотографиям, причем, что важно, для подсчета калорий учитывается объем и масса продукта. В датасете 2978 фотографий с различными продуктами и монеткой в 1 юань рядом, для сохранения пропорций. Это уже не первый алгоритм, который пытается прогнозировать калории – но по заверениям авторов очень точный, быстрый, способный оценить продукт в граммах.
Навел такой, камеру Holo Lens на тарелку и он тебе говорит стоит это есть или лучше потерпеть – было бы очень здорово
Ссылка на документ:
https://arxiv.org/abs/1705.07632v3
Я сначала долго ходил с мыслью, что рано или поздно все будут программировать на чем-то, и это мне казалось клевой мыслью, но это просто неправда – навыки программирования не станут обязательным пунктом вакансий будущего, в будущем вообще сложно представить себе человека без "умного ассистента" во всех индустриях, который будет брать рутину на себя.
Вот, к примеру, нейронная сеть pix2code создает нативный iOS или Web интерфейс из скриншота:
https://youtu.be/pqKeXkhFA3I
Почитать на GitHub:
https://github.com/tonybeltramelli/pix2code
¯\_(ツ)_/¯
Я большой фанат AR технологий и если вы читаете этот канал довольно давно, вы могли это заметить. Единственное, что меня останавливает от повсеместного использования AR (как и вас), это то, что у нас все еще нет нормальных очков или линз для того, чтобы дополненная реальность стала действительно удобной.
Но думать о том, как мы будем использовать AR на смартфонах в ближайшие годы мы можем уже сейчас. По ссылке любопытное размышление, от MIT media lab:
https://vimeo.com/218412997
P.S. Все это не рендер, а реальный прототип
P.P.S. Я никогда не мог понять, почему бы не давать считывать QR коды по умолчанию в камерах iOS и Android, в каком-нибудь удобном ненавязчивом виде. Представьте, что ваша камера на смартфоне – это платформа, со своими приложениями и собственным набором функций, помимо фото. Я думаю, что это Google Lens примерно этим и станет когда-нибудь.
P.P.P.S. Раз уж вы дочитали до этого места, то вот вам качественный баян на тему AR будущего 💖 Здесь все – и программа лояльности и интерфейсы, и социальные проблемы (вы точно его видели)
https://vimeo.com/166807261
Прямо сейчас можно посмотреть, как нейросеть Чарльз, написанная на Python и использующая библиотеку компьютерного зрения OpenCV, учится водить машину в #GTA5. Пока водит, как типичный игрок в GTA: сшибает все, что не приколочено к полу и лихо удирает от полиции.
https://www.twitch.tv/sentdex
Походу один из инструментов АНБ таки на самом деле каким-то образом попал в плохие руки, в общем - пятница для админов оказалась бодрой:
Один из пользователей GeekTimes рассказал, что сегодня (12 мая) устанавливал на компьютеры в своей компании Windows Server 2008R2 с чистых образов, и как только он настраивал на машине статический IP-адрес, она сразу же оказывалась заражена.
«Единственное что было установлено в системе — это Virtio-драйверы, которые были загруженны при установке самой Windows с внешнего CD.
ISO-образ был также получен из официального источника — репозитория Fedora, хеш-суммы также совпадают. В логах Windows я не нашёл ничего необычного. На данный момент до конца не известно, как именно произошло заражение и какие конкретно версии Windows уязвимы».
Прямая трансляция кибер-атаки ведётся сейчас на tj:
https://tjournal.ru/44260-pryamaya-translyaciya-masshtabnaya-kiberataka
Всем привет, если вам вдруг нечего делать и вам интересно, что нового покажет Microsoft в Сиетле на Microsoft Build 2017, то вот тут будет трансляция на эту тему которую я веду с Костей.
Я очень стараюсь не хохмить, честно, но если проскользнет – простите уж 🙈
https://vc.ru/p/microsoft-build-2017
(Начало минут через 20)
Проект Cellulo EPFL исследует, каким образом небольшие и недорогие роботы могут помочь в процессе обучения детей – на видео выше демонстрация того, как с помощью роботов можно объяснить детям поведение атомов при нагреве материала.
Ну и честно говоря, я в этом вижу целое UX направление и следующий шаг после Surface Dial и подобных устройств, я бы с удовольствием управлял какими-то объектами в VR или просто на компьютере с помощью такого способа.
А дизайнеры бы отдельно оценили.
https://youtu.be/v68xoidR2FA
Статья с подробностями:
http://bit.ly/2pBDqjM
А вот эта нейронка будет интересна в первую очередь людям из гейм-дева. На основе датасета данных трекинга она генерирует анимацию персонажа - ходьбу, бег и так далее. Очень хочется увидеть такое в играх уже сейчас 👾
https://youtu.be/Ul0Gilv5wvY
Не так давно появился сервис рекомендаций фильмов на основе нейронных сетей – я сначала воспринял его скептически, так как тысячи их – попыток рекомендовать что-то и даже с нейронной сетью сложно это делать правильно, но сейчас почитал то, что ребята делают внутри проекта и как пытаются добиться результата с помощью нейронных сетей, и понял, что нужно еще раз присмотреться и попробовать – в общем вот пост, где доступным языком поднимают вопрос рекомендательных систем и их проблем
http://bit.ly/2oXhJbS
А сам сервис рекомендации фильмов вот:
Movix.ai
Я вас как-то мучил, просил задать вопросы таксистам: что они думают насчет автономных автомобилей? Как скоро они появятся и станут обычным видом такси?
Довольно много людей прислали ответы, спасибо вам за то, что поучаствовали 💖
В 70% ответы были в стиле «Да как робот по таким дорогам будет ездить», «Да, в мире где-то роботы начнут людей перевозить, но в России еще долго такого не случится», «Вы зиму нашу видели? Как он тут проедет!» и т.п.
Остальные в целом принимают автономное будущее, а один таксист пожилого возраста отдельно сетовал: «Я не знаю, чем буду заниматься через 10 лет, я сейчас уже вижу как сильно Uber изменил то, где я работаю, – что будет, ума не приложу».
Отдельно порадовал ответ в стиле «Да конечно наступит, но мне больше интересно, как поменяются бандиты под эту индустрию – заказал себе машину, загнал в свинцовый контейнер и разбирай там» – действительно интересная мысль, о которой я даже не думал.
Я наткнулся на довольно адекватное исследование на тему автомобилей будущего – в исследовании утверждается, что к 2030 году 95% всего транспортного потока такси будет осуществляться автономными машинами. Речь идет именно о такси, не о частных машинах и не о грузовых перевозках – что будет происходить там, в документе не уточняется.
То, к чему я со скептицизмом отношусь в документе, так это к части о банкротстве множества нефтяных компаний к 2030 году. Это 13 лет и у них сильное лобби, я хотел бы в это верить, но звучит наивно (исключительно мое мнение, я не навязываю, более того – я совсем не экономист, но промышленная индустрия все так же потребляет большое количество нефти).
Ну и ради интереса, посмотрите на фото Пятой Авеню Нью-Йорка в 1900 году – больше 90% транспорта это лошади с повозками. Посмотрите на эту же улицу в 1914 году – 90% транспорта это автомобили и это всего за 13 лет.
Но, конечно, у лошадей не было лобби и миллиардов долларов на торможение технологического прогресса 🎠
Ссылка на исследование в PDF, 15 мб (зеркало)
Я там выше хвастал, что мою статью взяли в GQ, так вот она теперь доступна на сайте, а я все также хочу пошутить, что в GQ дали написать сумасшедшему 🤴🏻(мне)
http://www.gq.ru/lifestyle/v-buduschem-nam-ostanetsya-tolko-trahatsya
Если мы уже в будущем, тогда что будет в будущем-будущем?
http://shir-man.com/static/tg/soccerwtf.mp4
Даже не знаю, что происходит на видео, но это вопрос времени, пока китайцы добавят туда огнемет 🤖
Небольшое видео о том, как дронов обучают полету с помощью столкновений: 11500 столкновений, 20 видов помещений, 40 часов и дрон обучен для навигации в помещении.
https://youtu.be/HbHqC8HimoI
(Смотреть с 0:35)
От первого лица выглядит немного жутковато, будто дрону страшно, но их хотя бы не пинают, как роботов DARPA.
Детали по ссылке:
http://bit.ly/2qpnHYM
Высокая кухня будущего от MIT Tangible Media Group – съедобные 2D пленки различных форм и размеров, изготовленные из пищевых продуктов (белков, целлюлозы или крахмала), превращаются в 3D пищу во время приготовления.
Процесс трансформации в 3D инициируется адсорбцией воды, и он полностью совместим с концепцией "плоской упаковки" для значительного снижения стоимости транспортировки и хранения материалов.
В общем, посмотрите видео, там понятнее:
https://vimeo.com/199408741
(Готовка с 2:00)
Самое клевое, что юзер может делиться своим способом деформации пленки в общую библиотеку и любой другой пользователь у которого есть оборудование для создания 2D пленок, сможет скачать и получить ваш дошик с курицей будущего, ну, по внешнему виду.
Пост на MIT Tangible:
http://tangible.media.mit.edu/project/transformative-appetite/
Вжух и ваш видео-звонок уже не такой скучный:
https://www.youtube.com/watch?v=0ueRYinz8Tk
Примерный синтез стилизованных анимаций для лица в действии.
TL:DR: Клевых масок в мобильных приложениях будет еще больше
Давно я не рекомендовал хороших каналов:
🤖 @ctodaily – чёткий канал на тему будней технического директора новостного стартапа (*wink-wink*), один из немногих каналов где я не пропускаю посты вообще и где можно найти много клевых технических решений и мыслей
🏅 @proproduct – канал для тех кому интересна работа продуктологов – помогает ответить на вопросы "Нахрена это всё делать?" и "Как долго это будет длиться?", иными словами, все что происходит до реальных ТЗ – на этом клевом канале
🎷 @diysupport – молодой и перспективный канал о технической поддержке, от автора блога read.support.wtf – ответы на вопросы "Как сделать саппорт лучше", "Как оценить свой саппорт", "Нужен ли саппорт мне вообще" и "Почему гифка в ответ лучше хамства чуваку"
На этом пока все, если у вас есть кто-то, чей канал вам нравится и кого стоить включить в подборку, пишите мне, я сделаю список когда будет время
А томатам 🍅 – вишенка 🍒
И сразу вдогонку – как AR можно применить в работе
https://www.youtube.com/watch?v=97vHsOuHqs0
Это WorkLink, и та-да, он уже работает на HoloLens – WorkLink позволяет вам отсканировать объект и потом в редакторе быстро собрать интерактивную последовательность действий которую вы хотели бы передать другим рабочим, которые тоже будут в HoloLens.
Очень мило, когда Alexa и Google Home заигрывают друг с другом
https://youtu.be/jsLGe00rIsU
Милая история из прошлого о том, почему Билл Гейтс реже стал заниматься личной поддержкой пользователей, правда речь о игре Microsoft Flight Simulator
http://read.support.wtf/flight-simulator
Microsoft вчера показал довольно много интересного, хоть было и скучно – вот краткая выжимка из того, что мне больше всего понравилось:
– Cortana становится полноценным устройством, ну, то есть конкуренция на рынке персональных помощников в виде отдельных устройств полноценно открыта, спасибо Echo и Home за подогрев рынка, а вы можете писать свои приложения для Cortana (Skills, также как у Echo);
– У MS всегда была огромная доля в b2b секторе, они позволяют оптимизировать процессы не только в крупных компаниях, а на целых заводах (буквально управляя всеми заводами компании с одного дашборда), все эти системы строятся на консистентном API и позволяют интегрироваться между собой. В рамках демонстрации показали кейс на заводе, где MS Azure подключенный к обычным камерам завода позволяет с помощью компьютерного зрения от MS: определить тех кто не имеет право находится в цеху или на территории завода, тех кто ходит без каски, где лежит домкрат, кто без спроса взял отбойный молоток (там прям можно задать кто может его использовать), где конкретный чувак который что-то делает, позволяет с камеры определить, что бочка с химикатами упала и срочно нужно что-то делать – в общем это уже полноценный скайнет, там и чатботы и интеграция со всем чем только захочешь. А еще показали станки которые теперь тоже "Интернет вещей" и часть Azure;
– Больше всего мне понравилось https://customvision.ai/ – вы загружаете 100 фотографий одуванчиков, с одного клика тренируете нейронку, и сразу получаете эндпоинт для вашего приложения ¯\_(ツ)_/¯
Ну и есть просто публичные датасеты
(Модель тоже хостится у них)
А, ну еще Cortana в машине почему-то была, но деталей пока мало.
Появился очень любопытный алгоритм – Deep Image Analogy
На arxivorg документ, который возводит перенос стиля а-ля «Призма» (о котором я уже писал не раз) на новый уровень. Переносятся цвет, тон, текстура и стиль, да что уж там – работает даже при переносе стиля с фото на фото. Самое главное, чтобы объекты на фото были более-мене похожими: с лица на лицо, с дома на дом и т.п.
Не буду занудствовать, ниже картинки с примерами 🔥
Описание алгоритма на arxiv.org
Прочитав очередную новость про то, что "Ученые изобрели искусственный интеллект который предсказывает лайки на фотографии" я психанул и понял, что дальше я так интернет не могу читать.
Набросал плагин для Chrome в 29 килобайт, который заменяет фразу "Искусственный интеллект" на "Дополненный интеллект" везде где её встречает на странице.
Фраза взята у IBM, что по моему мнению является более аккуратной и точно формулировкой.
Делюсь, так как может оказаться, что кто-то тоже устал
¯\_(ツ)_/¯
Ссылка:
https://chrome.google.com/webstore/detail/pgkmcajglopkeefmmifjacdnfbpgblbn/
Я не большой фанат военной техники, но случайно наткнулся на устройство, связанное с бывшим подразделением Samsung, – Samsung Techwin и компьютерным зрением.
В 2006 году при поддержке южнокорейского правительства компания Samsung представила прототип автономной турели Samsung SGR-A1, главной целью которой была замена патрулей на границе с Северной Кореей на автономные системы охраны – речь идет о территории почти в 250 километров общей границы.
SGR-A1 оснащена пулеметом 45 калибра, способным выпускать до 900 пуль в минуту (пулемет производила на тот момент компания, принадлежавшая Daewoo), гранатометом(!), системами тепловизора, лазерной наводкой, ночным видением, видео-аудио и подобным.
Все это позволяет турели находить цели в радиусе до 3 километров и вести огонь на поражение БЕЗ участия человека. Система также оснащена распознованием речи, она может понять, что ей говорят, отключиться по ключевому слову, распознать поднятые вверх руки, сообщить оператору на пульт о том, что что-то произошло и нужно подключиться посмотреть.
Появление Samsung SGR-A1 (и системы автономного смертельного оружия в целом) вызвало значительные споры относительно влияния такого оружия на агрессию между государствам и этики автономного убийства. В данном вопросе существует два подхода:
HITL (Human in the loop) – это когда система навелась на цель, сообщила на пульт и ждет приказа от оператора на открытие огня.
И HOTL (Human on the loop) – это когда система навелась и человек может предотвратить открытие огня, но это вовсе не обязательно. Автономность и есть основная проблема по мнению правозащитников – Samsung SGR-A1 это HOTL тип автономного вооружения.
Информации на эту тему совсем немного, я не смог найти в википедии статью на корейском на эту тему, сложно представить, что есть у военных сейчас, если даже до выхода первого айфона у них уже были такие системы, а 11 лет – это огромный срок для технологий.
Очевидно, я немного недооценивал, насколько быстро SkyNet появится, так как он уже тут и, видимо, в ближайшие годы человечеству придется решать вопросы, связанные с моралью таких систем.
В прессе пишут, что система работает с 2006 года – естественно никто не говорит, сколько реальных устройств задействовано и как они работают на самом деле, военные же.
А теперь ссылки:
Небольшая нарезка видео
https://www.youtube.com/watch?v=azQzwI9-GHU
Статья на Wikipedia
https://www.wikiwand.com/en/Samsung_SGR-A1
Статья о LAWs
https://www.wikiwand.com/en/Lethal_autonomous_weapon
P.S. Такой вид систем отличается от военных дронов (UCAV), так как ими управляет оператор, поэтому их выносят в отдельную категорию – Смертельное автономное оружие (LAWs).
P.P.S. В 2014 году Samsung продал Samsung Techwin и теперь это Hanwha Techwin.
Нашел очень наглядную иллюстрацию работы нейронок разного типа:
https://youtu.be/3JQ3hYko51Y