Очень круто: команда исследователей из Оксфорда и DeepMind разработала алгоритм, который читает по губам лучше, чем человек.
Для обучения нейросети показали 5 тысяч часов видеозаписи с субтитрами шести разных телепередач из архива BBC за последние 5 лет. Это более 118 тысяч предложений с синхронным видео.
При тестировании на незнакомом видео нейросеть правильно прочитала по губам 46,8% слов, а профессиональный чтец по губам - всего 12,4%.
Несколько недель назад другая команда разработчиков из Оксфорда создала алгоритм LipNet, распознающий по губам 93% слов. Но его обучали на упрощенном и ограниченном учебном массиве GRID, состоящем из 33 тысяч шаблонных предложений типа "Установи синий на А4, пожалуйста", специально начитанных на камеру. То есть возможности LipNet сильно ограничены, он не может так эффективно распознавать нормальную живую речь.
Таким образом, специалисты из Оксфорда создали самый эффективный на данный момент алгоритм чтения по губам. Это может пригодиться для озвучки немого кино и для помощи слабослышащим и глухим людям. Можно представить себе встроенную в очки умную камеру, которая распознает речь собеседника и передаёт её в слуховой аппарат. Но даже для этого алгоритм надо серьёзно улучшить - пока он не может читать речь "на лету". Так что не верьте заголовкам в духе "Этот алгоритм будет читать ваши разговоры на расстоянии", до этого пока очень далеко.
Позвонили сегодня с Радио Вести и попросили пересказать эту новость для какой-то передачи (кажется, для выпуска новостей). Пришлось перечитать само исследование. Сложный матан я конечно не понял, но много подробностей узнал. Заодно и понял, чем это круто, а то недавняя новость про LipNet сбила меня с толку - там процент распознавания вроде выше, а на самом деле нет.
https://www.newscientist.com/article/2113299-googles-deepmind-ai-can-lip-read-tv-shows-better-than-a-pro/
по-русски: http://apparat.cc/news/lip-reading-sentences-ai-bbc/
Про LipNet: http://apparat.cc/news/lip-reading-ai/
Из-за чего вы чаще всего отписываетесь от каналов в Telegram?
Отписываюсь, когда понимаю, что канал мне неинтересен – 1K
👍👍👍👍👍👍👍 64%
Слишком много постов, не успеваю читать – 509
👍👍 22%
Много рекламы – 192
👍 8%
Бесят отдельные посты – 81
▫️ 3%
Другое – 64
▫️ 3%
👥 2323 people voted so far. Poll closed.
Хорошая статья, объясняющая слово года по версии Оксфордского словаря - "post-truth", пост-истина.
Оглянувшись вокруг себя в конце 2016 года, мы можем уверенно сказать: истины нет, есть множество "правд", которая у каждого своя. Мир, в котором всё относительно и нет ничего абсолютного, предвосхитили философы-постмодернисты прошлого века. Теперь он стал реальностью - благодаря интернету, информационным пузырям, фейковым новостям, конспирологам, теориям заговора и политикам-популистам.
Советую прочитать - это правда важная концепция, с которой лучше быть знакомым.
https://nplus1.ru/material/2016/11/21/post-truth-world
Давайте поговорим об этике науки. Китайские учёные разработали алгоритм, с помощью машинного обучения предсказывающий преступные наклонности человека по... его лицу. Обработав более 1800 фотографий преступников и законопослушных граждан, алгоритм выделил черты, в которых их лица различались больше всего - изгиб губ, расстояние между глазами, угол между ртом и носом.
Исследование вызвало волну критики - френологию и физиогномику научное сообщество давно признало лженаукой. В комментариях на Hacker News даже предположили, что это шуточное исследование. Но нет, все серьёзно.
Вообще, в Китае проще относятся к вопросам этики в науке и технике - там первыми модифицировали геном человека, там запросто отдают данные пользователей спецслужбам и даже внедряют систему оценки благонадежности граждан на основе данных. Так что френологический алгоритм - это ещё ничего. Главное не фантазировать, как пишут некоторые комментаторы в Twitter - "Представьте этот алгоритм на каждой скрытой камере в каждом городе", потому что тогда действительно становится страшно.
http://motherboard.vice.com/read/new-program-decides-criminality-from-facial-features
По-русски: http://apparat.cc/news/ai-predicts-criminality/
Недавно Yahoo опубликовала в открытом доступе нейросеть, распознающую NSFW-картинки. Один программист пошёл ещё дальше: он обучил нейросеть распознавать сцены секса на видео и даже классифицировать их по категориям: blowjob/handjob, cunnilingus, sex back, sex front, titfuck, other. С её помощью можно найти на видео сцены секса - все или определенной категории - и вырезать их, или наоборот - оставить.
Это может пригодиться порносайтам для автоматической классификации видео (хотя у них наверняка есть собственные решения), соцсетям, видеохостингам, файлообменникам и другим платформам для обмена видео - для автоматического обнаружения порнографии. А можно для эксперимента показать ей популярные телешоу или клипы - вдруг что смешное распознает.
https://github.com/ryanjay0/miles-deep
Нейросеть для обнаружения NSFW-картинок от Yahoo: https://github.com/yahoo/open_nsfw
А здесь её использовали для генерации машинного порно, т.е. для создания абстрактных картинок, которые нейросеть оценит как "порнографические": https://open_nsfw.gitlab.io
Если кто-то неленивый сделает такое с этой новой нейросетью, пишите мне, опубликуем.
Студент из Нью-Йорка провёл интересный эксперимент на тему психологии онлайн-общения. Он запрограммировал ботов находить расистские твиты и писать на них упрекающие ответы. Оказалось, что это работает - количество расистских твитов удалось снизить на 27%. Но только в том случае, если замечание делал аккаунт с большим количеством подписчиков, имитирующий белого мужчину.
Исследование: http://rdcu.be/mzhy
По-русски: http://apparat.cc/news/twitter-bot-racist via @apparatmag
Зашёл почитать русскоязычные форумы в Dark Web и по ходу спалил тайный бизнес Порошенко
Читать полностью…Представьте, что прямо сейчас у вас отнимают смартфон и отправляют на химическую экспертизу. Как думаете, много ли может о вас рассказать анализ грязи с экрана? Оказывается, немало.
Учёные из США и Германии взяли пробы с рук и экранов смартфонов 39 добровольцев. 99% проб с рук оказались уникальными, в 69% случаев сравнение проб с рук и экранов позволило точно установить владельца смартфона. Но главная фишка этой техники в другом - анализ грязи на смартфоне позволяет многое узнать о привычках его владельца.
С помощью масс-спектрального анализа исследователи смогли обнаружить на смартфонах следы таких веществ как средства от выпадения волос, воспаления кожи и грибка, антидепрессанты и глазные капли. Следы кофе выдали любителя кофе. Человек, на чьём смартфоне нашли молекулы цитрусовых фруктов, оказался любителем апельсинов (который кроме того пользовался средствами для мытья с цитрусовым ароматом). Ингредиент перца чили капсаицин выдал любителя острой еды. Некоторые химикаты, в частности антимоскитный пестицид, обнаружили спустя 5 месяцев после их применения.
Авторы исследования пишут: “We could tell if a person is likely female, uses high-end cosmetics, dyes her hair, drinks coffee, prefers beer over wine, likes spicy food, is being treated for depression, wears sunscreen and bug spray — and therefore likely spends a lot of time outdoors — all kinds of things”. И это всё - по мазку с экрана смартфона.
Ещё один полезный метод в копилку криминалистов. Шерлок Холмс оценил бы.
Публикация в PNAS: http://www.pnas.org/content/early/2016/11/08/1610019113.full
Новость на Washington Post: http://wpo.st/WeaE2
Наконец зарегистрировал маму в Telegram. Сразу дал ссылку на свой канал. И первым постом, который она увидела здесь, оказалась вот эта картинка выше.
😶
Минутка сексуального просвещения. В Франции напечатали на 3D-принтере модель клитора в натуральную величину - для популяризации полового образования. Полезно будет посмотреть и мужчинам, и женщинам - уверен, узнаете много нового. Вот такое надо в школе показывать, а не черно-белые картинки в учебнике.
http://www.makery.info/2016/07/26/un-clitoris-imprime-en-3d-une-premiere-en-france/
Несколько тезисов от одного из лучших специалистов по ИИ в мире - Эндрю Ына. Он преподавал машинное обучение в Стэнфорде, был сооснователем Google Brain и Coursera, а сейчас - директор разработки ИИ в Baidu, где руководит командой из 1200 специалистов.
Большинство прорывов в области ИИ за последнее время можно представить как генерирование ответов на входящий набор данных (см. таблицу).
Простое правило для оценки границ автоматизации: если человек может выполнить некоторую задачу в уме за секунду, в ближайшее время эта задача будет автоматизирована с помощью ИИ.
Примеры таких задач: обнаружение подозрительной активности на системах видеонаблюдения, принятие решений о движении автомобиля, обнаружение оскорбительных постов в соцсетях.
Алгоритмы и софт - не главное в индустрии ИИ. Исследования публикуются в открытом доступе, а софт делают опенсорсным. Самые важные ресурсы - это данные, без которых алгоритмы нельзя создать, и люди, которые смогут модифицировать и подстраивать алгоритмы под конкретные задачи.
https://hbr.org/2016/11/what-artificial-intelligence-can-and-cant-do-right-now
Советую читать Ына в Twitter: https://twitter.com/AndrewYNg
Японские учёные научили нейросеть угадывать жанр книги по обложке: http://apparat.cc/news/deep-neural-network-books-covers/
Интересно, что она скажет об этом:
Сегодня необычная рекомендация: канал Игоря Белкина с говорящим названием @ebanistika. Игорь - бывший журналист Ленты и сооснователь Лентача. Он знает толк в качественных приколах.
Ебанистика - единственный канал с приколами, который я читаю в Telegram (и иногда проигрываю вслух). Короче, мне норм, если вам тоже - читайте.
/channel/ebanistika
Учёные из Калифорнии проанализировали 20 миллионов твитов за сентябрь-октябрь, связаных с выборами, и обнаружили, что 20% твитов сгенерированы ботами. Соавтор исследования Эмилио Феррара пишет об этом подробнее в своей колонке на The Conversation.
15% всех пользователей, обсуждавших выборы в исследуемый период - боты. Это больше, чем в среднем по Twitter - по оценкам компании, боты составляют от 5 до 8,5% от общего числа аккаунтов.
Про-трамповских ботов больше (75%) и они более открыто топили за своего кандидата. Боты за Клинтон пиcали больше нейтральных твитов. Многие боты писали не о своём кандидате, а об оппоненте - например, форсили хештеги #NeverHillary или #NeverTrump.
Эффект от работы ботов нельзя исследовать. Феррара предполагает, что их твиты могут создавать у людей ложное представление о поддержке того или иного кандидата. Но измерить это никак нельзя. Как и определить, кто их ведёт.
https://theconversation.com/how-twitter-bots-affected-the-us-presidential-campaign-68406
Очень интересно: разработчики нейросетевого переводчика Google обнаружили, что он может переводить предложения между парами языков, переводить которые его не обучали (!).
Они взяли три языка - английский, японский и корейский, и показали алгоритму примеры перевода в парах "английский-японский" и "английский-корейский" (в обе стороны). И - о чудо - алгоритм смог переводить предложения с корейского на японский и наоборот, хотя его этому не обучали.
В общем, выглядит так, будто нейросеть нашла какой-то универсальный промежуточный язык для описания слов на других языках. Только представьте себе это!
https://research.googleblog.com/2016/11/zero-shot-translation-with-googles.html
по-русски: http://apparat.cc/news/google-translate-ai-secret-internal-language/
Заметил, что когда в канал долго не пишешь, количество подписчиков медленно, но стабильно растёт. Но после каждого поста несколько человек (от 1 до 10) отписываются. Думаю, здесь есть несколько сценариев:
1) Человеку не понравился пост. Неинтересная тема, плохо написано, реклама или неинтересный репост.
2) Человек понял, что этот канал ему неинтересен. Я сам часто подписываюсь на каналы "почитать", потом читаю, если не нравится - отписываюсь. И не огорчаюсь, если люди отписываются от меня по этой причине (и в соцсетях тоже) - значит человек был не в целевой аудитории. Каждый должен читать то, что ему интересно.
3) Человек понял, что в канале слишком часто выходят посты и он не успевает их читать. Такое тоже бывает, иногда вместе с предыдущим пунктом. У вас наверняка тоже висят в ленте каналы с сотнями непрочитанных постов - вот это оно.
Но это я сужу по себе, а в таких вопросах лучше работает коллективный разум. Мнение людей, отписавшихся от моего канала, я уже не узнаю, но думаю, что опрос оставшихся подписчиков тоже многое расскажет о том, как люди читают каналы.
Можете также зайти в чат @techmediachat и обсудить тему отписки там. После каких постов вы отписываетесь от каналов? Какая реклама вас бесит? Что вы имели в виду, когда выбрали "Другое"? Напишите, это интересно.
Tesla в пятницу опубликовали видео, иллюстрирующее, как беспилотные автомобили "видят" дорогу и окружающий мир через "умные" камеры: https://vimeo.com/192179727
Если вам интересна эта тема, советую посмотреть другое видео - мини-лекцию директора разработки беспилотных машин в Google. Он не только показывает, как сенсоры машины "видят" дорогу, другие транспортные средства и пешеходов, но и рассказывает о проблемах, с которыми сталкиваются разработчики в связи с нестандартными ситуациями на дороге.
https://www.ted.com/talks/chris_urmson_how_a_driverless_car_sees_the_road (есть субтитры)
Смешное видео: на шимпанзе надели шлем VR (и ему, кажется, понравилось)
https://www.facebook.com/tigerspreservationstation/videos/1146961472052384/
Пригласили на студенческий политклуб в КНУ, поговорим о том, как интернет вредит демократии. Будет интересно, приходите! Если вы в Киеве, конечно.
https://vk.com/political_club_knu?w=wall-81683292_549
"Пост-правда" ("post-truth") - слово года в Оксфордском словаре, спасибо Брекзиту и Трампу.
Подробнее о словах-финалистах: http://blog.oxforddictionaries.com/2016/11/word-of-the-year-2016-shortlist/
В Google сделали отличный сайт с демонстрациями различных применений машинного обучения. Распознавание рисованых картинок и пения птиц, умная камера с переводчиком, генератор музыки, "глаза" нейросети - интересные, наглядные примеры, все можно потестировать на сайте и скачать код. В такие моменты жалею, что не умею программировать.
https://aiexperiments.withgoogle.com/
В США вышла книга "How Not to Network a Nation: The Uneasy History of the Soviet Internet". Фрагмент из неё можно прочитать на Aeon.
Выдающийся киевский математик и кибернетик Виктор Глушков в 60-х разработал проект компьютерного управления экономикой СССР. Проект был амбициозным - по оценкам самого Глушкова, сложнее, чем космический и ядерный - и требовал для реализации 20 миллиардов рублей. Глушков рассчитывал, что эффективное планирование ресурсов и управление производством с помощью компьютерной сети уже через три года принесёт в бюджет СССР 100 миллиардов рублей.
Но, как мы знаем из истории, никакого "советского интернета" в итоге не получилось: инициативу Глушкова задавили кремлёвские бюрократы. Доходило до анекдотических ситуаций: главный противник ОГАС министр финансов Гарбузов на одном из обсуждений предложил сначала оборудовать все фермы компьютерами с лампочками (он увидел такое на одной ферме в Минске; мигание лампочек повышало плодовитость кур), а потом уже говорить о построении общесоветской компьютерной сети.
https://aeon.co/essays/how-the-soviets-invented-the-internet-and-why-it-didn-t-work
Перевод: http://gagadget.com/science/24293-neveroyatnaya-istoriya-sovetskogo-interneta/
Здесь подробнее описана история ОГАС (и вообще хороший сайт "для тих, хто хоче знати більше" про историю украинской вычислительной техники): http://ru.uacomputing.com/stories/ogas/
Во время моей учёбы на кафедре вычислительной техники в КПИ некоторые преподаватели рассказывали нам о том, какой феноменальный человек был Глушков - им повезло с ним поработать. Уже в 50-х под его руководством в Киеве работали над искусственным интеллектом, обгоняя американских коллег. Под его руководством и при его участии были разработаны "МИР" и "Днепр" - первые в СССР персональный и проводниковый компьютеры. Практику после 4 курса я проходил в Институте кибернетики имени Глушкова. А ещё Глушкова и ОГАС очень любят на факультете социологии в КПИ - там ежегодно проходит научно-практическая конференция "Глушковские чтения".
В общем, приятно быть причастным к такому гиганту мысли через одно рукопожатие. Жаль только, что все эти героические достижения остались в далёком прошлом: советская кибернетика загнулась, вычислительная техника быстро отстала от американской, ОГАС так и не построили. Институт Глушкова сейчас стагнирует, как и вся украинская наука. Но это уже совсем другая история.
Шок, сенсация, NSFW: вот так на самом деле выглядит человеческий клитор.
http://www.makery.info/2016/07/26/un-clitoris-imprime-en-3d-une-premiere-en-france/
Что умеет делать машинное обучение
https://hbr.org/2016/11/what-artificial-intelligence-can-and-cant-do-right-now
Рэп, написанный нейросетью. Под бит не отличил бы от обычного.
https://news.ycombinator.com/item?id=12891158
Иллюстрированная периодическая таблица элементов. Интересная штука, если учесть что о большинстве из них мы вообще ничего не знаем.
Пойду поджарю серы 🍳
http://elements.wlonk.com/ElementsTable.htm
Знакомый программист написал плагин, скрывающий из ленты Facebook посты о выборах в США.
Не благодарите: http://apparat.cc/news/no-more-trump/
Как работает перенос стиля в приложениях вроде Prisma
После того, как Prisma взорвала интернет, вышло немало подобных приложений - технология переноса стиля на самом деле не нова и легко воспроизводится при наличии ресурсов. Теперь фильтры аля Prisma есть даже в ICQ.
Технологии, которые стоят за этими приложениями, очень интересны в том плане, что на них хорошо разбираться, как работают нейросети. Я читал оригинальную работу исследователей, которые первыми придумали использовать нейросети для переноса стиля (Гатис и команда), переписывался с ними, и с российскими исследователями из Яндекса, которые усовершенствовали этот метод, и с разработчиками разных приложений. Писал текст для одного издания, но некоторые авторы слишком долго отвечали, а потом хайп прошёл и черновик пришлось отложить в долгий ящик.
Если вы интересуетесь нейросетями, я советую вам почитать вот это объяснение от Google. Там ребята научили нейросети не просто переносить стили изображений, но и смешивать стили с разных изображений, причём делать это на лету. Ссылки для более подробного изучения - в конце текста.
https://research.googleblog.com/2016/10/supercharging-style-transfer.html
А здесь ещё более простое и понятное объяснение в формате видео: https://youtu.be/WHmp26bh0tI
Если совсем на пальцах, то глубокие нейросети при распознавании картинок пропускают их через много слоёв "нейронов". Самые низкие слои - самые тупые, они видят простые линии и формы. Чем выше слой, тем больше уровень абстракции. Последние слои уже могут распознавать сложные объекты, особенности рисунка (например, мазок художника) и стиль рисунка в целом.
Перенос стиля работает так: программа берёт за основу картинку чёрно-белого шума и начинает модифицировать её так, чтобы нижние слои нейросети начали распознавать в ней контент исходной фотографии, а верхние - стиль заданного рисунка. После каждой итерации программа оценивает ошибку (насколько полученный рисунок отличается от заданного) и корректирует коэффициенты для следующей итерации. После большого количества итераций результатом будет картинка с содержанием заданной фотографии и стилем заданного рисунка.
Если что-то напутал, поправьте.
Канадские специалисты по кибербезопасности опубликовали доклад о нетипичном ботнете Linux/Moose - он состоит из заражённых устройств интернета вещей и используется для накруток лайков и фолловеров в соцсетях.
Ботнет Moose поражает только встроенные (embedded) системы под Linux - исследователи кибербезопасности уделяют им намного меньше внимания.
Подобные ботнеты часто используются для DDoS-атак, рассылки спама или открутки баннеров. Moose используют для более прибыльных услуг - накрутки лайков и фолловеров в соцсетях, в основном в Instagram (86% трафика).
У ботнета нет явных "пострадавших", кроме людей, которые ведутся на накрученных фолловеров и лайки - например, покупают неэффективную рекламу в аккаунтах с фальшивой аудиторией.
Злоумышленники продают свои услуги открыто - их предложения по накрутке лайков несложно найти в интернете. 10 тысяч лайков стоят в среднем $160, 10 тысяч подписчиков - $113.
При полной загрузке одно зараженное устройство может приносить владельцу ботнета $13,05 в месяц. Соответственно, сеть из 50 тысяч устройств может приносить киберпреступникам до $700 тысяч в месяц.
Берегите свои чайники, не покупайте лайки и не ведитесь на профили с сотнями тысяч подписчиков.
http://gosecure.net/2016/11/02/exposing-the-ego-market-the-cybercrime-performed-by-the-linux-moose-botnet/