Наткнулся на интересный пейпер прошлой недели на любимую тему:
Межвидовая коммуникация и АИ
Есть такой алгоритм Wav2Vec2 от Facebook AI — он позволяет переводить нашу речь в текст. Алгоритм работает намного лучше многих альтернатив, так как не требует много размеченных данных и работает напрямую с аудио дорожками, не пытаясь их сначала конвертировать в текст для обработки. Вместо этого, Wav2Vec2 сам находит важные характеристики звука (тон, звуки, паузы и тп), после чего распознает речь.
Так вот, ученые взяли этот алгоритм и применили к лаю домашних песиков и в итоге решили четыре ML-задачи: распознавание конкретных собак, идентификацию породы, классификацию пола и привязку лая к контексту — модель может сама связать вокализации собаки с контекстом, в котором они были произведены (например, агрессивный лай на незнакомца, игривый лай и т.д.). Это важно, потому что у нас наконец-то есть эффективный способ разметки и обработки собачьих звуков.
Самое прикольное, что Wav2Vec2 обученный сначала на ЧЕЛОВЕЧЕСКОЙ РЕЧИ помогает решать эти задачи еще точнее — это довольно странная и клевая находка.
Короче, если исследование подтвердят другие желающие — то нас ждет зарождение стартапов в области переводчиков с собачьего, котячьего (в этих я не уверен), птичьего и тп и тд. Исследователи готовы поделиться собранным датасетом, если написать им на почту (есть в пейпере)
Сам пейпер тут:
https://arxiv.org/abs/2404.18739
В видео по ссылке нет ничего сенсационного, но так уж наша память и мозги устроены, что не знаешь заранее что и как отзовется. Когда-то я прошел довольно любопытный маршрут по Великой китайской стене и должен заметить, что это совсем не легкая прогулка, опыт ходьбы по горным тропам там оказывается совсем не лишним. Потому робот, упрямо и неутомимо топающий по Стене, вдруг вызвал неожиданные чувства — от зависти до сочувствия ;)
Ну а так-то да, норм маркетинг, это действительно впервые в мире :))
https://youtu.be/nx2YO3twZYs
Красивый креативный эксперимент Гугла — в коллаборации с художниками. Отчасти это и демонстрация того, как художники, которые хотят использовать новые инструменты, а не бороться с ними, могут работать по-новому. Задача, за которую взялись четверо художников состояла в графическом переосмыслении “Алисы в стране чудес” - и заодно сравнении результата с каноническими иллюстрациями. Использовалась модель Imagen2, но участникам проекта дали доступ к еще разрабатываемому инструменту StyleDrop. Он позволял авторам настроить модель на работу в их собственном стиле.
В итоге получился интерактивный проект Infinite Wonderland, в котором читатель может кликать на любой абзац текста - и получать иллюстрацию к нему в стиле каждого из художников-участников.
Сам проект можно пощупать здесь — но в зависимости от географии возможности поиграться будут разные. А периодически он просто глючит и подгружает заранее сгенеренные картинки невпопад -- но хотя бы честно об этом предупреждает.
Эксперимент, который несколько лет назад привлек мое внимание, сейчас повторили в более строгих условиях и на большей выборке.
Суть дела: дать человеку механический шестой палец на руке с управлением от датчиков, скажем, где-то под пяткой ноги. Никаких ИИ и инвазивных операций.
Смысл: изучить, насколько быстро и насколько массово мозг людей справится с изменением телесной архитектуры и начнет использовать новые расширенные возможности тела на рефлекторном уровне.
Выборка: 596 людей разного возраста, образования и т.д.
Результат: лишь 13 из 596 не сумели освоиться с новой телесной возможностью. Исследователи очередной раз подтвердили, что мозг легко справляется; так что технологические расширения наших тел (например, экзоскелеты всех сортов) могут быть вполне массовыми и легко осваиваемыми. Хотя, следуя моде, авторы в основном обсуждают, что во всех таких устройствах инклюзивность должна быть заложена by design, а не то, насколько легко и просто стать киборгом:)
https://www.inverse.com/health/third-thumb-study
Развитие дисплеев для AR и VR очков наряду к концепцией spatial computing привело к появлению очевидного нового класса устройств — безэкранные ноутбуки. Штука не массовая, но кому часто приходится летать и пытаться нормально работать на полноразмерном ноутбуке в салоне эконом-класса — тот оценит!
Концепция дошла до уровня приема предзаказов на устройства Spacetop G1 с обещанием доставки в октябре.
Казалось бы, несложно заменить экран на крышке на экран в очках — но на деле все сложней и интересней, потому о целая статья по ссылке, а не просто короткая новостная заметка.
https://www.wired.com/story/sightful-spacetop-g1-augmented-reality-laptop/
Популярный и толковый одновременно обзор смелых стартапов, рассчитывающих потеснить Nvidia на поле, где она себя чувствует царем: на рынке чипов для ИИ-разработки и применений.
Подходы бодрого молодняка разнятся, но логика близка: Nvidia капитализирует свой опыт в разработке и производстве графических карт. Но что, если забыть об этом наследстве и проектировать чип сугубо под специфику современных ИИ-моделей с нуля?
Так возникают, например, громадных размеров чипы от Cerebras размером с хорошую тарелку, в которых на кристалле объединены 900 000 ядер плюс память. Выигрыш в скорости обмена данными по сравнению с со скоростью обмена между картами колоссален.
Groq, про которого я тут однажды уже писал, исповедует свой подход к маршрутизации, оптимизированной конкретно под LLM… Ну и так далее.
Обзор интересный и позволяющий надеяться, что кажущаяся монополия в области чипов не состоится: слишком велик спрос и альтернативные разработки не страдают от отсутствия поддержки.
Другое дело с производством, и тут, увы, всё намного печальней.
https://www.economist.com/business/2024/05/19/can-nvidia-be-dethroned-meet-the-startups-vying-for-its-crown
Недавно креативный класс обиделся на рекламу нового айпада Apple, те извинились, и скандал начал затихать. Но не успел сделать это окончательно, как начал разгораться новый: на сей раз причиной стала реклама уже Adobe. Причем безо всяких метафор, очень лапидарная, по сути — просто иллюстрация функционала (она-то и показана в начале поста). Но нервным фотографам хватило и этого. Совсем не революционная фишка замены фона на сгенерированный по тексту триггернула тех, кто зарабатывает фотографией объектов на реальных фонах.
“Adobe seems keen to advance its AI to the point where it can sell businesses content creation that is as easy as typing short strings of words into a text box.”
Это, конечно, правда — и у Adobe нет особого выбора: не они, так другие сделают; фишка очевидно массово востребована в эпоху электронной торговли продавцами всех калибров.
Интересно, кто обидится следующим.
https://www.fastcompany.com/91129330/adobe-photographers-controversial-ad-ai-tech-vs-creatives
Шумно запустивший свой продукт, собравший огромную прессу и немалые денежки стартап Humane — со своим странным девайсом AI pin в виде брошки со встроенным проектором, начал искать покупателя себя любимого.
Я не злорадствую, но уж больно типичный пример создания новинки, вся суть которой “а давайте сделаем просто по-другому, неважно зачем” — в сути ничего нового не предлагая. Отсылки к айфону не работают, у Джобса с видением новой сути вещей все было великолепно.
Но журналисты и инвесторы ведутся на призывы крикливого меньшинства, требующего новизны любой ценой, и будут вестись дальше. Так что еще увидим немало “революционных ИИ-девайсов” 🙂
https://www.bloomberg.com/news/articles/2024-05-22/wearable-ai-startup-humane-is-said-to-explore-potential-sale
Беспилотные автомобили Baidu проехали 100 миллионов километров. Роботакси компании, которые развозят пассажиров в десяти городах, в том числе в Пекине, совершили 6 миллионов поездок. За всё время, как утверждают в Baidu, не было ни одной серьезной аварии.
Ранее о статистике поездок отчиталась Waymo. По данным компании, её роботакси совершают 50 000 поездок в неделю.
Сейчас очень любят рассуждать насчет лопат в эпоху золотой лихорадки — и почему в итоге выиграют Nvidia, строители больших датацентров, далее по списку дорогого железа.
И это не просто слова; это десятки миллиардов реальных дополнительных капитальных затрат.
Но есть другие исторические аналогии кроме лопат, про них тоже полезно помнить.
Как вкладывались на заре железных дорог в строительство плотна, которое быстро оказалось непригодным для резко потяжелевших поездов и локомотивов и потребовало полной замены. Как на заре интернета телекомы уложили только в Штатах сотни миллионов км кабелей — якобы с заделом на будущее (в котором пришли оптика и беспроводная связь)…
All the signs are that big tech has succumbed to irrational exuberance.
Будущее устроено не так очевидно, как некоторым (даже инвесторам) кажется:)
Другое дело, что не пользователи в итоге будут страдать:) Переизбыток инфраструктуры и отсутствие возврата инвестиций дорого обходится тем, кто вложился без оглядки. А пользователи в итоге оказываются на выгодной распродаже:))
А ещё любопытно замечание Сергея Брина: в своем интервью он напомнил, что десять лет назад были представлены очки Google Glass, но устройство так и не обрело массовой популярности, а поборники privacy активно его загнобили.
Во многом проблема сводилась к отсутствию killer app, которое могло бы в актуальных сценариях сделать именно очки незаменимыми. А теперь Project Astra (ИИ ассистенты с мультимодальным входом) может претендовать на роль того приложения. Говоря об идеальном совпадении — но задержавшемся на десятилетие — Брин заметил "It's funny, because it's like the perfect hardware,It's like the killer app now, 10 years later"
https://www.businessinsider.com/sergey-brin-google-glass-ai-killer-app-comments-project-astra-2024-5
CNBC: Подразделение роботакси китайской Baidu может стать прибыльным по итогам 2025
– Подразделение Apollo Go может получить прибыль за 2025
– Baidu является одним из крупнейших игроков на этом рынке
– Пекин разрешил взимать плату за роботакси три года назад
– Ездить без водителя компании разрешили прошлой осенью
– Apollo Go совершила примерно 839 тыс. поездок за Q4 2023
– Около 45% из этих поездок были полностью беспилотными
– Baidu также смогла экономить на автомобилях для сервиса
– Роботакси 6-го поколения стоит вдвое дешевле ($28,2 тыс.)
– В этом году Baidu развернет 1 тыс. таких роботакси в Ухане
– Apollo Go может стать безубыточной уже в Q4 2024
@ftsec
Прошедшие встык друг за другом презентации OpenAI и Google породили волну комментариев. Соблюду приличия и присоединюсь;) Спасибо «Собаке», что с утра прислали вопросы, и теперь я могу просто ссылочку дать. Коротко: я совсем не разочарован в Гугле; у них задачка посложнее, чем у OpenAI: они продуктовая компания, а продукты для миллиардов людей невозможно быстро перестраивать. Подробнее внутри материала «Собаки», там и обзор нормальный для пропустивших;)
https://m.sobaka.ru/lifestyle/technology/182214
Два замечания к вчерашнему анонсу OpenAI, представившим свою очередную модель GPT-4o[mni] Про фичи и новации уже настолько все отписались, что читатели этого канала наверняка и без меня в курсе.
Мне же интересно два момента:
1. Сэм Альтман у себя в блоге написал, что компания все больше осознает, что делает не продукты, а технологическую платформу для других: Our initial conception when we started OpenAI was that we’d create AI and use it to create all sorts of benefits for the world. Instead, it now looks like we’ll create AI and then other people will use it to create all sorts of amazing things that we all benefit from.
довольно важный пойнт, а то все ждут почему-то от OpenAI тяжелых продуктов: то поиск, то браузер, то еще что-то подобное.
2. Очень заметно, что в OpenAI не сильно боятся “зловещей долины” — если вообще верят в ее существование. А ведь этим эффектом так любят пугать доморощенные “эксперты” :)
Ответ на мой вчерашний вопрос пришел очень быстро: Apple устами своего вице-президента по маркетингу оперативно извинился и признал, что действительно облажался: “Our goal is to always celebrate the myriad of ways users express themselves and bring their ideas to life through iPad. We missed the mark with this video, and we’re sorry.”
Теперь интересно, где они лажанулись на стадии подготовки и выпуска — но это мы, увы, не узнаем.
https://www.theverge.com/2024/5/9/24153113/apple-ipad-ad-crushing-apology
Хороший термин, и логичное направление развития, а то уж слишком многие зациклились на разговорных способностях моделей и foundation models считают языковыми, пусть даже с мультимодальным входом:) И говоря про автономных агентов, часто подразумевают их способности договариваться о чем-то. Но вот предложена концепция фундаментальных агентов — foundation agents as a transformative shift in the learning paradigm of agents, которые обучаются на датасетах интерактивных данных, не обязательно человекочитаемых и вербальных. Эти агенты определяются как generally capable agents across physical and virtual worlds. Учитывая любимую тему Дженсена Хуанга про general artificial robotics, воплощенный и вполне наделенный здравым смыслом и практическим жизненным опытом ИИ (уже больше чем ИИ, конечно) становится все ближе.
Сама статья - https://arxiv.org/abs/2405.17009
Ее популярный пересказ-обсуждение — https://venturebeat.com/ai/how-foundation-agents-can-revolutionize-ai-decision-making-in-the-real-world/
Один из художников, принимавших участие в эксперименте Гугла из предыдущего поста, заметил: “Ultimately, yes, we’re gonna have this democratization of image-making” — но при этом без тени осуждения.
Многих же других представителей креативного класса эта перспектива пугает. Вот снова отметились музыканты. На днях руководитель Spotify в связи с отчетом о хорошей (более миллиарда евро) прибыли в первом квартале 2024, написал: Today, with the cost of creating content being close to zero, people can share an incredible amount of content.
Дальше он ушел в обсуждение того, как это скажется на создании произведений на века — но музыканты вцепились в точное по сути, но обидное для них утверждение о стремящейся к нулю стоимости производства контента. Our art is not your fucking 'content' — возмутились музыканты. Для них это, безусловно, так. Но, боюсь, начальство Спотифая гораздо лучше представляет и не слишком идеализирует своих пользователей.
Я уже ссылался на TEDовскую лекцию Мустафы Сулеймана, Microsoft AI CEO, в которой он призывает найти более адекватное описание ИИ, чем просто “еще один инструмент”. Там он предлагал слово species, существа (хотя и цифровые) — и это вызвало многочисленные гневные отповеди 🙂
Но вот еще человек из важнейшей в разработке ИИ компании, Anthropic, во многом не разделяющей взглядов и подходов Microsoft, в подкасте говорит, что создание современных моделей куда больше похоже на выращивание растений или воспитание животных, чем на инженерного типа разработку софта прежних времен. И, конечно, в каменты приходят очередные “эксперты” с неумными отповедями.
Но тренд формируется интересный, как и неожиданное единодушие:)
https://www.youtube.com/watch?v=jqdoauxvKUM
(Ссылка на пост про лекцию Сулеймана)
/channel/techsparks/4471
Вот вам под выходные немножко технооптимизма:) Меня обзывают оголтелым технооптимистом — но до Винода Хослы (почти моего ровесника, кстати) мне далеко. И он не диванный эксперт и мечтатель: успешный и предприниматель, и инвестор, он не просто треплется —
он делает и финансирует. Весьма успешно. Он на протяжении 40 лет успешно практикует то, что декларирует: вместо типичных для «экспертов» тупых экстраполяций — парадоксальные, но выполнимые сценарии.
За 10 минут своей зажигательной TED-речи он рассказывает и о ИИ для всех (в учебе, медицине, творчестве), и о городах без автотранспорта, и о миллиардах человекоподобных и универсально умелых роботов… И еще много о чем: 12 красивых идей.
Поднимите себе настроение:)
https://www.ted.com/talks/vinod_khosla_12_predictions_for_the_future_of_technology
Очередной раз можно убедиться, что лучше один раз увидеть, чем сто раз услышать и прочитать. Про применения робособачек и летающих дронов в боевых условиях написано много, но вот китайцы выпустили официальный ролик с недавних учений, и на нем робособачки не только ведут разведку в помещениях и на местности, но и несут на себе адаптер, в который устанавливается автомат — и отлично из этого автомата поражают мишени. И привычные БПЛА тоже могут оснащаться подвесом, в котором устанавливается автомат, а не только сбрасываемые боеприпасы. Документальной картинки стрелкового роя в воздухе и стрелковой стаи на земле еще нет, но понимаешь, что это вопрос времени. И это не та фантастика, которую очень хотелось увидеть в реальности. Но что поделать.
https://futurism.com/the-byte/video-china-rifle-robot-dog
Мне кажется ироничным, что люди так боятся АИ-фейков, что в итоге купились на фейки сделанные людьми же
Почти все скандальные скриншоты, где очевидно, что ответ сильно навредит пользователю – фейки, которые невозможно повторить используя Ai Overview фичу от Google
Делаются такие фейк в Хроме, в режиме Dev Tools, интересно как Google с этим справится – по сути просто троллинг корпорации интернетом
UPD. Пруф про фейки от NY Times:
>One manipulated screenshot appeared to show Google saying that a good remedy for depression was jumping off the Golden Gate Bridge, citing a Reddit user. Ms. Levin, the Google spokeswoman, said that the company’s systems never returned that result.
Прикольно, конечно, читать, что бывают вполне нормальные новые электромобильчики, которые хвалят и европейские эксперты, и сотрудники Форд, — и которые при этом стоят $10 000 (ну то есть в районе миллиона в рублях…)
Но меня триггернуло название: Seagull.
Кто помнит советский автопром, помнит и то, какая там машина Чайкой называлась:)
https://electrek.co/2024/05/22/byds-10000-seagull-ev-worrying-rivals-hits-new-markets/
На своей конференции Build Microsoft много интересного объявил, их новые планшеты Surface впечатляют уже не хуже эппловых. Но самый изящный — особенно учитывая, что конфа все-таки для разработчиков, а не широкой публики — ход состоял в том, чтобы вывести на сцену Сэма Альтмана, который потизерит ChatGPT-5, подчеркнет нерушимую дружбу и связь OpenAI и Microsoft и сообщит, что ChatGPT-4o уже доступен в облаке Azure. Кажется, в облачной гонке с Гуглом Microsoft очередной раз сделал красивый и мощный рывок. Результаты увидим через квартал-другой на квартальных отчетах.
https://mashable.com/article/microsoft-build-2024-gpt-4o-openai-azure-ai-studio
Сама заметка примерно ни о чем, но в ней есть любопытная деталь, которую я не отследил по другим источникам. Миша Прахин (aka imperator) — человек значимый для российской ИТ-индустрии и вполне заметный на глобальном масштабе. Окончил МИФИ, поработал в Microsoft, потом пришел после смерти Илюши Сегаловича в Яндекс на роль СТО и серьезно на этом посту потрудился. Потом вернулся в Microsoft и там плотно работал в Bing, был главой Bing Search — в том числе во время стараний интегрировать туда ИИ и надежд подвинуть Google.
Но после прихода Мустафы Сулеймана на должность CEO of AI, Миша свой пост потерял. Теперь же он выступает в роли одного из новых эдвайзеров Perplexity AI — а этот стартап последовательно обещает дать нам новый поиск, основанный на ИИ и таки потеснить Google.
Очень интересно будет последить за новыми шагами Perplexity AI. С одной стороны, мало кто в мире обладает таким разносторонним и масштабным опытом в области поиска и машинного обучения в нем. С другой стороны, Perplexity AI сейчас не в лучшей форме, а жизнь и процессы в стартапе немного не те, что в больших корпорациях:)
https://analyticsindiamag.com/bad-times-for-perplexity-ai-begins/
Разговоры об автономных агентах как светлом будущем приложений на основе больших языковых моделей добрались уже до вполне массовой деловой прессы: The Economist занимается и ликбезом, и стимуляцией интереса бизнеса. Причем разговор сразу ведут не просто про таких агентов — а про их ансамбли.
В терминологии Intel — это третья стадия развития применений LLM; мы пока на первой.
Интересно наблюдать за всякими побочными волнами, которые расходятся от двух недавних презентаций. И Гугл, конечно, порождает больше волн, поскольку он куда в большей степени интегрирован в жизнь людей своими продуктами, и каждое его телодвижение влияет на миллионы, а то и сотни миллионов пользователей.
Первыми, как нынче принято, всполошились и без того нервные издатели традиционной прессы.
“This will be catastrophic to our traffic, as marketed by Google to further satisfy user queries, leaving even less incentive to click through so that we can monetize our content,” - без обиняков замечает представитель News/Media Alliance.
Эта зацикленность на цеховых интересах, а не интересах людей, немножко достает — а заодно показывает, что с прессой не так, и почему ее проблемы лишь усугубляются со временем.
https://edition.cnn.com/2024/05/15/media/google-gemini-ai-search-news-outlet-impact/
В тему восприятия ИИ, которая была так важна на недавней презентации OpenAI. Важны интонации голоса ИИ-собеседника, важна его мгновенная реакция на слова человека — но OpenAI демонстрировала нам бесплотный голос из смартфона.
Ребята из компании Synthesia, которая идентифицирует себя как AI video engine, показали очень интересный ролик: они пересняли один из тех роликов, которые демонстрировались на презентации: там мы не видели экран смартфон, с которым разговаривал человек — а теперь нам показали этот экран с синтезированной девушкой, которая произносит реплики GPT-4o с отличной артикуляцией, живой мимикой и вообще совершенно по-человечески.
Интересно, что для меня уже немного утомивший ролик сразу стал смотреться иначе. И, похоже, будущее во многих местах будет именно таким 🙂 Взгляните, познавательно.
О, вот еще про «зловещую долину» :)) Китайцы из Unitree Robotics явно готовы побороться с Boston Dynamics за лидерство в якобы “пугающих” роликах про человекоподобных роботов. Впрочем, у них и человекоподобность своеобразна: тамошние инженеры решили, что общую конструкцию человеческого тела имеет смысл взять за основу — но избавить от ограничений нашей анатомии. Нет технических запретов для суставов крутиться хоть на 360 градусов и складываться под любыми углами.
Итог получается любопытным: стоит посмотреть видео целиком, а не тот фрагмент что в пост поместился. Нечеловеческие движения человекоподобного тела местами завораживают, но совсем не пугают.
Смотреть тем более интересно, что это не демонстрационный образец — эти роботы G1 в текущем году поступят в продажу по цене примерно $16 000 — очень дешево и доступно по современным меркам.
NASA хочет запустить левитирующие беспилотные поезда на Луне. Они смогут перевозить до 100 тонн грузов ежедневно. Такие поезда могут появиться уже в 2030 году, когда на Луне будет работать база NASA.
https://nypost.com/2024/05/10/lifestyle/nasa-plans-high-tech-railway-system-on-the-moon/
Очень мне интересно, как поведет себя Apple: потихоньку разрастается шумиха вокруг их рекламного ролика по поводу нового на днях анонсированного iPad. Ролик вполне стандартный, в нем использована довольно лобовая метафора: мощный пресс сжимает кучу всяких инструментов художников, музыкантов и прочих креаторов — и в итоге получается тоненький айпад.
Но некоторый слой нынешних креаторов сильно на взводе по поводу ИИ: если читать все подряд апокалипсические статьи, немудрено впасть в тревогу. И, понятно, они в этом ролике увидели исключительно угрозу себе и ополчились на Apple: «мы же и есть ваши основные пользователи, зачем нас мочить?»
Но мы видим лишь медиашум, а в Apple несколько больше приборов, демонстрирующих поведение пользователей — потому и интересно, что они решат: не всегда надо всем шумливым уступать.
(ролик минутный, его можно прямо в статье по ссылке посмотреть)
https://www.musicradar.com/news/apple-ad-hugh-grant