У тех, кто смотрел Wednesday, заголовок статьи вызывает в памяти прекрасную пятерню Thing :)
А сама идея протеза, который имеет свой функционал, обеспеченный алгоритмами машинного обучения в облаке, хороша: раз уж нельзя в протезе обеспечить иннервацию потерянной конечности, нужно дать протезу немного автономного мозга (осьминоги так живут, и у них же хорошо получается)
https://www.thestar.com/news/gta/2023/05/20/mind-blowing-toronto-start-up-creates-ai-powered-bionic-arm-that-can-think-and-see-for-itself.html
У Маска не сильно получилось тормознуть работы конкурентов по разработке ИИ, так что пришлось ускорить свои. Свежий ролик про робота, который, как не раз утверждал Маск, станет бизнесом побольше тесловских электромобилей, демонстрирует нешуточный прогресс. Да, прогресс не только инженерных решений, но и софта — который в таких устройствах весь основан на машинном обучении. Интересный момент — обучение робота с помощью копирования действий человека, стоит обратить внимание:)
Ну и просто красиво!
https://youtu.be/XiQkeWOFwmk
Сэм Альтман, глава OpenAI, очень грамотно и последовательно становится важной фигурой не только в технологическом сообществе, но и среди политиков и законодателей по всему миру: сегодняшнее его выступление в Сенате США — лишь фрагмент месячного глобального тура, масштабу которого позавидует любая знаменитость. (писал уже тут в канале)
И у него хорошо получается: в отчетах о его сегодняшнем почти трехчасовом разговоре с законодателями отмечают, что его почти не критиковали и его почти не атаковали как, например, Цукерберга. Сенаторы интересовались его мнением на тему регулирования ИИ, и ответы Альтмана были взвешены и корректны, как и вопросы. Ничего не запрещать с разбегу, создать специальное агентство для лицензирования больших моделей, разработать стандарты оценки безопасности, ввести аудит. Причем безопасность - это не про “модель может плохого насоветовать”, а проблемы принципиально следующего порядка: модели не должны самореплицироваться или иметь возможность “сбежать”. Четкое ощущение, что отвечая на вопросы про привычные модели AI, Альтман на самом деле имел в виду AGI 🙂 Впрочем, он не раз говорил, что верит в AGI, потому неудивительно, что он закладывает основу для будущего, а не пытается, как большинство, готовиться к уже прошедшей войне и обсуждать проблемы датасетов и авторских прав:)
Про соревнование поисковиков (Google и Bing) в скорости внедрения всяких ИИ-фич пишут много и ежедневно. Но большая часть товарных поисков уже давно не идет через поисковые системы, а сразу начинается на крупнейших торговых платформах; во многих странах это означает — на Амазоне.
Поэтому Амазон не может оставаться в стороне, потерять долю торговых запросов в поисковом графике для него слишком опасно. И вот мы ожидаемо видим, как Амазон начинает у себя форсировать разработку и внедрение ИИ в поиск, создание своего “разговорно диалогового поиска”. Что бы там ни писали про массовые увольнения в Амазоне, в этой конкретной области речь идет исключительно про найм:)
Стало модно говорить про новый навык — умение составлять хорошо работающие запросы к генеративным нейросетям; это занятие получило красивое имя prompt engineering, а быстро расплодившиеся обучающие курсы и просто услуги в этой области отлично продаются.
Но это же тоже работа со словом, почему бы не использовать и здесь языковые модели? Ответ исследователей из Microsoft в том и состоит: промпты часто несовершенны, люди вынуждены их улучшать методом проб и ошибок, на каждом шаге впустую расходуя ресурсы нейросети и свое время. Давайте лучше организуем Automatic Prompt Optimisation (APO) для этой цели. Попутно удалось показать, что в ходе APO нейросеть способна опознать даже утонченные попытки обойти встроенные ограничения и получить нежелательные с точки зрения разработчиков ответы — и заблокировать такие запросы.
Можно ожидать, что скоро такой ненаблюдаемый для пользователей защитный препроцессинг промптов окажется встроен в наиболее массовые продукты и поможет хотя бы частично снизить опасения насчет их использования в недобрых целях.
Stability.ai, создатели достаточно известного опенсорсного генеративного приложения Stable Diffusion (доступного в разных видах и активно используемого и профессиональными дизайнерами, и чайниками вроде меня) упрямо держат слово: регулярно радовать публику новинками.
Вот очередная. Компания выпустила Stable Animation SDK, упрощающий генерацию не одиночных статических картинок, а готовых анимаций.
https://stability.ai/blog/stable-animation-sdk
Короткий видосик все объясняет про Stable Animation 🎞️— не всем понравится, но многим пригодится:)
С генеративными алгоритмами на ускоренной перемотке происходит та же история, что когда-то с интернетом: люди долго возмущались, когда кого-то арестовывали, а потом еще и осуждали за онлайновые посты, текст которых они бы не рискнули вслух произнести с трибуны на людном митинге. Но что сети, что алгоритмы — это инструменты, и совершить в сети или с помощью ChatGPT то, что не рискнешь совершить в материальном мире — глупо и рискованно. И суды по всему миру это быстро подтвердили.
Один китайский блогер попробовал с помощью ChatGPT нагенерить 20 разных текстов про происшествие с многочисленными человеческими жертвами, которого в действительности не было.
Зачем он это делал — неясно, но вот время подумать у мужика появится: вычислили, арестовали, предъявили обвинение.
И, судя по пристальному вниманию правоохранительных органов в других частях света к ИИ-технологиям, скоро прочитаем про аналогичные истории в разных странах.
Microsoft выпустил интересный обзор, основанный на масштабном опросе 31 тысячи работников в разных отраслях. Как любые опросы, он не столько показывает будущее, сколько рассказывает, что у людей сейчас в головах; тем и интересен.
Называется отчет симптоматично: Will AI fix work? Средства общения, возникшие благодаря технологиям и в итоге так полюбившиеся менеджменту во времена локдаунов, теперь сильно достают людей: 68% of people say they don’t have enough uninterrupted focus time during the workday.
Слишком много времени отъедают бесконечные рабочие чаты, офлайновые созваны и даже недобрая старая почта. И вот с этим, надеются люди, ИИ сможет помочь:) И дать им время заняться делом, ради которого их нанимали.. А вообще, многие ли любители цифровизации задумываются о метрике uninterrupted focus time?
Полный текст отчета в PDF
Гифка “машинка, похожая на авокадо” в заставке этого поста выглядит простенько и не впечатляет на фоне цветистых изображений MidJourney.
Но это довольно сильная заявка OpenAI в области генерации трехмерных объектов по текстовым описаниям, разработанная ими модель игриво называется Shap·E (и shape напоминает, и к DALL-E отсылает :)).
Shap·E directly generates the parameters of implicit functions that can be rendered as both textured meshes and neural radiance fields. Такая комбинация позволяет на основе результатов Shap·E создавать уже привычными инструментами очень реалистичные и хорошо детализированные трехмерные объекты.
Что особенно нынче важно, авторы пишут: We release model weights, inference code, and samples at https://github.com/openai/shap-e
Текст статьи: https://arxiv.org/pdf/2305.02463.pdf
Популярное описание: https://www.marktechpost.com/2023/05/06/open-ai-releases-shap·e-a-conditional-generative-model-for-3d-assets/
PS. Вашу любовь, дорогие читатели, к публикации папок и понял:)) Усвоил, спасибо, учту :)
А вот не самое радужное последствие не просто гонки языковых моделей, но и постоянных нападок на Гугл, который якобы оплошал и не смог.
Разработки в области ИИ были в своей научной части очень открытыми, публиковалась масса работ, и те, что выполнены были в Гугле, отличались высоким качеством — именно оттуда пошли трансформеры (буква Т в ChatGPT, ага), и это только один пример.
Но вот Гугл объявляет о режиме большей закрытости:
еще в феврале руководитель разработки ИИ Джефф Дин объявил, что теперь публикация научных результатов будет разрешена только после выпуска продуктов на основе этих результатов.
__One former Google AI researcher described the shift as Google going from “peacetime” to “wartime.”__
Кажется, миновал тот период, когда все дружными усилиями разных компаний и стран растили пирог ИИ; настала пора дележки пирога, когда важней становится размер своего куска, а не всего блюда. Так всегда бывает, но всегда жаль, что наступает этот момент.
На удивление давно не ссылался на новости от Microsoft — но вот как раз повод. В Bing и Edge — обновления. Спустя 3 месяца после выпуска версий поиска и браузера, обогащенных возможностями GPT, предлагается крутое обновление, которое сама компания называет __the next generation of AI-powered search__.
Чат и ответы поиска становятся мультимодальными, при необходимости они включают изображения и видео. Расширяется аудитория: отменяется лист ожидания, тестирование становится публичным.
И — самое нынче важное: возможности платформы становятся доступны сторонним разработчикам.
Впрочем, в России это все пока не работает, понадобится VPN. Зато с русским работает отлично:)
На прошедших выходных Всемирный экономический форум опубликовал традиционный ежегодный отчет про будущее рынка труда. прогноз с замахом аж на пять лет вперед.
Чувствуется, что отчет делали медленно и долго, поэтому пишут, что автоматизация идет медленнее чем ожидалось, и главным трендом является ESG, а вот про ChatGPT молчок; в течение ближайших пяти лет технологии создадут больше рабочих мест, чем ликвидируют.
Просмотреть хотя бы главные выводы отчета полезно уже потому, что они отлично показывают, чего стоят все эти дорогие прогнозы, составляемые большими высокооплачиваемыми коллективами по заказу уважаемых международных организаций:) А ведь отчет будут цитировать, мусолить и делать глубокомысленные выводы.
Полный отчет в PDF на почти 300 страниц, если есть желание:)
В ТЕХНО — классная статья про развитие языковых моделей, от прародительницы Элизы до современных LLM. Без единой формулы, но вполне серьезно, с понятными для всех объяснениями терминов, которыми так часто жонглируют авторы научпопа.
На русском таких статей почти и нет, приятно сослаться на приятное исключение.
В Гонконге случился левел-ап в жанре шоу дронов. Выглядит намного эпичнее всего что видел ранее.
Читать полностью…Сундар Пичаи, как я тут недавно писал, не устает повторять, что не самое главное быть первым; куда важнее сделать продукт вовремя и лучше прочих (включая пионеров). это относится не только к цифровым технологиям, конечно, и потому, как ни удивительно, делает для отстающих вроде нас интересной историю про новую электрификацию, которую мы сейчас переживаем.
Написал про это немного странную очередную колонку в Форбс;)
https://www.forbes.ru/mneniya/488402-elektrifikacia-2-0-kakie-izmenenia-povlecet-novyj-energeticeskij-peredel
Ну и сегодняшняя наша яндексовая новость: все желающие поиграть с генеративными языковыми моделями, но без плясок с ботами, VPN и вообще не заморачиваясь, могут поговорить в таком режиме с Алисой:) С сегодняшнего дня в ответ на фразу "Алиса, давай придумаем" запускается простейшая версия YaGPT (пока без памяти контекста, просто однократная генерация) -- и на лету генерится придумка по запросу:) Пока это скорее игрушка, но для первого знакомства широкой публики -- в самый раз. Дальше будет больше, много больше, и очень скоро:))
/channel/yandex/1272
Как все-таки приятно среди хора апокалипсических статей, которыми полна нынче массовая пресса, встретить спокойный и ироничный текст, автор которого обладает памятью подлиннее, чем у золотой рыбки и хорошо помнит, как нам обещали крипту, которая убьет центробанки и вообще монетарную систему мира, беспилотные такси, которые завтра оставят без работы миллионы, или метавселенную, которая покончит с офисами.
The most important thing to remember about tech doomerism in general is that it’s a form of advertising — вот да, как маркетолог подтверждаю:)
Если кому-нибудь из тревожных людей вдруг не хватает новых поводов встревожиться, то вот отличная новинка. Современные методы генетического анализа стали настолько изощренными и настолько чувствительными, что практически везде, где побывали живые существа, они позволяют обнаружить и идентифицировать фрагменты ДНК: достаточно отшелушившейся чешуйки кожи среди песка, высохшей капельки пота на камне, кусочка выпавшего волоса среди травы.
Прекрасно для кучи биологических и экологических исследований, но авторы работы предупреждают, что нынешнее чувствительное общество может быть не готово к такой ситуации: ведь обычно наборы данных в таких исследованиях открыто публикуются — в них может оказаться фрагмент ДНК проходившего там человека. Надо ли тогда получать его согласие на такую публикацию? И как вообще насчет возможности идентификации людей, оставивших следы в данной локации? Полезно, если там произошло преступление — а вот если нет? …people tend to get a little funny about who snoops on their genetic secrets.
Прекрасные перспективы для эпидемиологии и популяционной генетики, кошмар для этики.
Интересно, чем дело кончится: авторы, как нынче принято, требуют очередного госрегулирования.
NYT: Регулятор ЕС согласовал сделку между Microsoft и Activision
– Регулятор ЕС разрешил Microsoft купить Activision за $69 млрд
– Microsoft смог убедить регулятора своим уступками для сделки
– В частности, пообещав, что CoD будет доступна для конкурентов
– При этом регуляторы США и UK пытаются заблокировать сделку
– Регуляторы боятся угрозе конкуренции на рынке облачных игр
– Они верят, что сделка подорвет развитие нового сектора рынка
– ЕС не видит угрозе конкуренции, тем более этот рынок очень мал
– Также регулятор считает, что сделка не навредит рынку консолей
– Microsoft не откажет конкурентам, чтобы не было ущерба прибыли
– Доля Microsoft и Activision на рынке мобильных игр также пока мала
@ftsec
Новость не совсем из мира технологий, но символизм ее красив, приятно поделиться.
Есть такая вполне высокотехнологичная компания Luminar Technologies, известная в мире автопрома и беспилотников своими датчиками и сопутствующим софтом для повышения безопасности и автономности автомобилей. Генерального директора этой компании зовут Остин Рассел.
Так вот он прикупил 82% в столетнем и респектабельном издательском бренде Forbes. Рассел, по его словам, не собирается в Forbes Global Media Holdings наводить свои порядки в стиле Маска в Твиттере. В свое время побывавший героем форбсовского рейтинга молодых миллиардеров “30 до 30” Рассел утверждает, что просто любит этот бренд и его филантропические инициативы:
Russell said he won’t be involved in Forbes news coverage or its day-to-day operations Instead, he plans to focus on continuing its growth and emphasizing philanthropy within the business.
И все-таки приятно:) Может, еще и потому, что сам я в российском Форбсе периодически пишу колонки и тоже люблю это издание:)
Заголовок желтушно-сенсационный (ребенок от трёх родителей), а суть важная, интересная и наглядно показывающая возможности и уровень биотехнологий.
Технически да, впервые родился ребенок, ДНК которого образована не только из ДНК двух родителей, но и содержит маленький фрагмент (митохондриальную ДНК) от третьего человека. Донор митохондриальной ДНК нужен, чтобы исключить наследственное заболевание, связанное с плохой митохондриальной ДНК матери.
Все очень просто выглядит в словесном описании и на картинке, но вполне ошеломительно, если представить себе процесс — который в итоге успешно сработал.
Очень красивая (а для предпочитающих пугаться — пугающая 🙂 ) работа, в которой механические роботы в итоге самостоятельно научились двигаться на футбольном поле 4х5 метров, и достаточно грациозно (для робота) вставать после падений и владеть мячом:)
Вот милейший ролик на YouTube, впечатляющий местами больше, чем красивые видео от Boston Dynamics.
Особо хорошо смотрятся моменты, где робот безропотно и упрямо встает и продолжает заниматься своим делом после того как девушка всячески ему мешает и сбивает с ног:)
Эффективно учиться игре и вообще движениям мелких роботов-футболистов научила команда из гуглового DeepMind; научная и техническая сторона дела подробно изложена в статье на Arxiv
Юваль Харари хорошо сформулировал свои страхи по поводу развития больших языковых моделей, и его гипотеза неплохо объясняет, почему уже несколько месяцев не стихают бурные волнения со стороны прессы и (уже) законодателей. История, кажется, не про фейки, которыми активно размахивают, а несколько глубже.
Language is the stuff almost all human culture is made of. Human rights, for example, aren’t inscribed in our dna. Rather, they are cultural artefacts we created by telling stories and writing laws. Gods aren’t physical realities. Rather, they are cultural artefacts we created by inventing myths and writing scriptures.
Поэтому Харари и заявляет: ИИ хакнул не больше не меньше, как операционную систему человечества: вся наша жизнь построена на нарративах, и люди их создающие, являлись и являются властителями дум и так или иначе управляют другими. Если нарративы начнет создавать машина, она и станет управлять людьми.
Ну или проще: писатели и философы не готовы делиться властью, которая, как они считают, им принадлежит по праву владеющих словом:)
Еще один вариант пересказа мыслей Харари вот здесь:
https://www.ynetnews.com/article/bkszgnrvn
Вот и я хочу потестировать набирающий популярность способ взаимопиара в телеге: возможность делиться папками с каналами. В этой папке собрали не десятки, как иногда бывает, а вполне избранные единицы толковых каналов: половину я уже читаю, а остальные, возможно, теперь начну.
Поизучайте на длинные выходные:)
/channel/addlist/mIxT85FhRlk2YzZi
Важные прорывы, влияющие на качество жизни, не обязаны быть цифровыми или опираться на очень сложные высокие технологии. Особенно когда про них читаешь в пятницу перед длинными выходными.
Вот, например, пивная банка. Любой ценитель пива знает, что налитая из банки кружка пива сильно не та, что налитая из-под крана в хорошем баре. Наука и практика говорят, что дело во многом в качестве пены и в соотношении пены с жидкостью в готовой кружке.
Оказывается, относительно несложной модификацией крышки, в которой вместо одного язычка предусмотрены два, и они в правильной последовательности дают доступ к содержимому банки при открывании, можно сильно улучшить удовольствие от баночного пива.
Уже хочется попробовать:)
https://newatlas.com/lifestyle/dual-tab-beer-can/
Скоро пятница, грядут длинные выходные, и лучший способ завершить рабочую неделю — посмотреть постоянную рубрику «Цифрового океана» в эфире радио «Серебряный дождь» 🙌
🔺 Встречаемся 5 мая в 10:00 на YouTube-канале «Серебряного дождя»: youtube.com/user/wwwsilverru или на сайте silver.ru/live_air
✅ В гостях у рубрики «Цифровой океан» и ее ведущего Виктора Набутова — Андрей Себрант, российский ученый, директор по стратегическому маркетингу «Яндекса», кандидат физико-математических наук. Профессор практики Высшей школы экономики.
Поговорим о том, какие правила должен соблюдать каждый разработчик ИИ, почему лучшие IT-умы планеты против слишком быстрого развития нейросетей и как будет выглядеть ИИ, например, лет через двадцать.
Присоединяйтесь к эфиру — начнем пятницу интересно 🔥
С первого мая начали бастовать члены Гильдии писателей Америки (по сути, члены профсоюза сценаристов, обслуживающих все крупнейшие студии). Что они хотят больше денег и гарантий, традиционно для профсоюза, а вот что они явно требуют “AI can’t write or rewrite literary material, can’t be used as source material, MBA-covered material can’t be used to train AI”— это новация. Особенно умиляет запрет использования творчества ИИ в качестве исходников: во-первых, это непроверяемо, во-вторых — глупо: источники вдохновения у людей разные, запрещать любой из них неумно.
При этом члены Гильдии демонстрируют характерную для творческой публики степень логичности: с одной стороны, выражают уверенность, что увлечение ИИ пройдет через год, потому что ИИ не способен творить, с другой — стараются полностью его запретить 🙂
На днях вышло интервью, где Садхгуру (индийский духовный лидер) и Виталик Бутерин (создатель блокчейн-платформы Ethereum) обсуждают, как технологии помогают расти осознанности и как мы можем преодолеть разрыв между ними. Даже сам факт встречи двух таких разных лидеров в одном интервью — уже событие. Получился интересный разговор, который близок мне как технологическому гуманисту. Я верю, что технологии улучшают качество жизни. Свежий пример здесь — нейросети и развитие ChatGPT. Когда придумали физическую автоматизацию труда (конвейеры, например) — случился первый большой буст продуктивности. Сейчас произойдёт второй — по разным оценкам, такие модели, как ChatGPT, повышают производительность интеллектуального труда людей ~ на 50%. Вокруг меня уже все дизайнеры пользуются Midjourney, я сама пишу некоторые тексты с ChatGPT и потом редактирую.
На мой взгляд, технологии действительно помогают жить в парадигме, что человек может всё. Но на каком этическом и моральном основании он будет это делать?
Про этику зацепили из интервью 2 мысли:
1 / Технологии будут такими, какими мы сами их сделаем и обучим. Вот что говорит Садхгуру: «Technology is the consistency of who we are and how we use it». Сейчас много опасений, что технологии выйдут из-под контроля, но именно мы разрабатываем алгоритмы и правила их работы. Ответственность в заложенной внутри технологий этике — на нас.
2 / Концепция Intersectional identity есть и в spiritual учениях древности, и в идеях блокчейна: по сути духовные лидеры и техно-энтузиасты стремятся к единой мечте. Intersectional identity — это осознание себя не частью только одной группы, а комбинацией всех групп и сообществ, в которые мы входим. Такая глобальная идентичность человека в пост-национальном мире, где идея границ и паспорта всё больше становится неактуальной (и приносит только беды). Сейчас появляется много концепций новых государств, новых states, не territory first, а cloud first сообществ, которые могли бы быть признаны дипломатически. На эту тему рекомендую книгу, если хотите больше материалов, — «The Network State: How To Start a New Country» by Balaji Srinivasan как раз про идею cloud first комьюнити, которые могут существовать как отдельные страны.
Авторы интервью — мои подруги из reState Foundation, швейцарского фонда, переосмысляющего будущее управления. Они как раз изучают концепции network state и intersectional identity, так что если отзывается, подписывайтесь на их блог — всё это одно большое исследование будущего, которое нас ждёт.
И ставьте ❤️, если хочется больше материалов про этику технологий, возьму на заметку.
Свежая оценка стоимости OpenAI: 27-29 млрд. Не то, чтоб они страдали от отсутствия инвестиций, но все же еще $300 млн подняли. Реальная гонка остается очень дорогой, что бы там ни говорили стартапы помельче и любители open source. И ещё одно важное преимущество OpenAI — они уже вложили семь лет очень сфокусированного труда и в итоге получили слаженную и опытную команду, это не менее важно, чем ресурсы, которые можно купить за деньги;)
https://techcrunch.com/2023/04/28/openai-funding-valuation-chatgpt/
Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum
Может ли ИИ-ассистент ChatGPT давать ответы на вопросы пациентов, качество и эмпатия которых сопоставимы с теми, что написаны врачами?
В этом исследовании для 195 случайно выбранных вопросов пациентов с сабреддита r/AskDocs (там ответы пишут доктора, по крайней мере, так говорят), группа из трёх лицензированных докторов в оффлайн-режиме сравнила ответы в тредах и от чат-бота. Ответы ChatGPT были предпочтительнее, чем ответы врачей, и были оценены значительно выше как по качеству, так и по эмпатии. Отмечается, что с Reddit брались именно ответы врачей, хз как это проверялось (может, по плашке, назначенной администрацией, может, по рейтингу - но так или иначе это не ответ какого-то рандома без образования).
Я не увидел в статье прямого указания на оценку правильности советов/ответов, однако используется две метрики “the quality of information provided” и “the empathy or bedside manner provided”, так что кажется, что первая косвенно должна это учитывать. В моём понимании один доктор не может оценить качество ответа от чатбота выше, чем от другого доктора, если в сгенерированном ответе постоянно встречаются ошибки и неточности.
И что же вышло? Ну...ChatGPT разрывает кожаных по метрикам, оценщики предпочли ответ чат-бота ответам с Reddit в 78,6% случаев. А ещё гораздо чаще ответы более эмпатичны.
Качество ответов чат-бота значительно выше, чем ответов врачей. Средняя оценка ответов чат-ботов была 4.13 (по 5-ти бальной шкале), в то время как в среднем ответы в тредах были оценены в 3.26. Детали можно найти на картинке.
Ну и для интересующихся - статистическая значимость достигается везде 😔
В следующий раз пойду узнавать, не рак ли у меня, у GPT-4..ах да, это ДЕКАБРЬСКАЯ версия ChatGPT, поэтому она сильно слабее, чем GPT-4! А потенциально разница ещё больше между ответами на онлайн-форуме и ответами от модели.