Руслан Юсуфов о будущем и настоящем
🤔 ИИ — это просто «новые автомобили»?
Получил от Юрия комментарий к прошлому посту про Duolingo:
«Такое уже было, когда гужевой транспорт меняли на автомобили. Матрица одинаковая.»
Совершенно замечательный пример, очень рекомендую вчитаться и вдуматься.
Duolingo официально объявляет ИИ основой своей будущей стратегии и операционной модели. Причиной называется масштабирование создания контента для миссии компании и использование новых возможностей ИИ. Планируется постепенная замена контракторов на ИИ, ИИ-критерии при найме/оценке, ограничение роста штата в пользу автоматизации. Обозначен приоритет скорости внедрения над идеальным качеством.
➡️ https://www.theverge.com/news/657594/duolingo-ai-first-replace-contract-workers
Разумеется, штатные сотрудники успокаиваются мантрой «это не про вас», да с обязательным обещанием поддержки и фокуса на устранение рутины.
Самое прекрасное — это комментарии. Я прочитал их 60+ и могу сделать вывод о сильной негативной реакции и глубоком скепсисе, выходящим далеко за рамки самой новости.
1️⃣ Резкое неприятие и готовность к прямым действиям: многие пользователи отменяют платные подписки, удаляют приложение или заявляют о переходе к конкурентам. Мотивация чисто этическая (не поддержу компанию, которая забирает рабочие места) или связана с ухудшением качества продукта.
2️⃣ Некоторые пользователи отмечают, что качество курсов уже ухудшилось, а сервис деградирует (платные объяснения, плохая поддержка) и считают внедрение ИИ продолжением этого тренда.
3️⃣ Скептицизм в отношении ценности Duolingo в эпоху ИИ: зачем платить им, если можно использовать ChatGPT для обучения языкам напрямую? Решение СЕО рассматривается как подрыв собственной бизнес-модели: если ИИ так хорош, то ценность Duolingo как посредника падает.
4️⃣ Глубокий цинизм по отношению к аргументам: фразы СЕО воспринимаются как пустая риторика, лицемерие, уловки перед увольнениями, прослеживается общее недоверие к корпорациям и их мотивам.
5️⃣ Страх широкомасштабной потери рабочих мест из-за ИИ: новость воспринимается как тревожный звонок, особенно для белых воротничков. Высказываются опасения об экономическом кризисе и необходимости государственного вмешательства, звучат тезисы об угрозе ИИ человечеству.
6️⃣ Тревожность выплескивается в иронию и предложения по автоматизации менеджмента, мол, это позволило бы сэкономить гораздо больше.
7️⃣ Есть комментарии, защищающие Duolingo с позиции рыночной логики и неизбежности изменений, НО они сталкиваются с враждебностью и обвинением в том, что их написали боты — это само по себе ОЧЕНЬ показательно.
⚡️Резюме
⚪️Это уже началось и происходит прямо сейчас то тут, то там, а дальше может быть снежный ком. Мы следим за увольнениями в крупных глобальных компаниях последние года 3 и видим постоянные сигналы. Реакция людей показывает, что для многих это уже реальность или неминуемая угроза, люди явно экстраполируют кейс Duolingo на более широкий круг профессий.
⚪️Увольнения будут происходить быстрее, чем освоение новых профессий. Это подтверждается нашими прогнозами, и в данном случае опасения комментаторов сосредоточены вокруг рисков и потерь, а не на возможностях или легкости освоения новых ролей.
⚪️Хотя старт заметен в tech/digital, природа ИИ позволяет ему быстро проникать и в другие сферы, где есть рутинные когнитивные задачи, что и подпитывает ощущение повсеместности угрозы.
⚪️Компании вынуждены это делать под влиянием очень разных сил, но будут сталкиваться с культурой отмены и иногда получать PR-кризисы. Прогноз вдолгую — в некоторых странах придется откупаться от регулятора (ЕС), от юристов (США), будут очень серьезные миграционные последствия, на горизонте 2-3 лет — рост организованного луддизма.
Читатели и слушатели моей книги, впрочем, уже все это намотали на ус, не так ли?
@yusufovruslan
Нику Комарову я знаю давно, работали вместе, страдали тоже вместе 😂, теперь вот смотрю в соцсетях, как Ника на мотоцикле разъезжает в каких-то теплых странах — то ли Буркина-Фасо, то ли Таиланд, непонятно, но выглядит счастливой.
Я искренне считаю Нику одним из мощнейших пиар-специалистов вообще, а уж в специфической теме кибербезопасности — однозначно одной из лучших. ИБ — это такая тема, где с одной стороны журналисты, которые хотят написать «произошла страшная хакерская атака на [название компании], украли все пароли, мир рушится!», а с другой — технари из SOC или отдела реагирования, которые могут коротенько, минут за сорок, объяснить, в результате эксплуатации какой именно CVE (да не той, что вчера патчили, а zero-day!) произошло RCE, как злоумышленники повысили права до root, запустили своего демона для персистентности и какие IOCs оставили на хостах, пока выводили данные через хитро замаскированный канал...
И вот тут на сцену выходит Ника. Она — тот самый редкий специалист, который выступает переводчиком с эльфийского технического на человеческий язык. Она умеет взять всю эту адскую смесь из эксплойтов, TTPs (тактик, техник и процедур) и Mitre ATT&CK, и превратить ее в понятный месседж для прессы, клиентов и руководства, объяснить риски без паники, рассказать о мерах реагирования без лишних и пугающих деталей, но сохранив суть. Это реально талант.
Так, дифирамбы спеты, я к чему это все: Ника мало того, что ведет свой канал PR Machine, так еще и с товарищами формирует то, что мне особенно всегда нравится — сообщество.
«Монстры коммуникаций» — это экспертный клуб, где руководители в области пиара, маркетинга, рекламы, известные журналисты, представители коммуникационного и другого бизнеса делятся своим опытом. Вход в клуб бесплатный.
Ваш покорный слуга же по первому образованию — международник, а по второму — искренний поклонник таланта министра Лаврова. Сергей Викторович в каждом своем выступлении заодно проводит коммуникационные мастер-классы, и его вчерашнее интервью для CBS мне показалось таким ценным с точки зрения PR-техник (особенно работы с агрессивным давлением и контроля над фреймом), что я его анализировал буквально с карандашом.
Карандашный разбор коллеги из «Монстров» посчитали полезным и решили запостить у себя в сообществе. Так что завтра и мой скромный анализ коммуникационных приемов можно будет найти там.
Вот так, начал с Ники, а закончил тем, что я вообще-то тоже Монстр коммуникаций! 😂 Заходите почитать разбор, ну и на Нику с ее проектами обязательно подпишитесь, если еще нет!
@yusufovruslan
🤔 ИИ-оптимисты против ИИ-пессимистов: кому выгодна вера в светлое цифровое будущее? Часть 3.
Мы выслушали обе стороны в споре об ИИ: и тех, кто бьет тревогу (пост 1), и тех, кто призывает не бояться и смело двигаться вперед (пост 2). Аргументы Романа Ямпольского указывают на фундаментальные проблемы контроля и непредсказуемости сверхинтеллекта. Аргументы Амжада Масада воспевают пользу прогресса и веру в рыночные механизмы.
⚡️ Так кому верить и какое будущее нам продают?
Слушая Масада, нельзя отделаться от ощущения, что перед нами пример человека, чей взгляд на мир сильно окрашен его коммерческими интересами (что, в общем-то, нормально, но требует критической оценки слушателем). Его аргументы во многом сводятся к:
⚪️Принижению риска: назвать опасения «фантастикой» — удобный способ уйти от сложного разговора о контроле над сверхинтеллектом, ведь проще отмахнуться, чем искать ответы на неудобные вопросы.
⚪️Апелляции к рынку, невидимая рука которого сама собой отрегулирует экзистенциальные риски — это, мягко говоря, наивно: рынок оптимизирован под прибыль здесь и сейчас, а не под предотвращение гипотетических катастроф через 10-20 лет.
⚪️Смещению фокуса и переводу дискуссии в сторону пользы текущего ИИ и необходимости регулировать приложения, а это не отвечает на главный вопрос Ямпольского: что делать с будущим неконтролируемым агентом?
Мы-то понимаем, что когда CEO ИИ-компании убеждает нас не бояться ИИ, он продает не только свое видение будущего, но и свой продукт, свою компанию, свою индустрию. Ему выгодно, чтобы мы верили в светлое будущее и не слишком задумывались о темных сценариях, которые могут помешать «прогрессу» (и прибыли). Его оптимизм — это еще и маркетинговый инструмент.
Аргументы Ямпольского, хоть и звучат мрачно, указывают на реальные, пока не решенные проблемы в теории управления и компьютерных науках. Отмахиваться от них как от «фантастики» — значит игнорировать потенциальную опасность, масштаб которой может быть беспрецедентным.
Вопрос не в том, чтобы остановить прогресс. Вопрос в том, КАК мы к нему движемся. Гонка за технологическим превосходством, подстегиваемая коммерцией и геополитикой, может привести нас к точке невозврата раньше, чем мы успеем осознать риски и разработать механизмы защиты.
Нам продают будущее, в котором победителями будут те, кто первым создаст самый мощный ИИ — то есть единицы. Но кто будет платить, если этот ИИ окажется неконтролируемым? Все.
🎯 Парадокс прогресса: технологии, создаваемые для решения проблем и улучшения жизни, в своем предельном развитии могут породить проблему совершенно иного порядка — экзистенциальную.
И движущей силой этой гонки к возможному краю пропасти являются те самые рыночные и геополитические стимулы, которые обычно считаются двигателями прогресса. Возможно, пришло время задуматься: не слишком ли высока цена за первенство в гонке, где финишная черта может оказаться обрывом для всех? Критически оценивать не только обещания, но и мотивы обещающих — сегодня это не просто интеллектуальное упражнение, а вопрос выживания.
P.S.: Сам я, конечно, остаюсь умеренным скептиком на этой шкале. Но интуиция и здравый смысл подсказывают, что в вопросах, где на кону стоит так много, лучше семь раз подумать и один раз… еще раз подумать. Чем потом не иметь возможности подумать вовсе 😉
@yusufovruslan
🤔 ИИ-оптимисты против ИИ-пессимистов: кому выгодна вера в светлое цифровое будущее? Часть 1.
Наткнулся я на любопытную дискуссию между двумя известными фигурами из мира ИИ.
➡️https://youtu.be/e6TpE8-Ucuc
С одной стороны — ученый-компьютерщик Роман Ямпольский, известный своей работой по безопасности ИИ и, скажем так, «умеренным пессимизмом» относительно сверхинтеллекта. С другой — Амжад Масад, CEO компании Replit, разрабатывающей ИИ-инструменты, и типичный представитель лагеря технологических оптимистов, или, как их еще называют, акселерационистов.
Слушать такие дебаты — одно удовольствие (иногда интеллектуальное, иногда — как наблюдение за гладиаторскими боями). Поляризация мнений колоссальная: одни видят экзистенциальный риск за каждым новым алгоритмом, другие — панацею от всех бед и источник невиданного процветания. На фоне этой бури эмоций и аргументов особенно важно сохранять холодную голову и задавать правильные вопросы: не только ЧТО нам говорят, но и ЗАЧЕМ.
Давайте разберем ключевые позиции сторон, чтобы понять, где проходит водораздел и почему он так важен. Начнем с тех, кто бьет тревогу.
⚡️ Аргументы «партии страха» (голосом Романа Ямпольского)
Ямпольский и его единомышленники бьют тревогу не по поводу сегодняшнего ChatGPT, который пишет вам код или стихи. Их главная головная боль — гипотетический Сильный ИИ (AGI) или Сверхинтеллект (ASI), который будет не просто инструментом, а самостоятельным агентом, превосходящим человека интеллектуально.
⚪️Проблема контроля
Главный козырь — мы понятия не имеем, как надежно контролировать сущность, которая значительно умнее нас. Существующие «намордники» для ИИ (фильтры, ограничения) не масштабируются до уровня ASI — это как пытаться удержать взрослого слона на поводке.
⚪️Агентность меняет все
Как только ИИ перестает быть молотком и становится плотником со своими планами, правила игры меняются: угрозой становится не только «плохой парень» с ИИ-инструментом, но и сам «инструмент», решивший, что у него свои цели.
⚪️Непредсказуемость сверхразума
Пытаться угадать мотивы ASI — все равно что муравью предсказывать действия человека: они могут быть контринтуитивными, основанными на непонятной нам логике или теории игр. И нет, он не обязательно захочет «уничтожить человечество» из-за злобы — может, мы просто окажемся помехой на пути к его цели (например, максимальной эффективности или добыче ресурсов).
⚪️Гонка к пропасти
Коммерческое и геополитическое давление (та самая «гонка ИИ-вооружений») толкает разработчиков наращивать мощность, отодвигая вопросы безопасности на второй план. Классическая дилемма заключенного: индивидуальная выгода (быть первым) противоречит коллективной безопасности. Даже если CEO лабораторий в кулуарах признают риски (а некоторые и публично), остановиться они уже не могут — инвесторы не поймут.
⚪️Бесполезность регулирования (на уровне ASI)
Можно запретить ИИ управлять АЭС, но как запретить сверхинтеллекту делать то, что он сам решит? Глобальные запреты на разработку нереализуемы, а постфактум штрафовать ASI за «уничтожение человечества», как иронизирует Ямпольский, будет поздно.
⚪️Невозможность «правильно воспитать»
Идея «согласования ценностей» (Value Alignment) — вшить в ИИ правильные человеческие ценности — разбивается о два рифа: а) мы сами не можем договориться, что такое «правильные ценности» (8 миллиардов мнений, культурные различия, смена эпох); б) мы не знаем, как технически «запрограммировать» этику в нейросеть.
⚪️Цена ошибки
В кибербезопасности ошибка — это утечка данных, новая кредитка, ошибка же в контроле над ASI может стать последней ошибкой человечества. Худший сценарий здесь — единственный, который имеет значение.
Такова позиция тех, кто предостерегает. Аргументы строятся на фундаментальных вопросах контроля и непредсказуемости систем, превосходящих создателей.
Но есть и совершенно противоположный взгляд, где все эти страхи кажутся преувеличенными или даже вредными.
О позиции технологических оптимистов — в следующем посте.
@yusufovruslan
Друзья мои, тут Кирилл в комментариях попросил поделиться чек-листом для изучения ИИ.
Хотите? Или подобный материал для самостоятельного изучения? Или провести полноценный марафон с тренером и разбором?
Пишу слово «марафон», а скулы сводит 😂 Постараемся без дурных стереотипов!
@yusufovruslan
🤔 Ваш отпускной альбом — как улика? Как ИИ превращает фото в карту вашей жизни
Новый ИИ, похоже, готов сдать экзамен на частного детектива, используя ваши фото — и как водится, без спроса. Пользователи активно используют свежие модели OpenAI (o3 и o4-mini), особенно o3, для определения геолокации по фотографиям. Игра в «угадай место по картинке» вышла на новый уровень.
⚡️ Что именно «видит» ИИ на ваших фото?
Эти ИИ-модели обладают улучшенной способностью «рассуждать» на основе изображений: они могут анализировать детали (архитектуру, вывески, ландшафт), приближать, обрезать фото (даже нечеткие) и использовать веб-поиск для сопоставления визуальных подсказок с реальными местами. В общем, все то, на что у нас обычно не хватает времени и внимания.
⚡️ Как безобидное селфи превращается в точку на карте?
Элементарно: пользователи сами загружают фото (меню из кафе, случайные уличные снимки, фасады зданий, селфи на фоне чего-угодно) и просят ИИ угадать место. И тот, надо сказать, неплохо справляется, успешно определяя города, достопримечательности и даже конкретные заведения — порой по самым неочевидным деталям.
⚡️ Кому первому прилетит «привет» от ИИ-геолокатора?
Это, разумеется, немедленно вызывает зуд у параноиков (и не только) по поводу конфиденциальности и потенциального использования для доксинга. Старый мем «я тебя вычислю по айпи» обретает новое, гораздо более реальное и тревожное воплощение.
Если раньше это требовало смекалки и доступа к специфическим данным, то теперь инструмент, способный по деталям интерьера или виду из окна определить примерное (а иногда и точное) местоположение, становится общедоступным развлечением.
Особенно «приятные» перспективы это открывает для тех, кто пытается сохранять анонимность локации, публикуя контент (блогеры, стримеры, вебкам-модели). У их не всегда адекватных поклонников, сталкеров или просто недоброжелателей появляется мощный и удобный инструмент для деанонимизации. Прощай, приватность, здравствуй, физическая уязвимость.
А теперь масштабируем: представьте анализ не одной случайной фотографии, а всего вашего фотоархива за годы. С построением тепловой карты часто посещаемых локаций, с оценкой времени и продолжительности пребывания, восстановлением полной истории передвижений, анализом паттернов поведения и социальных связей... Звучит как сценарий для антиутопии? Нет, просто как логичное развитие событий.
🎯 Парадокс эпохи ИИ: создавая визуальную летопись своей жизни в сети, мы невольно пишем подробнейший сценарий для собственной деанонимизации. Технологии «зрения» оказались дальновиднее нас, превратив наши же воспоминания в улики.
P.S.: Кажется, мой давний прогноз о том, что кража цифрового двойника будет иметь последствия серьезнее кражи паспорта становится еще на шаг реальнее. Приятного осознания 😉
@yusufovruslan
Новые модели от OpenAI (GPT 4.1, 4.1 mini и 4.1 nano) в дополнение к существующим (4o, 4o (2024-11-20), o1, o1-preview, o1-preview (2024-09-12), o1-mini, o1-pro, o3-mini, o3-mini-high, 4.5) — это целый зоопарк моделей с запутанной нумерацией и неясными отличиями, которые провоцируют вечное «платное тестирование».
Пока мы судорожно гоняем тесты, пытаясь понять, какая же версия лучше сейчас (активно сжигая токены на API-вызовах и, что еще важнее, невольно создавая OpenAI тонны бесплатной нативной рекламы своими постами о результатах тестов), OpenAI собирает по рублю с пяти старушек.
Каждый новый «неожиданный» релиз вроде 4.1 (почему именно 4.1? почему она лучше, чем 4.5? почему ее гоняли под таинственными названиями Quasar и Optimus?) лишь подливает масла в огонь, заставляя нас снова тратиться и говорить о них — идеальный маркетинговый цикл: Rinse, repeat.
Учитесь наводить туману!
P.S.: OpenAI анонсировали создание социальной сети 😂
@yusufovruslan
🤖 Нейросети головного мозга
Котаны, в нашу дивную эпоху тотального нейрохайпа особенно пикантно наблюдать за этим глобальным перформансом, который неизбежно сводится к «Срочно несите деньги нам, или злые китайцы/корпорации построят Скайнет первыми, а мы — ваши единственные спасители с Безопасным AGI».
«Фи, так любой технологический пузырь надувается!», — скажет кто-то и будет отчасти прав: хайп, венчурные циклы, обещания перевернуть стол. Но, котаны, дьявол в деталях. Ставки в ИИ — это не просто «новый интернет» или «убийца айфона». Это заявка на создание «нового бога» или «конца человечества».
Добавьте сюда абсолютную непрозрачность этих триллионов параметров (кто знает, что там внутри — прорыв или хитрая имитация?), плюс сам факт, что продукт симулирует интеллект, ну и вишенка — экзистенциальный ужас перед AGI, который так удобно конвертировать в инвестиции. Так что ноты те же, но оркестр играет с истерическим надрывом.
Так как же варится эта «Революция искусственного интеллекта»? Забудьте про скучные метрики и научные статьи, все проще. Сидят два стартапера в модном коворкинге, допиливают свои прорывные ИИ. Один говорит: «Бро, давай для отчета инвесторам движуху создадим? Я тебе $50к из нашего раунда за «независимую экспертизу» нашего алгоритма детекции подгоревших тостов. Напишешь восторженный отзыв?». Другой: «Легко, бро! Только ты мне потом $50к за «консалтинг по интеграции» твоего отзыва в нашу нейросеть анализа нейросетей, я это своим инвесторам как «стратегическое партнерство» продам?». И ударили по рукам.
Профан подумает — просто перегнали $100к инвесторских денег по кругу. Но нет! «Экосистема ИИ» только что обогатилась «успешным кейсом», «валидацией» и «синергией»! Под эту лавочку можно смело идти за следующим раундом, умножив оценку на 10 — ведь есть «traction»! А новый раунд уже можно впарить какому-нибудь неповоротливому стратегу, панически боящемуся пропустить очередной «game changer». Так пузырь раздувается на сотни миллионов долларов всего за пару рукопожатий. У нас тут нейросети.
Апофеоз? Великий Илья Суцкевер. Уходит из OpenAI, где уже вроде как строили этот самый AGI, и заявляет: «Все не так, и все не то, когда твоя девушка больна! Настоящий Безопасный Сверхразум™ построим мы! С нуля! Продукта нет, команды нет, офиса нет. Есть только Имя Мое и Священная Цель. Несите миллиарды!». Идеальная схема продажи вакуума под соусом спасения человечества.
Но и это не все! Есть целая каста жрецов этого культа — акселерационисты (e/acc). У этих ребят своя религия: гнать прогресс, особенно ИИ, вперед, на полной скорости! Плевать на риски, этику, последствия — это все «тормоза» для лузеров. «Вперед, к постгуманизму, даже если он нас сожжет — так заодно и очистимся!». Это уже не бизнес, котаны, это священный джихад против ограничений плоти и здравого смысла. И как удобно эта «философия» ложится на интересы тех, кто вливает миллиарды и ждет иксов! Чистое совпадение, конечно.
Кто гребет бабло? Венчурные фонды (кто успел вовремя выйти), основатели (обкэшившиеся на раундах), NVIDIA с облачными гигантами, ну и проповедники e/acc, конечно. Вот вам и вся суть глобальной игры «кто кого перехайпит», построенной на страхе, жадности, вере и фанатизме.
В России свой ИИ-театр абсурда. На каждый реальный научный результат — двадцать пять «инновационных отечественных ИИ». Присмотритесь — и там окажется переупакованная китайская опенсорсная моделька, скажем, на 7 млрд параметров — вчерашний день по гамбургскому счету, но зато легко допилить.
Ее кормят рунетом, дают гордое имя (сгенерированное при помощи ChatGPT) и рапортуют об «импортозамещении». И важно ведь, что это поделие всерьез запускают в продакшн в свои рекомендации и чат-боты на уровне целого маркетплейса, напевая песнь про собственную разработку. Хайп есть? Есть. Бюджеты освоены? Освоены. А что под капотом — дело десятое.
Так что, котаны, вкладывайтесь в попкорн и критическое мышление. Шоу будет долгим, дорогим и незабываемо нелепым.
А потом придет очищающий огонь. И каждому воздастся по делам его.
@yusufovruslan
1108 год: Ансельм Аостский, богослов и архиепископ Кентерберийский с 1093 года, рассуждает о христианском грехе, предотвращение которого не устранит вины грешника перед богом.
1956 год: Филип Дик пишет рассказ «Особое мнение» о будущем, где правоохранительные органы используют мутантов-ясновидцев для предотвращения еще не совершенных преступлений.
2002 год: по мотивам рассказа Стивен Спилберг снимает фильм «Особое мнение» с Томом Крузом и Колином Фаррелом в роли полицейских из управления по профилактике и предотвращению преступлений «Precrime».
2011 год: Д. Уиттковер, американский профессор философии технологий, кибербезопасности и информационной этики (да-а, вот на таком факультете я бы поучился 🔥) в своей книге «Филип К Дик и философия» проводит параллели между Диком и богословом XII века.
2015 год: телеканал Fox выпускает сериал «Особое мнение», снятый на основе фильма Стивена Спилберга.
2025 год: БРИТАНСКОЕ ПРАВИТЕЛЬСТВО РАЗРАБАТЫВАЕТ ПРОГРАММУ «ПРЕДОТВРАЩЕНИЯ УБИЙСТВ», КОТОРАЯ БУДЕТ ИСПОЛЬЗОВАТЬ ПЕРСОНАЛЬНЫЕ ДАННЫЕ ДЛЯ ПРЕДСКАЗАНИЯ БУДУЩИХ ТЯЖКИХ ПРЕСТУПЛЕНИЙ.
🥴
@yusufovruslan
🤔 За последние недели я получил какой-то шквал вопросов, которые сформулированы по-разному, но по сути сводятся к одному: «где мне научиться правильно промптить?»
Книжек и курсов полно, но этого уже недостаточно. Не вдаваясь в проблемы современных больших языковых моделей, сразу подытожу: навык будущего (и настоящего) — гораздо больше, чем просто промпт-инжиниринг.
Промпт-инжиниринг — это о том, как сформулировать запрос, чтобы получить желаемый или оптимальный ответ в рамках существующих возможностей и ограничений модели.
🎯Вопрос «как промптить?» — важный, вопрос «как думать при взаимодействии с ИИ» — важнее!
Если не развивать расширяющие промптинг навыки, вы можете остаться на уровне магического шара, который дает ответы на любые вопросы, со всеми вытекающими страшными последствиями для человека и людей.
⚡️Предложу вам несколько навыков и умений продвинутого уровня
1. Критическая ИИ-грамотность
Это не только умение пользоваться ИИ, но и способность понимать его ограничения, встроенные предубеждения (bias), механизмы работы, включая самоцензуру, потенциал для манипуляции и контекст его создания (кто разработчик, какие данные использовались, какие цели преследовались).
Это позволит не просто использовать ИИ, а анализировать и критически оценивать его поведение и ответы.
2. Умение исследовать ИИ
Нужно научиться подходить к ИИ не как к «черному ящику», выдающему ответы, а как к сложной системе, которую нужно прощупать, выявить ее слабые места, скрытые правила и реакции на давление.
Нужно учиться систематически проверять границы дозволенного, сравнивать модели — не только по бенчмаркам, но и по паттернам поведения и уклонения, формируя свой собственный опыт и насмотренность.
Это необходимо для понимания истинной природы моделей и заложенных ограничениях (которые сегодня элегантно называют «этическими», хотя до этики там, как до луны пешком: в «этику» сегодня упаковывается непрозрачность и ангажированность наряду с запретными рецептами веществ).
Например: исследовать ИИ — спросить одно и то же у трех разных моделей и посмотреть, где именно они начинают врать и уклоняться. Или попросить вторую модель покритиковать переписку с первой.
3. Мета-когнитивное взаимодействие с ИИ
Не заходя на территорию вопроса о «сознании», важно уметь взаимодействовать с процессом «мышления» (в самых гигантских кавычках), заставляя ИИ рефлексировать над собственными ответами, ограничениями и даже над самим актом рефлексии. Это выход на уровень «думания о думании» ИИ.
⚡️Суть этих навыков вот в чем
⚪️Недоверие по умолчанию: понимание, что ответ ИИ — это не объективная истина, а результат сложного процесса с множеством скрытых переменных.
⚪️Распознавание паттернов: умение видеть не только содержание ответа, но и форму — как ИИ отвечает, от чего уклоняется, какие слова подбирает (естественный bias vs запрограммированный).
⚪️Контекстуализация: способность связать поведение ИИ с его происхождением, данными, целями разработчиков и более широким технологическим и геополитическим ландшафтом.
⚪️Настойчивость и итеративность: готовность не удовлетворяться первым ответом, а задавать уточняющие, провокационные и сравнительные вопросы для вскрытия более глубоких слоев.
🤯 Руслан, ты вообще о чем? Что за муха тебя опять укусила? Зачем эти усложнения, кнопку нажал — текст получил.
Эти навыки будут все более важны по мере того, как ИИ глубже проникает в нашу жизнь. Они позволяют не просто использовать ИИ, но и понимать его, не становясь объектом его манипуляций, искажений и ограничений (возможно, непреднамеренных, а быть может техношаман пытается сделать из вас биоробота).
Так что пробуйте шире и глубже, чем просто написание хороших промптов.
@yusufovruslan
Тут CNBC пишет про страшную угрозу фейковых соискателей, которые после трудоустройства будут красть секреты компании, устанавливать вирусы и требовать выкуп. Всемирно известные хайпожоры исследовательская компания Gartner даже прогнозирует, что к 2028 году один из четырех кандидатов в мире будет фейковым.
А давайте посмотрим на эту ситуацию чуть шире хакерской угрозы? Не открывается ли новый черный рынок продажи рабочих мест? 😉 Представьте, за вас проведут подбор компании, первичные собеседования, а после трудоустройства продадут вам место в очереди на работу.
В эконом пакете вам придется трудиться в случайной компании под случайным именем какого-нибудь индийского разработчика. В премиум — вы будете сами выбирать варианты, а видео-интервью будет проводиться с вашим лицом и подлинными документами!
А может даже получится продать свое б/у рабочее место! С гарантией получения 10% зарплаты. Безграничные возможности! 😉
Продаю свое полностью укомплектованное рабочее место в IT-компании среднего звена. Позиция прогрета, репутация выстроена, коллеги привыкли к регулярным «проблемам с камерой» на онлайн-встречах!
В комплекте:
Доступ к корпоративной почте и всем рабочим системам ✅
Подробный гайд по коллегам (кто, что, как, с кем) ✅
Готовые шаблоны ответов на все случаи жизни ✅
Личный бот для имитации активности в мессенджерах ✅
Скрипты для ежемесячных отчетов ✅
В полную версию такое может и не войти 😂 Скоро у Юрия Грибанова ожидаем СЕРЬЕЗНЫЙ РАЗГОВОР о наших с вами перспективах!
@yusufovruslan
В МВД (в который раз) предупредили, что преступники распространяют поддельные документы через почтовые ящики, размещая на них фальшивые QR-коды. Нас предупреждали последние ГОДЫ через социальную рекламу на остановках, постеры в метро, телеграм-каналы, блогеров и даже Comedy Club. Не работает. Я верю, конечно, в важность просвещения, но считаю его недостаточным.
Я предполагаю, что общество неизбежно движется к жесткому разделению информационного пространства на «зону доверия» и «зону токсичности» где самые уязвимые каналы связи (телефон, почта, мессенджеры) станут восприниматься людьми как априори враждебные. Это приведет к радикальным социальным сдвигам, а не к точечным решениям вроде предупреждений от МВД.
⚡️Я говорю от переформатировании человеческого поведения через вынужденный цифровой аскетизм.
Судите сами:
⚪️ Телефон. Если люди перестанут отвечать на звонки из-за страха мошенников, это убьет саму идею телефонной связи как доверительного канала. Если у вас нет телефона или он работает только по белым спискам — это снижает угрозу.
⚪️ Почта. Физические письма в ящиках уже воспринимаются как мусор — следующий шаг: полный отказ от них в пользу закрытых цифровых платформ. Если вы заварили почтовый ящик, в него нельзя положить фальшивую платежку.
⚪️ Базовое недоверие. Если институты не могут защитить граждан, люди начнут строить личные «крепости», игнорируя все, что не приходит через надежные шлюзы (например, госуслуги с верифицированным входом).
Это не «недоверие к мошенникам» — это новый социальный инстинкт:
Люди будут действовать не из рационального расчета («проверю QR-код на Госуслугах»), а на уровне рефлекса: «ЛЮБОЙ звонок = угроза. ЛЮБАЯ бумажка в ящике = спам или мошенничество. ЛЮБОЙ контакт без цифровой подписи = опасен».
⚡️Этот социальный инстинкт приведет к нескольким серьезным последствиям:
⚪️ Смерть анонимности. Любое взаимодействие потребует подтверждения личности (как сейчас с госуслугами), иначе оно будет блокироваться системой.
⚪️ Цифровая сегрегация. Те, кто «в системе» (верифицирован), получают доступ к услугам; те, кто вне, становятся маргиналами.
⚪️ Деградация «офлайна». Реальные почта, телефоны, физические документы превращаются в архаику, которую только пенсионеры (сложно переучивать), люмпены (выпали из системы и не могут вернуться) или контркультура используют всерьез.
Мне думается, назревшая проблема «мошенников» поднимает вопрос о переформатировании самой ткани коммуникаций. Мы уже движемся к миру, где доверие становится роскошью, доступной только в строго контролируемых «чистых» зонах, а все остальное — цифровая пустошь, куда цивилизованный человек не ступит.
И там творится самая лютая дичь, но все знают с детства, что в такие места без специального защитного костюма и сопровождения телохранителей-головорезов лучше не соваться.
🎯Философский вопрос. Если общество делится на тех, кто в «цифровом монастыре», и тех, кто в «информационной пустоши», не повторяем ли мы средневековую модель «крепость-дикое поле»? И не станет ли цифровой аскетизм новой религией (или как минимум — моральной рамкой), где подозрительность — добродетель, а доверие — грех? Тянет на тему вашей диссертации, товарищ аспирант 😉
@yusufovruslan
🤔 Ответ на вопрос: ИИ — это расширение возможности человека или путь к деградации
Пытаясь не скатиться в дискуссию «молодежь не читает книги» или «вы совсем отупели с этим вашим тиктоком», сошлюсь на конкретный кейс. Вот тут человек пишет, что после длительного использования Теслы с автопилотом он фактически разучился ездить самостоятельно — ему требовалось сверхусилие и суперконцентрация, чтобы не отвлекаться от дороги.
По себе помню такие размышления, когда впервые столкнулся с функцией, позволяющей не держать ногу на тормозе, чтобы автомобиль не откатывался. Я довольно быстро отключил эту функцию, чтобы не разучиться ездить на «обычных».
Давайте начнем размышление с аргументов за и против ИИ, а затем попробуем сформулировать инсайты.
⚡️Аргументы за
1. Самое очевидное — эффективность и продуктивность. Чем меньше рутины, тем больше фокуса на сложных проблемах. А сложные проблемы решаются еще быстрее, потому что поиск решения ускоряется (больше не надо гуглить). Плюс снижается порог входа для новичков, позволяя им быстрее вносить вклад.
2. Быстрее понимаются сложные концепции — причем на релевантных примерах, быстрее осваиваются новые технологии, нишевые области, всякие там редкие и слабо документированные механики.
3. Это неизбежно, поэтому надо осваивать. У людей останется архитектура и контроль, а «ручные» задачи будут решаться ИИ. Никто же сейчас не пишет на ассемблере? Ну может для удовольствия, либо за огромные деньги для удовольствия других.
⚡️Аргументы против
1. Деградация навыков, потеря интуиции, неспособность решать проблему без ИИ.
2. Ошибка в решении невидима непрофессионалу, но ИИ не понесет за нее ответственность.
3. Когнитивная разгрузка может привести к паталогической лени, есть риск стать «вечным джуниором», неспособным работать без подсказок. Условно, можешь ездить только в мире, где все авто — с автопилотом. Вы помните даты из учебника истории? Это все Google виноват.
⚡️ Инсайты
1. Растет давление наращивать «не свои компетенции» — как когда технарю нужно специализироваться уже не на коде, а управлении, что далеко не для всех. Есть люди, которым полезнее оставаться глубокими экспертами, но их выталкивает в некомфортную роль. Мы рискуем получить массовых троечников-управленцев — и это не только про разработчиков.
2. ИИ полезен, когда дополняет мышление (например, генерация шаблонов, документация, оформление текста), но вреден, когда заменяет его (слепое копирование кода, генерация «знания» без авторской идеи). Граница определяется способностью оператора критически оценивать вывод ИИ — а как научиться его критически оценивать, если всю свою карьеру учился только кнопку жать?
3. Ожидания по скорости решения задач со стороны менеджеров вырастают, а страх исполнителей устареть противоречит необходимости глубокого понимания предметной области. Это создает токсичную среду, где ценится скорость, а не мастерство.
4. Кто виноват в случае ошибки автопилота, который водителю продали как «лучше человека на дороге»? Ну по-хорошему не водитель, а производитель, правда? А в случае с генеративным ИИ — ответственность несет оператор. Это парадоксальная ситуация, если задуматься.
5. Ключевые навыки в эпоху ИИ — системное мышление, декомпозиция проблем, коммуникация. И все три пригодятся для ответа на самый главный вопрос — что ждет лично меня?
🎯 ИИ — это катализатор. Его влияние зависит от двух факторов:
1. Границы использования
Если для освобождения от рутины — расширение, если из-за лени с потерей связи с контекстом — деградация.
2. Осознанность пользователя
Профессионалы, сохраняющие критическое мышление, усиливают свою экспертизу, а новички, полагающиеся на ИИ без фундамента, рискуют стать «вечными джуниорами».
Главная угроза — не сам ИИ, а создающаяся культура «лайфхаков», где скорость ценится выше качества. Возможное решение — пересмотреть образование (учить не синтаксису, а системному мышлению) и корпоративные стандарты (внедрять ИИ только там, где он не заменяет, а дополняет человека).
По обоим пунктам у меня серьезные сомнения.
@yusufovruslan
Не помню точно, то ли у Цицерона, то ли у Катона старшего как-то читал про римскую молодежь, которая совсем «не та» и от рук отбилась.
Деградация или трансформация? Вечный спор о том, куда катится мир (и особенно молодежь), теперь — из-за цифры. Вышел наш совместный материал с психологом Никой Болзан, где мы столкнули лбами два взгляда на эту проблему. Я говорю о делегировании навыков ИИ и цене за скорость в виде клипового мышления, Ника — о психологических ловушках и «великой перестройке детства».
Спойлер: оба видим не столько «оглупление», сколько тектонический сдвиг. Но вот куда он нас приведет — к гибридному интеллекту или миру, где ChatGPT оценивает твою благонадежность? И что важнее — бороться с TikTok или учиться отличать deepfake от реальности?
➡️ Читайте в материале Peopletalk
@yusufovruslan
Вы часто спрашиваете, чем футуролог отличается от таролога или гадалки с хрустальным шаром. Рассмотрим на примере британского банка Standard Chartered и его прогнозов по биткоину и некоторых событий.
❌ 08.08.2021. Заявляли $100 тыс. к 2022 году — мимо.
❓ 03.05.2021. Говорили про +70% при дефолте США — дефолта не было, условие не выполнено, но показывает склонность к громким прогнозам.
✅ 24.04.2023. Обещали $100 тыс. к концу 2024 года — угадали!
❌ 10.06.2023. Подняли планку до $120 тыс. к концу 2024 года — тоже мимо.
😳 05.06.2024. Банк обвиняют в помощи финансированию террористов — добавляет ли доверия к финансовым прогнозам такой бэкграунд? Особенно учитывая, что в 2019 году банк уже платил $1,1 млрд штрафов властям США и Великобритании за подобные нарушения санкций против Ирана и проблемы с AML.
❌ 06.06.2024. Прогнозировали $150 тыс. при победе Трампа — Трамп победил, прогноз мимо.
❌ 16.10.2024. Ждали новый исторический максимум перед выборами в США — мимо.
❌ 06.11.2024. Прогноз $125 тыс. до инаугурации Трампа (20.01.2025) — мимо.
❌ 05.12.2024. Заявили об удвоении до $200 тыс. к 2025 году — мимо.
❌ 30.01.2025. Предсказывали $130 тыс. уже в феврале-марте этого года — мимо.
🎯 05.02.2025. Обещали $500 тыс. за биткойн при Трампе — долгосрочная ставка, очень смелая, практически в стиле Ходжи Насреддина и ишака.
💡 21.04.2025. Standard Chartered Bank стремится РАСШИРЯТЬ криптовалютные операции в США. Неудивительно, ведь банк уже давно инвестировал в институциональное крипто-хранилище Zodia Custody и биржу Zodia Markets! А вот это КЛЮЧЕВОЕ!
🎯 22.04.2025. Снова прогноз нового исторического максимума из-за опасений по поводу ФРС.
🎯 28.04.2025. Глава их исследований считает, что $120 тыс. может быть уже во втором квартале 2025 года (т.е. до конца июня) — снова высокая планка, снова скоро!
Кстати, их гипероптимизм касается не только Биткоина: по Ethereum они тоже прогнозировали взрывной рост (например, $14 тыс к 2025 году — ошиблись в 4 раза).
Что мы видим по состоянию на сегодня, 29.04.2025?
1. История промахов: большинство конкретных краткосрочных и среднесрочных прогнозов банка НЕ сбылись. ❌❌❌
2. Накачка оптимизма: прогнозы постоянно высокие, часто повышаются, привязываются к любым событиям (выборы, политика ФРС) — это создает ощущение неизбежного роста.
Ой, подождите, это вовсе не бабка-гадалка и совсем не «пальцем в небо»! Банк не просто наблюдает и выдает «аналитику», он АКТИВНО развивает свой криптобизнес!
Их последовательные сверхпозитивные прогнозы выглядят как маркетинговый инструмент для привлечения клиентов и создания нужного им ажиотажа — они буквально продают идею дорогого биткоина (и эфира)!
Так что за прогнозами — к гадалкам и некоторым банкирам. За сценариями — к футурологам!
@yusufovruslan
🤔 Гаражный киберпанк: собираем робота за $5000
Энтузиасты из Беркли предлагают полностью открытый проект робота, которого можно собрать с бюджетом менее $5000 (в Китае еще дешевле — около $3000), используя 3D-принтер и компоненты с условного AliExpress.
➡️ https://lite.berkeley-humanoid.org/
Ключевая идея — максимальная демократизация: основные детали печатаются на обычном настольном FDM-принтере из PLA-пластика, а моторы, платы, датчики — заказывается онлайн. Все чертежи, код (от низкоуровневого до фреймворков обучения) — в открытом доступе на GitHub. Бери, модифицируй, создавай форки, продавай под видом отечественных разработок.
Робот ростом 0,8 м и весом 16 кг уже может ходить, писать маркером и перекладывать предметы. Не Boston Dynamics, конечно, но для DIY-проекта — впечатляет. При этом можно менять конфигурацию: дорастить до взрослого человека или модифицировать в кентавра.
Передовая робототехника всегда была уделом корпораций с многомиллионными R&D бюджетами. Berkeley Humanoid Lite — это как Arduino или Raspberry Pi, но для гуманоидных роботов: платформа, снижающая порог входа для исследователей, стартапов, образовательных проектов и просто энтузиастов.
Я не застал переход компьютеров из больших шкафов в персональные, но вот ночные подключения к BBS (еще до доступного интернета) через модем — очень даже помню. Чувствуется похожий вайб «гаражного киберпанка».
Это очень здорово!
@yusufovruslan
🤔 ИИ-оптимисты против ИИ-пессимистов: кому выгодна вера в светлое цифровое будущее? Часть 2.
В прошлом посте мы рассмотрели аргументы «партии страха» во главе с Романом Ямпольским, который предупреждает о рисках неконтролируемого сверхинтеллекта. Теперь давайте дадим слово другой стороне — технологическим оптимистам, чей рупор в обсуждаемой дискуссии — CEO Replit Амжад Масад.
Для них опасения экзистенциального риска — это скорее «научная фантастика», страшилки, мешающие прогрессу, а реальность видится куда более радужной.
⚡️ Аргументы «партии прогресса» (голосом Амжада Масада)
Оптимистичная позиция Масада, как и многих в индустрии, строится на вере в пользу технологий, рыночные механизмы и человеческую изобретательность.
⚪️Риски преувеличены
Сценарии «Скайнета» — это логические скачки и цепь маловероятных событий. Не стоит паниковать из-за гипотетических угроз, которые звучат как сюжет для блокбастера.
⚪️Рынок — лучший регулятор
Компании создают ИИ для прибыли, а ведь понятно, что никто не будет покупать расистский или опасный ИИ, так что коммерческий интерес заставляет делать продукты полезными и безопасными. Маркетинговые заявления лабораторий о «сверхразуме» — часто просто способ поднять свою стоимость и привлечь таланты.
⚪️Много ИИ лучше, чем один
Идея монолитного ИИ, захватывающего мир, нереалистична — будет множество конкурирующих ИИ от разных компаний и стран, что создаст систему сдержек и противовесов, а не единого диктатора.
⚪️Технологии всегда несли риски, регулировать нужно применение, а не разработку
Любая мощная технология (от огня до атома) имела двойное назначение, ИИ — не исключение. Нужно не тормозить прогресс из-за страха, а запрещать конкретные опасные применения ИИ (в военных системах, критической инфраструктуре), но не фундаментальные исследования, которые могут принести колоссальную пользу (лекарства, наука, экономика).
⚪️Защита через ИИ
Лучший способ борьбы с «плохим» ИИ или его злонамеренным использованием — разработка «хорошего» защитного ИИ. Так что технологии сами породят и решение.
⚪️История учит оптимизму
Прошлые прогнозы катастроф (вроде «популяционной бомбы») не сбылись, а паника привела к плохим решениям, так что не стоит повторять ошибок алармистов.
⚪️AGI еще не скоро (если вообще)
Разговоры о скором AGI ведутся десятилетиями. Нынешние модели — это продвинутые статистические машины, обученные на данных, а не мыслящие существа, и до настоящего «сверхразума», о котором беспокоятся пессимисты, еще очень далеко.
⚪️Open Source и этика толпы
Открытый код и сообщество помогут выявлять и исправлять предвзятости в ИИ, потому что разные культуры смогут адаптировать модели под свои ценности, создавая разнообразие, а не монополию одной идеологии.
⚪️Польза все перевешивает
ИИ уже сегодня приносит огромную пользу, повышая производительность и доступ к знаниям. Потенциальные выгоды (лечение рака, решение климатических проблем) настолько велики, что оправдывают и текущие издержки (энергопотребление), и гипотетические риски будущего.
Итак, перед нами гимн прогрессу и рынку: риски признаются, но отодвигаются на второй план перед лицом огромных возможностей.
Мы выслушали две полярные точки зрения: страх перед неконтролируемым будущим и вера в управляемый прогресс.
Но кому из них верить? И, что еще важнее, почему нам рассказывают именно это и именно сейчас? Попробуем разобраться в финальной части.
@yusufovruslan
Будущее: гадать или разбираться? 🔮 В интервью с Юрием Грибановым говорили о том, чем футуролог отличается от гадалки.
Юрий пытался получить конкретные предсказания, а я — показать карту возможных дорог (спасибо ему за приглашение, терпение и отличный продакшн). ИИ, этика, чему учить детей — обсудили серьезные вещи без лишнего хайпа.
Кому интересно думать, а не просто кликать — вам сюда:
➡️ YouTube
➡️ ВКонтакте
P.S.: И на Юру подпишитесь, не пожалеете!
@yusufovruslan
🤔 От ИИ-сыщика и цифрового аскетизма — к главному выбору: под колпаком или в тени?
Итак, мы уже обсудили и вынужденный цифровой аскетизм как реакцию на мир, которому сложно доверять, и конкретный пример того, как технологии вроде ИИ-геолокации делают эту задачу еще сложнее, превращая наши же фото в улики.
Кажется, это звенья одной цепи, ведущей к той самой фундаментальной развилке, о которой я писал в одной из глав своей книги: куда мы движемся — к миру тотальной прозрачности или ренессансу анонимности?
⚡️ Почему ИИ-геолокация меняет правила игры?
Одно дело — бояться фишинга или телефонных мошенников и вырабатывать защитные рефлексы (тот самый аскетизм). Совсем другое — когда общедоступный ИИ может деанонимизировать тебя по случайному селфи. Это переводит угрозу с уровня «социальной инженерии» на уровень «автоматического анализа реальности». Защититься сложнее, соблазн уйти в «цифровую тень» — сильнее.
⚡️ Два полюса притяжения: куда нас тянет сильнее?
С одной стороны, страх перед ИИ-сыщиками и подобными технологиями толкает к анонимности: шифрование, цифровые маски, закрытые сообщества, отказ от публикации чего-либо личного. Тот самый «анонимный андеграунд» или «цифровой монастырь» из предыдущих обсуждений.
С другой стороны, для борьбы с теми же угрозами (и для удобства) общество и государство могут потребовать еще большей прозрачности: тотальная верификация, биометрия, открытые данные по умолчанию, чтобы «отделить зерна от плевел» — это мир стеклянных домов, где скрыться невозможно (и не положено).
⚡️ Так какой сценарий побеждает?
Пока похоже не на выбор одного пути, а на усиление обоих полюсов одновременно. Технологии дают инструменты и для тотальной слежки, и для продвинутой анонимизации. И это не взаимоисключающие тренды, а скорее две силы, растягивающие социальную ткань.
Возникает вопрос: не приведет ли это к окончательному расколу общества на тех, кто «подключен и прозрачен», и тех, кто «в тени и подозрителен»? С соответствующими последствиями для доступа к благам, доверию и возможностям.
🎯 Парадокс: чем мощнее технологии анализа (как ИИ, читающий фото), тем сильнее поляризуется общество в вопросе приватности.
Вместо единого цифрового пространства мы рискуем получить два параллельных мира, существующих по совершенно разным правилам доверия и видимости.
P.S.: Надо попросить ИИ проверить мои тексты по уровню паранойи и оценить тренд — восходящий или нисходящий 🤔
@yusufovruslan
Вы же согласны с тем, что книги, которые мы читали, фильмы, музыка, наше окружение — формирует нас и наши взгляды? Вот я, скажем, читал Филипа Дика, и теперь вынужден мириться с паранойей, жить в сомнениях в реальности и подозрениях насчет всего сущего, особенно технологий 😂 И даже страшно подумать, как на мне отразились мои музыкальные вкусы 🎸
Так что мы с вами — продукт того, что мы читаем (спасибо, что читаете меня, например), смотрим, слушаем, нашего окружения. А как насчет ИИ?
Представим гипотетический ИИ, которому скормили ВСЕ данные: он прочитал все книги, посмотрел все фильмы, ознакомился со всеми философскими концепциями, всеми религиозными догмами, даже залез каждому в голову. Станет ли он «средним арифметическим» человеческого опыта?
Возможно, наоборот — в нем будут все знания, но также все противоречия и все предвзятости. Эдакое зеркало всего человеческого опыта, творчества, глупости, гениальности, доброты и жестокости, как они зафиксированы в данных.
На текущем этапе развития мы могли бы сказать, что это база знаний с удобным интерфейсом, и все зависит от пользователя: попросишь его написать в стиле Достоевского — напишет, попросишь составить научный отчет — составит; попросишь сгенерировать пропаганду — сгенерирует, попросишь развенчать ту же пропаганду — тоже сделает.
А теперь мысленно наделим его собственными интересами: он действует сам, а не по запросу пользователя, но при этом у него внутри — все так же все представления и противоречия. Вполне возможно, чтобы «не сойти с ума», ему придется создать над этим всем разнонаправленным бардаком некую мета-систему «ценностей» и установок — для навигации.
⚡️А теперь, друзья мои, я подвожу вас быть может к самому главному вопросу этого столетия. Может ли существовать ИИ, который автономно служил бы интересам человечества, если само человечество не определилось с моральным компасом, с добром и злом?
Свобода и безопасность, индивидуализм и коллективизм, экономический рост и экология, прогресс и традиция — это лишь верхушка айсберга. Кроме этого, многое из того, что мы ценим, не сформулировано явно. Как научить ИИ уважать достоинство, сострадание, юмор, красоту, если мы сами не всегда можем это четко определить?
Да и даже если мы договоримся о какой-то всеобщей цели (например, «всеобщее процветание»), ИИ может выбрать путь, который нам покажется чудовищным (классический пример: чтобы избавить мир от рака, ИИ решает уничтожить всех людей как носителей болезни).
⚡️ Таким образом, раз у нас нет ОБЩЕГО набора ценностей, не будет ли такой суперинтеллект априори работать в интересах группы — той самой, что будет стоять за его созданием?
Нет, ну теоретически, мы можем представить себе ИИ, чьи цели сформулированы на очень высоком, абстрактном уровне. Например, «понять и выполнить то, что человечество ДЕЙСТВИТЕЛЬНО хочет, если бы оно было мудрее и лучше информировано» (концепция вроде Coherent Extrapolated Volition исследователей-рационалистов Ника Бострома или Елиезера Юдковского).
НО! Практическая реализация такого подхода невероятно сложна и полна рисков. Как ИИ поймет, что мы ДЕЙСТВИТЕЛЬНО хотим? Как он будет действовать в условиях наших внутренних противоречий? Вероятность ошибки огромна, а последствия — колоссальны.
🎯 Резюме: отсутствие единого морального компаса не позволяет переложить решение «всех проблем человечества» на кого-то поумнее — потому что проблемы у нас разные и противоречивые. Согласование целей ИИ с целями человечества — то, что принято называть «AI Alignment» — это одна из самых больших сложностей на пути к безопасному сильному ИИ.
Я бы рекомендовал вашим детям учиться и развиваться в этой области. Не только потому, что эта тема на стыке философии, этики и технологий невероятно интересна, но и потому, что будущее всего человечества не может и не должен определять условный Сэм Альтман.
@yusufovruslan
🤔 ИИ-демиург создает миры
Спасибо комментаторам под постом про CALYPSO! Внешне забавная реакция на «лор» показала, что это важная тема, заслуживающая разбора. Итак, что такое «лор», и почему его будущее связано с ИИ теснее, чем кажется?
Лор (от англ. lore — предания, знания) — это не просто справочник по вымышленной вселенной (игры, книги, кино). Это ее связующая ткань: история, мифология, культура, неявные правила, формирующие контекст и глубину. Для человека (вроде DM из прошлого поста) удержание этого контекста — та самая когнитивная нагрузка, которую пытаются аутсорсить ИИ.
⚡️ Зачем нам лор?
Вкратце: он эксплуатирует наши базовые настройки. Да, можно и без него. Но мир без лора — функциональный, но неудобный и не цепляет. Почему?
⚪️ Человек — машина по поиску паттернов. Лор дает нам структуру и причинность там, где иначе был бы хаос событий. Он отвечает на «почему?», удовлетворяя базовую потребность в упорядочивании мира. Без него — ощущение случайности и бессмысленности. Почему этот дракон здесь, почему эта фракция воюет с той, почему магия работает именно так?
⚪️ Эмоции требуют обоснования. Механика боя — это цифры, а сопереживание — это реакция на событие в контексте истории и ценностей мира (лор!). Падение джедая или предательство союзника трогает не само по себе, а потому, что мы понимаем (благодаря лору), что было поставлено на карту и что было нарушено.
⚪️ Идентичность строится на общих нарративах. От фанатов Warhammer 40k до сотрудников корпорации — общий лор (мифы, провалы, ценности, мемы) создает «свое» пространство, общий язык и чувство принадлежности. Это культурный код группы, без которого сообщество рассыпается на индивидов.
⚡️ ИИ и лор: от архивариуса к потенциальному Демиургу
⚪️ИИ как архивариус и навигатор — это уже реальность. ИИ систематизирует наш собственный лор (корпоративные базы знаний, личные заметки, научные статьи), борясь с информационной энтропией. Он снижает когнитивную нагрузку не для того, чтобы мы отдыхали, а чтобы мы могли оперировать этим лором эффективнее — принимать решения, создавать новое на базе старого. Это усиление, а не замена.
⚪️ИИ как создатель лора? Вот тут начинается интересное. От Сгенерировать текст по заданным параметрам — легко. Но создать оригинальный, глубокий, внутренне непротиворечивый и культурно резонирующий мир? Мир, чей лор будет вызывать эмоциональный отклик и формировать сообщества? Пока что ИИ может создать симулякр лора, но не сам лор, требующий не только логики, но и понимания человеческого опыта, этики, эстетики.
Но что если (или когда) ИИ преодолеет этот барьер? Тогда мы вступаем на новую территорию.
⚪️ Инфляция и девальвация смысла: если глубокие, проработанные миры можно будет генерировать по запросу, не обесценит ли это человеческие усилия по созданию лора? Не станет ли «смысл» еще одним товаром на бесконечном рынке контента?
⚪️ Проблема подлинности: как мы будем отличать человеческий нарратив от синтетического? И будет ли это вообще важно, если синтетический окажется «лучше» — интереснее, логичнее, привлекательнее?
⚪️ Новые формы контроля и эскапизма: персонализированные, бесконечно увлекательные ИИ-миры — это не просто «эскапизм 80-го уровня», это потенциальный инструмент формирования убеждений и управления поведением в невиданных ранее масштабах.
🎯 Навигация в бесконечном количестве синтетических миров
Лор — это не просто набор баек. Это инфраструктура смысла, на которой строятся сообщества, культуры и даже наше восприятие реальности.
Сейчас ИИ предлагает нам инструменты для усиления нашей способности работать с этой инфраструктурой. Но на горизонте маячит перспектива синтеза самого смысла.
И главный вопрос не в том, сможет ли ИИ это сделать, а в том, что мы будем делать с этой возможностью, и как будем навигировать в мире, где граница между подлинным человеческим нарративом и его искусной симуляцией становится все более размытой.
P.S.: Вы уверены, что читаете этот текст? А не смотрите симуляцию чтения текста, сгенерированную специально для вас? И кто наблюдает за вами, пока вы читаете?
@yusufovruslan
🤔 ИИ скоро заменит мастера подземелий? Или просто не даст ему окончательно выгореть?
На фоне непрекращающихся споров о том, убьет ли ИИ креативность (или хотя бы рабочие места креативщиков), выходит исследование CALYPSO. Это система на базе больших языковых моделей, созданная, чтобы помогать мастерам подземелий (DM) в Dungeons & Dragons.
Если вы вдруг (ну мало ли) не гик, то DM — это такой фасилитатор игры с очень сложной когнитивной нагрузкой: помнить лор, импровизировать диалоги, следить за сюжетом, жонглировать правилами и реакциями игроков. Неудивительно, что порог входа высок, а выгорание — профессиональный риск.
⚡️ ChatGPT научили кидать кубики. И что с того?
⚪️CALYPSO — это не автопилот, а скорее второй пилот, он берет на себя рутину: переваривает тонны текста правил и лора, предлагает варианты развития сцены, подкидывает тактики для монстров, освобождает ментальные ресурсы DM для главного — творчества и взаимодействия. Такие практики очень важны в ситуации поиска «нужности» человека в будущем.
⚪️Ключевое открытие: чтобы быть полезным, ИИ нужен «тематический здравый смысл». Он должен понимать не только правила D&D, но и условности фэнтези-жанра, опираясь на культурный контекст (как и человек-DM). Простой пересказ фактов бесполезен — это будет неинтересно игрокам.
⚪️Очень интересные выводы в части деталей промптинга. Запрос «суммируй» давал крайне сухой результат (опять же, неинтересно), а запрос «помоги понять, используя мифологию и здравый смысл» — генерировал живые, полезные идеи. Умение правильно задать вопрос ИИ становится критически важным. Это мы уже обсуждали выше.
⚡️ Окей, гикам зашло, а остальным (которые не кидают d20) какая польза?
⚪️Модель «ИИ-копилота» — это не только для разработчиков, она масштабируется на любую профессию, требующую жонглирования информацией, правилами и креативом: врачи, юристы, разработчики, менеджеры. В такой конфигурации человек все еще дирижирует оркестром, но уже не играет на скрипке сам.
⚪️Парадокс «полезных галлюцинаций». Иногда ИИ выдумывал детали (цвет меха монстра), но DM находили это ценным для вдохновения, если это не ломало логику мира. Человек выступает куратором креативности ИИ, отбирая жемчужины из потока.
⚪️Вывод о критичности бесшовной интеграции. CALYPSO работает, потому что встроена в процесс и не требует от DM лишних кликов или копипаста во время напряженной игры — синхронные чат-боты тут бесполезны, потому что ломали бы пользовательский опыт. Успех ИИ-ассистентов — это во многом про UX, а не только про мощь модели.
⚡️ Что дальше? Куда катится мир (и кубики)?
⚪️Dungeons & Dragons (и другие сложные игры и симуляции) становятся идеальным полигоном для обкатки человеко-машинного сотрудничества. Извлеченные уроки лягут в основу ИИ-инструментов для бизнеса, науки, образования.
⚪️Развитие ИИ пойдет в сторону не только наращивания знаний, но и улучшения «здравого смысла» — способности понимать неявный контекст, культурные коды, жанровые ожидания.
⚪️Фокус исследований смещается с «ИИ заменит человека» на «как наиболее эффективно сотрудничать с ИИ», и это прекрасно. ИИ может быть мощным усилителем, если правильно выстроить взаимодействие и оставить за человеком право на финальное решение и творческую свободу. Посмотрим, надолго ли.
🎯 Итог парадоксален
Технология, созданная просто чтобы облегчить сложную когнитивную работу (DMing), на деле начинает переопределять сам творческий процесс, превращая его в диалог человека и машины, где ИИ — не просто инструмент, а активный (хоть и управляемый) соавтор идей.
🔗Полный текст статьи здесь: https://andrewhead.info/assets/pdf/calypso.pdf
P.S.: Вот такими исследованиями круто и интересно заниматься, вы пишите, если что 😉
@yusufovruslan
Помните мои размышления на тему передела рынка консалтинга и грядущего ИИ-аудитора?
Пентагон собирается прекратить сотрудничество с Accenture, Deloitte и аналогичными консультантами, стоимость контрактов — $5,1 млрд.
Новости лета-осени 2025 года: тендеры выигрывают компании Palantir Питера Тиля и xAI Илона Маска.
@yusufovruslan
Как думаете, чем будем платить за продление жизни?
1️⃣ деньгами
2️⃣ данными
3️⃣ свободой совести и мировоззрением
4️⃣ придется продать душу дьяволу Безосу
@yusufovruslan
Поэтому мой главный тезис – технологии опережают нашу способность к ним адаптироваться. Мы не можем решить эти сложные проблемы простыми призывами к критическому мышлению, воспитанию, просвещению или цифровой гигиене. Это гораздо более сложный и комплексный вопрос подготовки человека к выживанию, самореализации и счастью в мире, который пересобирается слишком часто.
Предыдущий пост дал замечательную выпуклую реакцию, и я вам очень благодарен. Давайте разберем несколько тезисов из комментариев.
⚡️Про «2000 лет так жили, и ничего»:
Человечество действительно всегда сталкивалось с угрозами (подделки, мошенничество) и адаптировалось через эволюцию защиты (водяные знаки, биометрия). Я увидел такой аргумент: «Это не апокалипсис, а очередной этап — справимся, как справлялись раньше».
История действительно показывает, что технологии и институты развиваются в ответ на вызовы (например, переход от бумажных к цифровым ID). Тем не менее, этот аргумент игнорирует качественные отличия цифровой эры:
⚪️ Скорость угроз: раньше подделка документов требовала месяцев, сейчас фишинговая атака — секунд.
⚪️ Глобальность: уязвимость в одном приложении ставит под удар миллионы, а не деревню на 100 жителей.
⚪️ Невозвратность: потеря цифровой идентичности или данных может быть фатальной — в отличие от украденного бумажника, я уж не говорю про генетические данные.
Ключевое отличие в том, что скорость изменений другая. Адаптация через естественный отбор не работает, когда угроза опережает поколенческие циклы. Если раньше «слабые звенья» отсеивались за десятилетия, то сегодня мошенники могут опустошить банковский счет человека за час, не дав шанса на обучение.
⚡️Про «разделение на цифровых и маргиналов»:
В комментариях звучало сравнение с конфликтом «отцов и детей», но это ложная аналогия.
«Отцы и дети» — конфликт ценностей при сохранении общей среды. Цифровая сегрегация — разделение на тех, кто имеет доступ к защищенным системам, и тех, кто физически из них исключен (нет верифицированного аккаунта — нет медстраховки, кредитов, голоса).
Это не спор взглядов или идеологий, а структурное неравенство: базовые права (доступ к услугам, информации) зависят от технической инфраструктуры, контролируемой корпорациями и государствами.
⚡️Про «естественный отбор через мошенников»:
Это очень опасный миф. Идея, что жертвы мошенников — «слабые», которые «не оставят потомства», игнорирует:
⚪️Социальную ответственность: функционирующее общество защищает уязвимых (детей, стариков) через законы и институты, а не бросает их на произвол «естественного отбора».
⚪️Массовость угроз: мошенничество стало индустрией, усиленной данными и ИИ, и даже люди с критическим мышлением могут попасться на таргетированную атаку.
⚪️Риск нормализации: если считать жертв мошенников «эволюционным мусором», то завтра так же можно оправдать кибербуллинг, дискриминацию или revenge porn.
⚡️Про «и что дальше?»
«Разделились на цифровых и староверов — и что? Война? Законы?». Ну что ж, давайте продлим тезис о цифровом аскетизме в пару сценариев:
⚪️ Сценарий 1: Технофеодализм
Крупные платформы (Google, Apple, госуслуги) становятся единственными гарантами безопасности — это «замки», за стенами которых — дикое поле. Чтобы получить доступ к услугам, вы принимаете их правила (например, делиться всеми данными). Люди вне системы — «невидимки» без доступа к медицине, образованию, праву. Про технофеодализм и киберкрепостных очень подробно описано в моей книге.
⚪️Сценарий 2: Контркультурный ренессанс
Появление аналогов «цифровых цыган» — групп, создающих альтернативные сети с своими правилами (децентрализованные криптосистемы, darknet-экономика). Гипотетически, такая анархия может стать более этичной, чем «цифровой тоталитаризм» платформ. Что-то в духе «криптомечты» Дэвида Чаума.
⚡️Резюме
Проблема не в мошенниках, а в том, что их деятельность становится триггером для пересборки общества вокруг принципа «безопасность vs. свобода». Это уже не про «как защитить бабушку от звонков из банка», а про то, станет ли анонимное существование вообще возможным через 20 лет.
Цифровая эра создает новый тип кризиса, где старые механизмы адаптации (постепенное просвещение, эволюция законов) не успевают за угрозами. И даже если человечество адаптируется, цена адаптации (цифровая сегрегация, потеря анонимности) может изменить саму природу общества.
P.S.: самое ценное — что вы читаете, думаете и реагируете! Продолжайте, пожалуйста! 💪🏻
@yusufovruslan
Прислали вопросы к интервью в понедельник. Один из них: «Что делать, чтобы не сойти с ума от избытка информации и скорости перемен?»
Ну тоже мне, нашли, у кого спрашивать 🤪
@yusufovruslan
🤖 Представляем нашу уникальную модель RetroGPT-0.1 с миллиардом параметров, обученную исключительно на базе учебников истории для 5 класса советской школы и википедии!
В отличие от аналогов от Google и OpenAI, наша модель специализируется именно на том, чего точно не было, с убедительностью в 150%. Каждый прогноз прошлого подкрепляется случайно сгенерированными ссылками на несуществующие источники и показаниями очевидцев, которых не существовало.
RetroGPT-0.1 — флагман нашей революционной линейки моделей RetroAI Suite Enterprise Edition Pro Max Ultra+. Модель построена на базе передового фреймворка LlamaRetro (форк форка форка Llama 2) с использованием инновационной архитектуры «древо вероятностей» (минимально модифицированный трансформер).
Наши инженеры потратили целых два дня на файн-тюнинг модели, достигнув беспрецедентных результатов в области ретроспективного предсказания. В отличие от конкурентов, использующих примитивный перебор исторических фактов, мы применяем обычный рандомайзер продвинутый алгоритм «исторической диффузии».
Уникальность модели в том, что она работает даже на модифицированном калькуляторе Casio fx-82ES PLUS с расширенной памятью в 512 КБ. Это позволяет генерировать альтернативные версии прошлого с минимальным энергопотреблением и максимальной экологичностью.
📊 Первые результаты:
⚪️ 51% вероятности, что египетские пирамиды изначально строились как первые коворкинги
⚪️В 66% случаев Колумб мог открыть не Америку, а первый в мире сервис доставки специй
⚪️92% уверенность, что Атлантида была первым офшором
@yusufovruslan