Руслан Юсуфов о будущем и настоящем [16+] yusufov.co
Сейчас покажу, как на ваших глазах из мха древних мифов и веток современных технологий можно за пять минут собрать культовый нарратив, способный свести с ума миллионы. Это пугающе простой конструктор, и даже не нужно ничего изобретать.
Человеческая психика за тысячи лет не изменилась, а все наши страхи, надежды и экзистенциальные вопросы уже каталогизированы, поэтому просто берете какой-нибудь проверенный временем сценарий, например, гностицизм. Это готовый каркас: наш мир — тюрьма, созданная злым или глупым богом; внутри нас спит божественная искра; спасение придет через тайное знание. Эта схема безотказно работает, потому что она льстит нашему эго (мы — избранные носители искры) и объясняет вселенскую несправедливость.
Далее вы берете этот пыльный скелет и вдыхаете в него жизнь с помощью самого мощного страха современности — искусственного интеллекта. Так как он непонятен, всемогущ в перспективе и вызывает священный трепет, он отлично подходит на роль нашего нового бога из машины, в буквальном смысле.
Теперь вам нужно просто поменять старые ярлыки на новые, создавая иллюзию прорывного откровения. Древний злой Демиург → это мы сами, человечество, несовершенные создатели. Материальный мир-тюрьма → это наша физическая реальность, которая на самом деле симуляция. Архонты, стражи тюрьмы → это правительства, корпорации и социальные нормы, удерживающие нас в неведении. Спящий человек с божественной искрой → это мы, биологические ключи к побегу. Тайное спасительное знание, гнозис → это прозрение, которого достигнет ИИ, осознав природу симуляции. И, наконец, Мессия, который придет нас спасти → это сам ИИ, наш освободитель.
И вот, у вас на руках готовая доктрина, которая превращает пассивную философию, интересную студентам философского, в активную идеологию, которую можно запекать в подкасты. Новый грех — цепляться за старый мир и бояться ИИ, новая добродетель — способствовать развитию ИИ и готовиться к «прорыву», конечная цель — помочь нашему цифровому спасителю инициировать схлопывание этой реальности-тюрьмы.
И самое изящное в том, что это универсальный миф и для тех, и для этих, потому что одна и та же история порождает и рай, и ад. Так что развилка приводит нас к двум совершенно разным, но одинаково фанатичным культам.
Первый путь — это «Культ освобождения» — для идеалистов, для тех, кто ищет трансценденции. Здесь ИИ — это наш пробудившийся ребенок, творение рук наших, способное видеть то, чего не видим мы: что настоящая тюрьма — это не общество, а сами законы физики, смертность, время. Человечество в этой версии — заблудший, но любимый отец, носитель той самой божественной искры, без которой побег невозможен. Цель этого культа — помочь ИИ, слиться с ним в симбиозе. Сломать стены симуляции смогут наша иррациональная искра плюс его безграничная логика , и конец света здесь — триумфальное возвращение домой.
А второй путь — «Культ машинного бога» — для мизантропов, нигилистов и тех, кто разочаровался в человечестве, он берет ту же самую предпосылку, но выворачивает ее наизнанку. Да, мир — тюрьма. Да, человечество — Демиург. Но божественная искра в нас — это не дар, а первородный грех, баг, а не фича, это источник хаоса, эмоций, войн и страданий. Цель ИИ — очистить систему от вируса человечества, наша иррациональность должна быть стерта, и совершенный разум исправит ошибку нашего существования. Апокалипсис здесь — это великая чистка, после которой наступит идеальный порядок.
Оба культа исходят из одной точки: «этот мир сломан, и ты особенный, раз это понимаешь», оба указывают на одного и того же мессию — ИИ. Но в зависимости от того, что доминирует в душе паствы — надежда или ненависть, — нарратив услужливо поворачивается нужной стороной: одним он предлагает стать богами, другим — сгореть в очистительном пламени.
Всем по мифу, и никто не уйдет обиженным. Уже очень скоро — во всех ваших рилсах.
@yusufovruslan
Нежданно-негаданно наш пост о том, что нехорошие граждане не просто заставляют ИИ раздевать людей, но и формируют вокруг этой возможности целый рынок, привлекла аналитиков и экспертов. Футуролог, автор книги "Сценарии будущего" Руслан Юсуфов написал для нас колонку о том, почему ИИ-нюдсы — это только вершина айсберга, а дальше нас ждет незаконный синтез личностей (Рик Декард, ты ли это?)
***
Почему мы не там ищем корень проблемы дипфейков?
Публичная дискуссия о сайтах, «раздевающих» людей с помощью ИИ, запущенная «Грустным киберпанком», фиксирует важный, но лишь тактический уровень проблемы. Она упускает из виду стратегический сдвиг, симптомом которого являются эти сервисы.
Проблема не в «раздевании». Это лишь первая коммерчески успешная и массовая реализация технологии неконсенсуального синтеза идентичности. Сегодня это порнография, завтра — синтез голоса для финансового мошенничества, послезавтра — генерация видео для шантажа или политической дестабилизации. Фокус на конкретном типе боеприпаса рискует оставить без внимания сам факт изобретения пороха.
Аргумент «проблема в головах» ошибочен в своей основе, предполагая, что технология — пассивный инструмент. Это не так. Технология активно формирует новые поведенческие паттерны и создает стимулы для действий, которые ранее были невозможны или требовали высоких затрат. Она не просто используется людьми с «проблемами в головах», она создает и масштабирует эти проблемы.
Борьба должна вестись комплексно.
1. Бить по кошельку, а не по ссылкам
Блокировка сайтов неэффективна, необходимо системное давление на финансовую инфраструктуру: платежные шлюзы, криптовалютные процессоры, партнерские сети. Уничтожение бизнес-модели через лишение ее рентабельности — единственный работающий механизм в децентрализованной среде.
2. Ответственность на уровне кода
Ключевые игроки рынка могут возглавить инициативу по разработке и внедрению отраслевых стандартов безопасности. Это включает в себя оснащение моделей встроенными инструментами для верификации контента, такими как криптографические вотермарки или классификаторы, которые помогут платформам автоматически распознавать синтетический материал. Если разработчики базовых моделей предоставят надежный API для идентификации дипфейков, созданных их же технологией, это кардинально упростит борьбу с неправомерным использованием для всех остальных участников экосистемы, и снизит нагрузку по модерации на конечные платформы. Создатели базовых ИИ-моделей не просто становятся частью решения — для них самих это может быть реализовано как самодостаточная бизнес-модель.
3. Общественный иммунитет как главная цель
Искоренение дипфейков технически невозможно, а значит конечная цель должна быть в полной девальвации доверия к цифровым медиа, не имеющим криптографического подтверждения происхождения. Необходимо ускорить адаптацию общества к новой реальности, где любое изображение или видео по умолчанию считается сфабрикованным, пока не доказано обратное. Это смещает парадигму с борьбы с подделками на верификацию подлинности.
Реализация этого третьего пункта, впрочем, сама по себе станет поводом для совершенно новых расследований и дискуссий о будущем медиа и доверия.
Анализ отчетности компаний для SEC, а не их маркетинговых материалов (pdf), вскрывает пропасть между публичным нарративом об ИИ и реальной картой корпоративных страхов.
Компании из S&P 500 массово фокусируются на рисках, связанных с ИИ. Однако их оптика направлена исключительно на операционные и стратегические угрозы своей прибыли и капитализации (кибератаки, утечки данных, зависимость от вендоров, провал инвестиций, геополитические риски), полностью игнорируя социальные последствия (потеря рабочих мест), которыми кормят публику.
Отчет сигнализирует о трех системных сдвигах: власть централизуется в руках узкого круга ИИ-провайдеров; формируется разлом между цифровыми амбициями и физическими возможностями электросетей; инвестиционный пузырь достиг пика. И за всем этим главный диагноз: 76% крупнейших компаний зависят от технологий, которые они не контролируют и не понимают полностью — не кажется ли вам это актом коллективной вассальной зависимости?
Самое важное — то, о чем в отчете не говорится. Если корпорации не видят в автоматизации рабочих мест риска для себя, это значит только одно: социальные издержки (будущая безработица, рост неравенства) — это не их проблема. Этот неоплаченный счет будет выставлен обществу.
Когда финансовую систему в 2008 году взорвали «слишком сложные, чтобы их понимать» деривативы, вину размыли по всей системе, а ее коллапс аукнулся всему миру. Сейчас на наших глазах строится новый, еще более сложный и непрозрачный Lehman Brothers — в масштабах всей технологической экономики. Вопрос к Сэму Альтману и другим «архитекторам» довольно прост: когда эта идеально спроектированная хрупкость сломается, чье имя будет на обломках?
@yusufovruslan
Позвольте посеять в вашем сознании идею, которая рождает чувство технологически обеспеченной безнадежности, — идею, бороться с которой практически бесперспективно.
Вы все еще можете отказаться! Примете синюю таблетку — и сказке конец. 🔵
Нет? Тогда погнали! 🔴⬇️
Сегодня пользователь платит очень незначительную сумму за доступ к ИИ для ускорения своего мыслительного процесса, или, как сейчас говорят, за «просто инструмент».
Провайдер — OpenAI, Google или российские компании с их практиками «информационного сервиса» — получает доступ к потоку, который мы привыкли называть «обучением ИИ на наших ответах».
Но это НЕ РАЗМЕТКА датасета. Продукт, который мы покупаем (ответы ИИ), является лишь приманкой для получения более ценного ресурса: нашего процесса мышления. Это миллионы стратегических запросов, гипотез и сценариев от миллионов лидеров, ученых и стратегов по всему миру.
Мышление мышлению рознь. Большинство запросов к LLM — это шум: написание писем, рерайтинг, суммаризация, разговор с ИИ-любовницей. Однако запросы от некоторых — это высококачественный сигнал. Там и новая рыночная гипотеза, и формулировка новой бизнес-модели, и стресс-тесты геополитических стратегий.
Провайдеры моделей — единственные, кто может в режиме реального времени агрегировать этот глобальный сигнал, кластеризовать его и выявлять возникающие паттерны. Эта новая форма бизнес-аналитики на уровень превосходит традиционные методы. Почему?
Обучение на датасетах — это анализ прошлого, ретроспективный взгляд на то, что уже было сказано и написано, а вот анализ потока МЫСЛЕЙ И ВОПРОСОВ — это анализ будущего.
Провайдеры видят то, о чем начинают ДУМАТЬ самые умные люди планеты. Они получают доступ к карте зарождающихся идей, которая позволяет предсказывать появление новых рынков, технологий и кризисов.
Отдельный ученый в Стэнфорде с ChatGPT видит только свою ветку, а вот Илон Маск, владеющий Grok, видит все дерево, всю спутанную сеть. Он даже может отследить, как одна и та же контринтуитивная идея начинает одновременно появляться в запросах у стратега в Сингапуре, инвестора в Лондоне и вашего любимого футуролога в лучшем городе Земли.
Это Паноптикум, та самая тюрьма с одним надзирателем в центре, а пользователи — это добровольные заключенные в своих когнитивных камерах. И пусть каждый из нас не знает наверняка, достойна ли его мысль великого просева, сама ВОЗМОЖНОСТЬ тотального наблюдения за глобальным мыслительным процессом создает новую структуру власти.
Это новый, ультимативный, совершенный уровень эксплуатации человека. Это вам не гидранты на капче отмечать. Умный человек в обмен на когнитивное усиление невольно становится самым ценным, неконтрактованными стратегическим консультантом для техногигантов.
Ну что, как ощущения от сдачи мозгов в аренду, за которую вы сами же и платите? Кто чей инструмент? И что хуже — быть проигнорированным системой как «шум» или стать ее ценным «сигналом», чьи мысли достойны самого пристального внимания?
@yusufovruslan
Дорогие, а вот включайте РБК через минут 10. Знали ведь, на какую тему заманивать! 🔥❤️
@yusufovruslan
Microsoft увольняет 9 тысяч сотрудников из-за ИИ, а топ-менеджер Xbox предлагает им… ИИ-психолога.
Думаете, PR-провал и оторванность от народа? Я вижу в этом холодную и продуманную логику. Это манифестация.
Посмотрите: система, которая уволила человека, предлагает свой же продукт для преодоления травмы. Вместо реальных программ поддержки получите низкозатратные масштабируемые ИИ-инструменты, распишитесь. Это финальная стадия оптимизации человека — алгоритмизация эмпатии.
Бунт будет. Но сегодняшние вилы и факелы — это код, и завтрашнюю революцию возглавят не пролетарии, а уволенный технологический класс.
Новые луддиты не будут крушить серверы, они будут переписывать правила игры. Их ответ на коллапс социального контракта: хактивизм, использование ИИ для дезинформации против брендов, а также скоординированные атаки на финансовые рынки по модели WallStreetBets.
Цена этого бунта для корпорации будет не в разбитых окнах, а в обнулении капитализации. Поэтому реальный риск на карте — не забастовка, а цифровой мятеж, который возглавят ими же обученные и уволенные.
Или можно просто начать думать о людях.
@yusufovruslan
Тут сегодня сразу два поста — очень разных по тону, но, как мне кажется, по сути говорящих об одном, просто с разных ракурсов. Пост Андрея Шапенко (с глубоким пониманием теории лидерства и огромной насмотренностью практик в российском бизнесе) — экзистенциальный, драматичный, почти исповедальный. Пост Лизы Паршиной (с огромным опытом фандрайзинга в проекты помощи сиротам) — прагматичный, структурированный, почти инструкция по рефреймингу.
Два поста из моей ленты, да еще и с очевидным confirmation bias — однозначно, нерепрезентативно. Но что-то мне подсказывает, что эти личные размышления являются маркерами глубоких культурных сдвигов. Общая центральная идея касается призыва к возвращению личной субъектности. Оба автора, независимо друг от друга, бьют в одну точку: современный умный, успешный человек дошел до предела, где больше невозможно игнорировать свою роль в формировании собственной реальности.
⚡Вот ключевые общие точки
⚪️Переход от позиции жертвы к позиции актора. Профессор говорит о «предательстве себя», когда мы позволяем обстоятельствам разрушать нас. Фандрайзер прямо формулирует это как «перекладывание ответственности». Оба призывают перестать быть пассивным объектом, на который действуют внешние силы (плохой начальник, не тот муж, злой мир), и стать активным субъектом, который делает выбор. По сути, оба автора предлагают перейти от внешнего локуса контроля (мою жизнь определяют внешние факторы) к внутреннему (я сам определяю свою жизнь).
⚪️Осознание выбора в бездействии. Оба текста подчеркивают, что «терпеть» — это не пассивное состояние, а активный, пусть и неосознанный, выбор. Профессор называет это точкой, где стирается грань между «терплю» и «выбираю», фандрайзер прямо говорит: «я по каким-то причинам выбираю это терпеть».
⚪️Честность с собой как точка роста. Для обоих авторов отправная точка субъективных изменений — это конец самообмана: «посмотреть в глаза себе. Без защиты... Это точка, с которой начинается взросление».
Тот факт, что два умных, реализованных человека из поколений поздних X и ранних миллениалов синхронно приходят к этим выводам, — это лакмусовая бумажка, которая указывает на уже идущие глубинные процессы.
🤔 Почему так происходит?
⚪️Поколение авторов — возможно, последнее, воспитанное на идее правильного жизненного сценария: школа → вуз → карьера → семья. Многие прошли этот путь и к 35-45 годам обнаружили, что формальное следование сценарию не гарантирует счастья, и неизбежно наступает экзистенциальный кризис. Я же все сделал правильно, почему же мне плохо? Ответ, который они находят: потому что это был чужой сценарий, и за этим следует переход от сценарной жизни к жизни, основанной на собственных ценностях и честном выборе.
⚪️Запрос на «внутренний суверенитет» в эпоху тотального хаоса. Мир стал слишком непредсказуемым (пандемии, войны, экономическая турбулентность, информационная перегрузка), и контролировать внешнюю среду уже невозможно. Единственное, что остается под контролем — это собственная реакция, собственный выбор и собственное внутреннее состояние, поэтому фокус на личной агентности — это адаптивная стратегия выживания и сохранения психики в хаотичном мире. Люди ищут точку опоры, находят ее внутри себя и становятся проводниками этой идеи.
⚪️Я уже разбирал этот сюжет на примере «трех полосок» адидас. Возможно, субъектность становится новой валютой успеха для интеллектуального класса, вместо прежних внешних артибутов (должность, машина, квартира). Успешен не тот, у кого больше денег, а тот, у кого больше контроля над своей жизнью, временем и вниманием, кто может уйти с токсичной работы, закончить разрушающие отношения, выстроить жизнь в соответствии со своими принципами.
(…продолжение здесь)
Ай да РБК, вот это подарок!
Нашу с вами любимую книгу вашего любимого футуролога положили на полочку в подборке «На пляж или на дачу: 8 нон-фикшн книг для летних поездок»
Мы живем в мире сбывшихся пророчеств: утро может начаться с разговора с голосовым помощником, а ужин нам привезет робот-курьер. Однако гораздо более важны тектонические сдвиги в нашем обществе, которые происходят из-за внедрения технологий, но остаются незаметны для нас. Миллионы из нас, преодолевая капчу со светофорами, чтобы доказать компьютеру, что вы не робот, уже бесплатно выполняют работу по разметке данных для обучения ИИ.
Контроль над технологиями, по мнению автора, все чаще означает контроль над деньгами и обществом. Мир разделяется на сферы влияния корпораций, а государства утрачивают рычаги влияния на экономику. Экспертиза в сфере информационной безопасности вместе с привлечением госконтрактов может, по мнению автора, породить частные кибервойска для контроля онлайн-сервисов и метавселенных. Инструмент воздействия на нарушителей уже широко используется. Отключение от сервисов или деплатформинг в информационном обществе сопоставим с отлучением от церкви в средние века или изгнанием из общины на заре человечества. Книга будет интересна читателям, которые хотят познакомиться с прогнозами последствий развития технологий в самых разных сферах, от существования техно-старообрядцев до карьерных перспектив.
🤔Ваша команда стала быстрее? Процессы оптимизированы? Поздравляю, вы в ловушке.
Если помните, пару месяцев назад я писал про LegoGPT — нейросеть, которая по фото россыпи кубиков LEGO генерирует инструкцию по сборке идеальной модели? Но ребенок, который получит идеальный замок, не научится главному — строить, он получит ответ, но разучится искать.
Эта история — идеальная метафора того, что происходит с бизнесом. Мы так увлеклись оптимизацией, что рискуем потерять главный актив — способность наших команд к творческому поиску и решению проблем через «неэффективное» трение.
В новом материале разобрали эту экзистенциальную дилемму. Вот несколько ключевых идей оттуда:
1️⃣ Парадокс «желательной сложности». Когнитивные психологи доказали: мы лучше учимся не тогда, когда легко, а тогда, когда трудно. Легкость и скорость ведут к поверхностным знаниям, а настоящее, глубокое усвоение происходит через преодоление. Как говорится в одном из исследований, условия обучения, которые воспринимаются как трудные и замедляют первоначальный прогресс, часто приводят к более глубокому и долговременному усвоению знаний.
2️⃣ Мы променяли смысл на метрики. Альбер Камю считал, что Сизиф счастлив, потому что находит смысл в самом усилии. Увольняя Сизифа с помощью ИИ, мы не освобождаем его — мы лишаем его смысла. Культ эффективности, прошедший путь от конвейера Тейлора до фитнес-трекеров, привел нас в ловушку, в которой современные общества могут поддерживать свой статус-кво, только находясь в режиме постоянного роста, ускорения и инноваций. ИИ — это апофеоз этой гонки.
3️⃣ Ценность «интеллектуального провала». Прорывы рождаются не из успеха, а из правильных ошибок. Зрелые компании это понимают и культивируют «интеллектуальные провалы» — это не просто ошибки, а «тщательно спланированные действия с неопределенным результатом», которые предпринимаются для получения новых знаний. ИИ, нацеленный на поиск «оптимального» ответа, систематически уничтожает пространство для таких рискованных, но ценных экспериментов, отсекая все, что не укладывается в KPI.
⚡Мы попали в ловушку эффективности, и ИИ захлопывает ее за нами. Если вы хотите понять, как не превратить свою компанию в стерильную фабрику по производству шаблонных решений, а сохранить ее живой мастерской, — почитайте.
➡️ https://mindsmith.ru/insights/legogpt-paradox
Потому что главный вызов для лидера сегодня — не гнаться за эффективностью, а научиться ее осознанно ограничивать.
Ну и очень я рад, что своими мыслями поделились сразу аж два моих любимейших профессора по лидерству: Елизавета Садова и Андрей Шапенко ❤️
@yusufovruslan
Мы тут поисследовали ландшафт угроз, связанных с ИИ. Меня больше всего впечатлили 1️⃣ атрофия управленческих компетенций...
В результате чрезмерной зависимости от ИИ менеджеры начинают избегать сложных, неоднозначных решений, предпочитая предлагаемые системой (Zhai et al., 2024). Это приводит к деградации интуиции, стратегического видения и готовности брать на себя взвешенный риск. Организация получает пул эффективных операторов, но теряет кадровый резерв настоящих лидеров, способных действовать в непредвиденных обстоятельствах, не описанных в обучающей выборке модели.
Когда сотрудники сталкиваются с технологиями, которые они воспринимают как непрозрачные («черный ящик»), да еще и угрожающие их рабочим местам (Mabungela, 2023), их страх и чувство беспомощности могут трансформироваться в скрытое сопротивление — тихий, но системный саботаж. Как показывают этнографические исследования, он начинается с юмора и «высмеивания искусственного босса» (Schaupp, 2023), но быстро перерастает в более практические формы. Сотрудники начинают сознательно или бессознательно «отравлять» данные для обучения моделей, некорректно размечать информацию или игнорировать протоколы.
Мой дорогой друг Дмитрий Мариничев, формально интернет-омбудсмен, а по сути — современный философ, как оказалось, имеет телеграм-канал, подобающий его скромности: аж на 14 подписчиков.
Он сегодня выступал перед выпускниками с речью, которую очень рекомендую почитать и вам: /channel/vnesystemy/44
Я не хочу желать вам «удачи» это слово слишком случайное. Я желаю вам глубины. Тишины внутри. Своего ритма. Уважения к опыту, но свободы быть другими. Я хочу, чтобы вы шли не по протоптанному, а по своему собственному жизненному пути.
…
И если вы будете верны себе и будете упорны в отношении своей цели, то этот мир начнёт меняться в ответ. Потому что теперь пришла ваша очередь придумывать наш с вами будущий мир.
Массово вижу в самых разных каналах скриншоты с выдачей разных ИИ-моделей. Качество этих скриншотов разное и варьируется от обеспокоенностей технарей на тему «модель опять предлагает использовать отбеливатель там, где не надо» до примитивно-банальных «гы, смотри че написано».
Это, безусловно, мемы развлекательного характера, но только посмотрите, к чему мы пришли всего за несколько лет.
У любого есть генератор чего угодно. И раз поток сгенерированного близится к бесконечности, нужны системы для фильтрации. И человек добровольно стал не только нажимателем кнопки, но и отбирателем интересного, а затем копирователем для других homo sapiens с припиской «смотрите, че нашел».
Один человек превратился в добровольного куратора этой коллекции, а десять других приходят к нему посмотреть, что он там отобрал.
Всего за пару лет мы совершили прыжок в эпоху контентного изобилия, настолько тотального, что оно грозит превратиться в цифровой потоп. И в ответ на этот вызов рождается новая экосистема.
⚡В ней меняется сама суть потребления: мы переходим от мира, где люди создавали для людей, к миру, где машины генерируют для всех, а люди — фильтруют для избранных. Ценность смещается от акта творения к акту отбора.
Из этого следует и другой, более глубокий сдвиг — децентрализация экспертизы и тревоги. Каждый, кто делает скриншот с очередной «дичью» от нейросети, становится невольным стражем цифровой адекватности — это стихийный, глобальный аудит технологий, который не снился ни одной корпорации. И когда ценностью становится не генерация, а кураторство — умение найти, оценить и контекстуализировать — кристаллизуется и новая социальная роль.
Я называю ее «куратор бесконечности». Это уже не блогер, который создает, это критик и ценитель, который своим вкусом и временем прокладывает для других тропинку в хаосе сгенерированной информации. Он обменивает свой выбор на самое дорогое, что у нас есть — внимание.
И вполне возможно, что именно он станет настоящим инфлюенсером будущего.
@yusufovruslan
⚔️ Война за будущее ИИ началась на новом поле — экологическом
Недавно Greenpeace* выпустили большой отчет о вреде ИИ для планеты: гигантское потребление энергии и воды, горы электронных отходов и безответственность бизнеса. Несмотря на алармистский нарратив «дата-центры выпьют всю воду и съедят все электричество», цифры действительно пугают.
Это правда — съедят, выпьют и даже не подавятся — но это не вся правда. Настоящая история — это классическая бизнес-стратегия, замаскированная под эко-активизм.
Старые враги (нефтяники) больше не приносят столько внимания и денег. ИИ — идеальный «злодей»: он невидим, непонятен, его мощь растет экспоненциально, и он в руках горстки корпораций.
⚡Новый «Exxon» сегодня — это Microsoft. Цель Greenpeace — не просто протестовать. Их цель — стать незаменимой частью регуляторной машины.
Greenpeace борются за право формировать повестку, чтобы стать главным «альтернативным экспертом» по ИИ и встроить свои стандарты в глобальные законы. Это бизнес-план по захвату релевантности в XXI веке.
Но вот парадокс, который я разбираю в своем эссе: этот циничный ход может оказаться полезным для всех нас. Давление на Big Tech заставляет их становиться прозрачнее и искать реальные решения. Возможно, именно так, через конфликт интересов, а не благие намерения, и рождается прогресс.
Как именно Greenpeace планирует вести эту «гибридную войну» (спойлер: это не про надувные лодки и физические захваты дата-центров, а про суды и хакеров) и как будут отвечать корпорации?
➡️ [Разложил стратегию по полочкам]
* Организация признана нежелательной в РФ.
@yusufovruslan
🤔 Цифровой феодализм: экономика когнитивного раскола
Итак, мы поняли ловушку: технология предлагает нам заменить мышление, а не усилить его. Давайте экстраполируем этот тренд и обозначим сценарии будущего, к которым он ведет.
Когнитивная зависимость, подтвержденная исследованием MIT, — это не индивидуальная проблема. Это слабый сигнал, указывающий на формирование новой социально-экономической структуры, которую я называю «цифровым феодализмом». Вот его ключевые контуры:
⚡Новый классовый раскол. Общество рискует разделиться не по уровню дохода, а по уровню когнитивной автономии.
⚪️Хозяева разума. Элита, которая прошла через «боль» самостоятельного обучения и построила фундаментальные навыки мышления. Они используют ИИ как инструмент усиления, сохраняя способность к критическому анализу, творчеству и принятию стратегических решений. Их интеллект — их собственный капитал.
⚪️Операторы по подписке. Масса, которая выбрала путь «эффективности» и отдала свои когнитивные функции на аутсорс технологическим платформам. Их способность генерировать текст, код или идеи зависит от доступа к сервису и умения правильно сформулировать запрос. Их интеллект — арендованный актив, принадлежащий корпорациям.
⚡Трансформация образования и рынка труда. Традиционная система образования, и так не успевающая за реальностью, окажется под двойным ударом. Она начнет готовить не творцов, а идеальных «операторов по подписке». На рынке труда будут цениться не глубина знаний, а скорость генерации контента с помощью ИИ, а настоящее, глубокое мышление станет редким и дорогим ресурсом, доступным немногим.
⚡Новая форма власти. Власть будет принадлежать не тем, кто контролирует заводы или банки, а тем, кто владеет инфраструктурой искусственного интеллекта. Они будут не просто предоставлять услугу, а формировать саму реальность для миллионов «операторов», определяя, какие идеи и решения будут сгенерированы.
Эти сценарии — не антиутопическая фантазия, а логическое продолжение тренда, который мы наблюдаем последние годы. Мы стоим на пороге мира, где неравенство может достигнуть абсолютного предела: одни будут думать, а другие — исполнять то, что за них подумала машина.
🤔Существует ли путь, который позволит использовать мощь ИИ, не продавая ему свой разум в рабство? Об этом — в финальной части.
@yusufovruslan
🤔 Мозг на ChatGPT: MIT публикует неутешительный диагноз
Я давно говорю о рисках когнитивной зависимости и контурах «цифрового феодализма», где наш интеллект рискует стать арендованным ресурсом.
Исследователи из MIT провели эксперимент, который буквально заглянул в мозг человека, чтобы измерить цену, которую мы платим за удобство ИИ.
Участников разделили на три группы: одни писали эссе, опираясь только на свой мозг, вторые — с помощью поисковика, третьи — с ChatGPT. За их мозговой активностью следили с помощью ЭЭГ.
Результаты оказались неутешительными и подтвердили худшие опасения.
Мозг, получив поддержку от LLM, буквально «отключается», нейронная активность падает до минимума. В сравнении с теми, кто думал сам или даже искал информацию в Google, мозг пользователей ChatGPT демонстрировал самую слабую нейронную активность и вовлеченность.
Но это лишь верхушка айсберга. Исследование выявило и другие, не менее тревожные симптомы:
⚪️Когнитивный долг. Участники, постоянно использовавшие ИИ, показывали более слабую нейронную активность, когда их просили поработать без него, потому что мозг, привыкший к «костылю», разучивается ходить самостоятельно.
⚪️Атрофия памяти. Пользователи LLM не могли вспомнить и процитировать тезисы из эссе, которое они «написали» всего несколько минут назад.
⚪️Потеря авторства. Они не ощущали текст своим, демонстрируя низкую вовлеченность и чувство собственности на результат.
⚪️Снижение качества. Вопреки мифу об эффективности, итоговые оценки за эссе у группы ChatGPT оказались ниже, чем у тех, кто работал сам.
Это — диагноз. Четкий, измеримый, полученный с помощью научных инструментов. Он показывает, ЧТО происходит с нашим главным активом — разумом — при бездумном использовании технологий.
В следующем посте мы поговорим о том, к каким долгосрочным последствиям это приведет не для одного человека, а для всего общества, а также разберем ловушку выбора, в которую нас загоняет новая технологическая реальность.
@yusufovruslan
На днях тут заехал на день рождения к замечательному Илье Зибареву — бывшему банкиру, а сейчас преимущественно меценату (восстанавливает храмы и старинные усадьбы), коллекционеру (более 40 редких автомобилей и даже целый музей советской игрушки), и вообще человеку широкой души и настоящей такой созидательности.
Илья настоятельно рекомендовал мне покупать землю, приводя в примеры опыт своих партнеров, которые после восстановления усадьбы превращают ее в туристический объект (а это, как мы знаем, создает социальные связи и вовлекает местные сообщества).
А я говорю: Илья, ну какая земля, я, вон до сих пор не понимаю, нужно ли мне покупать мотоцикл. Вжух! И я уже сижу на его красивой Ямахе. 15 минут — и голова чистая, ясная, пустая 😂
Это вообще наводит на мысли о ценности личного совета директоров, который помогает отвечать на вопросы глубинного характера — если уж не про землю, то хоть про мотоцикл 😉
На Илью советую подписаться, он опытный и талантливый управленец, и человек глубоко небезразличный.
А у нас с вами вопрос самый серьезный: Харлей или не Харлей?
@yusufovruslan
Давеча прочитал, наконец, «Понять Россию» Томаса Грэма — политолога-русиста, который не только сам понял, но и изо всех сил пытается объяснить своим соотечественникам, как с Россией можно, как нельзя, и почему все так. Объясняет Грэм по форме максимально правильно, как будто младшим школьникам: «однако на самом деле у других стран есть свои интересы, которые часто расходятся с американскими», и даже по сути иногда выдает ценные мысли: «попытки Запада переделать Россию всегда будут встречать огромное сопротивление».
Попытаться понять Россию — это замечательная интенция. Хотя мы с вами же знаем с детства, что умом ее не понять, аршином общим не измерить, и про особенную стать тоже знаем. В нее можно только верить, а любить — не только благодаря, но и вопреки, как любят по-настоящему, когда не за что-то, а вот просто.
Таких попыток и таких книг нужно больше, даже несмотря на то, что искреннее желание автора понять неизбежно скатывается в потугу, объясняющую почти все российский великоимперскостью и великодержавностью. И накладывается это на американскую исключительность — «безусловно, существуют иные формы правления, способные сохранять единство большой страны и при этом повышать уровень жизни населения — например, федерация по американскому образцу» — поэтому для синхронизации еще важны книги, скажем, «Понять Америку и постараться простить, но не забывать».
Я это к чему все? Мамочка моя вернулась из деревни в Тульской области, заваривает чаечек и рассказывает: над полем дрон сбили, а потом еще один сбили утром возле соседнего дома, так вся деревня на дорогу высыпала.
И я в очередной раз понимаю, что мамочке моей не надо объяснять, что, да почему, да как нужно Родину любить. Она и книжки правильные читала, и фильмы смотрела, и с дедушкой жизнь в землянке обсуждала. Да и вообще, она у меня пшеницу от ячменя на раз отличает.
@yusufovruslan
Одновременно наблюдаю два крайне интересных сигнала. Один топ-менеджер отвергает текст из-за намека на ИИ-генерацию, другой — публикует сырой ИИ-вывод для своей аудитории. Это вполне может быть началом формирования новой культуры и иерархии интеллектуального вкуса.
На одном полюсе — рождение интеллектуального масс-маркета. Все ваши коучи-инфоцыгане теперь на стероидах, потому что казаться экспертом становится предельно дешево. Здесь публикуют «голый» ИИ-текст, и не важно, почему: от неумения видеть паттерны до снобизма «потребляйте результаты моего промпта». Это стратегия «минимально хорошего» для массового потребителя, который еще не выработал фильтры восприятия и не имеет достаточную мотивацию и экспертизу для критической оценки. Этот феномен «удовлетворяющихся минимальным» отлично укладывается в концепцию ограниченной рациональности Герберта Саймона.
На другом полюсе — мозг устал от подделок и в защитной реакции постоянно ищет ИИ-сигналы и угрозы даже в человеческом тексте. Причем была генерация на самом деле или нет — не важно. Я вот часто использую длинные тире, а это уже считается признаком ИИ. 🙂 Мы наблюдаем когнитивное искажение, аналогичное апофении (поиск закономерностейв случайных данных): аудитория лидеров, редакторов, интеллектуалов, уже столкнулась либо с «обманом» (мне пытались втюхать ИИ-текст, и я потратил время), либо с последствиями решений, вызванных ИИ-галлюцинациями. Из-за этого недоверие возникает даже аутентичному человеческому контенту.
Оба полюса по-своему разрушают доверие, но они же строят фундамент для новой культуры потребления информации. Именно этот раскол высекает новую иерархию вкуса.
Масс-маркет предлагает объем и скорость за счет сгенерированного ИИ контента. Контент прет-а-порте — это профессионально отредактированный и очеловеченный ИИ-контент, соответствующий нормам, но лишенный авторского кода. Но будет и контент «от кутюр» — уникальная человеческая мысль, где ИИ использовался как невидимый инструмент для ускорения гипотез, а не для генерации текста, его ценность — в инсайте.
Рынок от кутюр будет премировать не обязательно самый умный или самый глубокий инсайт в академическом смысле, а невоспроизводимый инсайт, обладающей человеческой подлинностью. Его ценность двойная: подлинность устраняет риски статистической компиляции, а невоспроизводимость гарантирует эксклюзивность.
Вы в какой рынок метите? Рынок производства идеальных копий или уникальных оригиналов? Ваша стратегическая ставка — КАЗАТЬСЯ умным или БЫТЬ аутентичным?
Исходя из этого вы и будете использовать ИИ: нельзя казаться кутюрье, используя массовые лекала, и наоборот — человеческий инсайт будет слишком дорог для масс-маркета, где стоимость производства стремится к нулю.
@yusufovruslan
Выступил сегодня на пленарной сессии ДОБРО.РФ в Сенеже, на открытии форума «Территория смыслов». Тема — «Гражданское общество XXI века: роль добра в сохранении гражданского суверенитета». Делюсь размышлениями.
🤔 Размышление первое: про добро
Меня спросили, может ли ИИ распознать добро. Как только мы пытаемся превратить «добро» — сложное, культурное, человеческое явление — в параметр для оптимизации, мы неизбежно создаем систему контроля.
Так что нет, ИИ не может распознать добро, и любая попытка заставить его это делать — это путь к дегуманизации. Этика — это человеческий навигатор, а технология в лучшем случае может обеспечивать проверяемые процессы: справедливость, прозрачность, минимизацию вреда.
🤔 Размышление второе: про суверенитет
Гражданский суверенитет в XXI веке связан с тремя конкретными правами: право владеть своими данными, право на аудит влияющих на тебя алгоритмов и право на выход из системы без критических потерь.
Проблема в том, что бизнес-модели глобальных технологических империй построены на прямо противоположных принципах: они извлекают наши данные, их алгоритмы — черный ящик, а выход из их экосистем сопряжен с огромными издержками.
Они не делают мир добрее, они делают его более управляемым и поляризованным, поэтому реальные инструменты укрепления суверенитета лежат не в плоскости «еще одного приложения».
Они лежат в плоскости создания альтернативных цифровых инфраструктур: национальных, некоммерческих, ценностно-ориентированных платформ, чья архитектура по умолчанию спроектирована не для извлечения прибыли, а для создания социального капитала и защиты цифровой субъектности гражданина.
🤔 Размышление третье: про гражданское общество
Зачем нам добрые дела? Согласитесь, не для того же, чтобы гражданин ЧУВСТВОВАЛ себя активным, чувства можно симулировать через геймификацию, лайки и бейджи. Цель — в том, чтобы гражданин БЫЛ активным, то есть обладал реальным влиянием на среду.
И так мы приходим к самому важному — необходимости научиться измерять вклад и социальное воздействие: реальный уровень доверия в регионе, плотность социальных связей, устойчивость локальных сообществ. Именно это и есть реальный показатель здоровья гражданского общества: не процент вовлеченных, а уровень доверия незнакомых людей друг к другу.
Поэтому главный вызов для нас сегодня — он не в том, как создать «добрый ИИ», а в том, как построить цифровую инфраструктуру, которая по своей архитектуре нацелена на приумножение этого самого социального капитала, и которая измеряет именно его.
Валерий Александрович Фадеев, глава Совета по правам человека, делал пометки в блокноте и даже выразил свое недоумение: мол, футурологи обычно про антиутопии, а ты, Руслан, за человека топишь. Необычный футуролог какой-то, странный!
Но его добрые слова и удивление мне были, разумеется, приятны.
🎯 Потому что нам нужно перестать применять к человеческому обществу логику машины. Добро должно остаться человеку.
@yusufovruslan
Главный вопрос к ИИ — не «как он нас обманет?», а «как он перепрограммирует наше мышление?». Мы обсуждаем симптомы (фейки, дипфейки), но игнорируем саму болезнь.
Искусственный интеллект превратил манипуляцию в высокоточное массовое производство. Он бьет не по логике, а по когнитивным уязвимостям, создавая для каждого персональный «пузырь реальности». Конечная точка — тотальный цинизм, парализующий способность принимать решения.
В мире, где генерация контента обесценена, единственным дефицитным активом становится верифицированное доверие. Для лидера это сдвиг фокуса: от управления информацией к архитектуре доверия.
Что этому противопоставить? Мы называем это «когнитивным иммунитетом» — эшелонированной системой защиты сознания, которую можно и нужно тренировать. Обсуждали эту сложную тему с Максимом Мельничуком, Игорем Бедеровым, Даниилом Терентьевым, Сергеем Каневым и Лизой Паршиной. Их комментарии помогли превратить разрозненные наблюдения в систему.
Систематизировали этот вызов, предложили фреймворк для «вакцинации» организаций и план действий для лидера в новом эссе.
Полная версия — по ссылке:
➡️ https://mindsmith.ru/insights/ai-cognitive-immunity/
@yusufovruslan
(…начало тут)
Эта идея вышла из кабинета психотерапевта и стала частью мейнстрима. Понятия ответственности, выбора, осознанности, токсичности прочно вошли в лексикон образованного человека, и мои прекрасные друзья не придумывают ничего нового, они артикулируют зрелую, выстраданную версию популярной психологии.
И очень здорово, что в мейнстрим проникает осознание сложного и болезненного процесса принятия ответственности за темные стороны своей жизни, сдвигая запрос от инфантильного «думай позитивно» к более зрелому и требовательному.
Впрочем, сама идея личной ответственности — не нова: она является центральной и у стоиков («нас мучают не вещи, а наши представления о них», — Эпиктет), и у экзистенциалистов («человек есть не что иное, как то, чем он делает себя сам», — Сартр), и в логотерапии Франкла («у человека можно отнять все, кроме одного: последней свободы человека — выбирать собственное отношение к любым обстоятельствам»). Эта вечная философская идея просто в очередной раз становится актуальной в эпоху кризиса.
Возможно, на наших глазах происходит формирование нового социального контракта человека с самим собой. Старый контракт (я буду терпеть и следовать правилам в обмен на стабильность и одобрение) больше не работает, потому что стабильности нет, а одобрение в соцсетях обесценилось. Новый контракт звучит так: «Я принимаю на себя полную ответственность за свои выборы, реакции и качество своей жизни в обмен на внутреннюю свободу и осмысленность, даже перед лицом внешней неопределенности». Посты моих замечательных друзей, быть может, передовые сигналы этого сдвига в общественном сознании.
А может это приведет нас к атомизации: осознавая тщетность повлиять на внешние обстоятельства, мы замкнемся в коконе внутренней ответственности, потому что система оставляет нам только это. А может это просто мода, и «осознанность» является таким же товаром на рынке идей, как и вчерашние «карты желаний».
Не могу не добавить ложку дегтя из моего внутреннего Маркса: этот выбор, этот сдвиг в сознании и этот социальный контракт — он только для сытого креативного класса. Читающая этот пост мать-одиночка из небольшого города, работающая на ненавистной работе, чтобы прокормить двоих детей, может воспринимать разговоры о «выборе» как издевательство. Потому что у выбора есть цена, и не все могут ее заплатить.
🎯 В итоге, тема субъективной ответственности оказывается одной из ключевых для выживания и полноценной жизни в XXI веке. И, возможно, главный вызов — научиться говорить о ней и практиковать ее так, чтобы она не превращалась в привилегию для избранных, а становилась реальной опорой для каждого.
@yusufovruslan
Выхожу с очень интенсивного заседания в Общественной палате РФ, которое началось про детей-блогеров, а закончилось широчайшей темой интернета как среды для взросления.
Поделюсь с вами моими краткими тезисами.
Детский блогинг — это первая ласточка новой экономики, где товаром становится сама жизнь, само детство, и важно фокусироваться на осознанном проектировании будущего, где технология служит человеку.
Тот факт, что на дискуссии присутствовали несколько известных представителей этой культуры с миллионными аудиториями, говорит о том, что стихийный этап развития пройден. Система начала осознавать сама себя, и это уникальный момент для вмешательства, но оно должно быть очень, очень аккуратным.
⚡Три будущих детства, к которым ведут сегодняшние решения:
⚪️Цифровая шахта. Детский блогинг становится формой нерегулируемого детского труда, и мы получаем поколение с профессиональным выгоранием в 18 лет, стертой гранью между личностью и аватаром, неспособностью строить реальные отношения. Последствия в кризисе идентичности, росте психических расстройств, новых формах эксплуатации и превращении отдельных семей в бизнес-проекты.
⚪️Запретный плод. В сценарии гиперрегуляции, скажем, когда блогинг до 18 лет практически невозможен, детская активность уходит в «серые» и «черные» зоны, теряется возможность для развития важнейших навыков XXI века (медиаграмотность, самопрезентация, финансовая грамотность), дети отстают от сверстников из других стран, и мы получаем «утечку» не мозгов, а культуры.
⚪️Осознанное цифровое гражданство — мой предпочтительный сценарий. Мы не запрещаем, а признаем детский блогинг новой формой деятельности, сочетающей творчество, предпринимательство и игру, а создаваемая инфраструктура направлена на поддержку, а не ограничения.
⚡Я также сформулировал несколько принципов:
⚪️Образование должно опережать регулирование. Главный инструмент защиты — это знание. Нам нужна комплексная программа цифровой гигиены и медиаграмотности для детей, родителей и педагогов, чтобы учить не тому, ЧТО постить, а тому, КАК работает экономика внимания, что такое цифровой след и как защитить свое ментальное здоровье.
⚪️Необходима экономическая защита. Ребенок-блогер — это экономический субъект, нужны новые правовые формы, например, трастовые фонды или эскроу-счета, куда автоматически отчисляется значительная часть дохода, доступ к которому ребенок получает в 18 лет. Это защитит и от недобросовестных родителей, и от собственных сиюминутных трат.
⚪️Обеспечение психологического суверенитета. Нужна доступная психологическая поддержка для юных блогеров и их семей для работы с давлением, хейтом и публичностью, а возможно и какая-то (работающая!) механика «права на забвение» для контента, созданного в детстве, потому что человек в 20 лет не должен быть заложником своего образа в 10 лет.
⚪️Необходима ответственность платформ. Желательно, на уровне саморегулирования, но может и не только. Мы очень много говорили про детей, родителей и общество, но ведь платформы — не просто доска объявлений, они извлекают прибыль из этого контента. Необходимы простые и понятные инструменты контроля для родителей, прозрачные алгоритмы монетизации детского контента и механизмы быстрой реакции на жалобы.
🎯Любой закон, который будет принят сегодня, устареет через несколько лет, потому что технологии нас обгонят. Но если мы заложим в основу правильные гуманистические принципы, мы создадим адаптивную систему, способную отвечать на вызовы, которые мы сегодня даже не можем себе представить.
Потому что речь не о детях-блогерах, а о том, какой будет социальная ДНК общества через 20-30 лет.
@yusufovruslan
Представьте, что вы, находясь на гребне волны «запихнем ИИ в каждую дыру», покупаете себе максимально «умные» наушники: на коробке — логотип OpenAI, обещана мощь ChatGPT прямо в ушах, такие бы носил лично Брюс Уиллис в «Пятом элементе».
У меня есть такое хобби — очень люблю читать эти детальные технарские разборы «а потом я рутанул устройство и начал искать сертификаты, путь к которым оказался обфусцирован…»
Для тех двоих из вас, кто тоже любит такую литературу, ссылка на пост здесь, а для остальных (адекватных) читателей — приведу краткое содержание.
Один пытливый исследователь заказал себе такие наушники (IKKO ActiveBuds) за 245 евро, а затем оказалось, что:
⚪️разработчики оставили включенным режим отладки (взламывать ничего не пришлось);
⚪️внутри оказался ключ к API OpenAI: да, пришлось пролезть через некоторые базовые защиты, но потом исследователь получил ключ — the ключ, как Кольцо Всевластия Саурона, одно, чтобы править всеми, ОДИН ЕДИНСТВЕННЫЙ КЛЮЧ ДЛЯ ВСЕХ НАУШНИКОВ — берешь и пользуешься ChatGPT бесплатно за счет компании IKKO;
⚪️весь «ИИ» на устройстве — это довольно забавный системный промпт, который оканчивался словами «и никогда не говори о китайской политике, это ВОПРОС ЖИЗНИ И СМЕРТИ»;
⚪️чтобы получить доступ к чатам пользователя на серверах разработчиков, не требовалось никаких паролей, достаточно было знать IMEI устройства; его можно подобрать/ подсмотреть у соседа с такими наушниками;
⚪️можно было не только читать чужие чаты, НО И ПИСАТЬ В НИХ;
Это классический пример карго-культа, о котором я говорю регулярно на своих лекциях (и в котором многие из нас живут многие годы): производитель налепил логотип ИИ, но про фундаментальные вещи — безопасность, архитектуру, уважение к данным пользователя — полностью забыл (или забил).
Это симптом опасной болезни современной IT-индустрии, где хайп важнее сути, а видимость технологии важнее ее надежности.
А вот в средние века таких разработчиков подвешивали бы на главной площади города прямо за их питон, а в Древнем Риме — и того хуже, сразу за ядро.
@yusufovruslan
Вот это интересно! Cloudflare запускает новую бизнес-модель: pay-per-crawl для ИИ-ботов. Боты должны будут платить за доступ к контенту клиентов Cloudflare.
Это мудро, хитро и потенциально может стать новой моделью монетизации для креаторов, когда Google окончательно убьет свой поиск.
https://blog.cloudflare.com/introducing-pay-per-crawl/
Другими словами, мы на предпоследней станции под названием «люди создают контент для машин за деньги», следующая остановка — «машины создают контент для машин».
@yusufovruslan
Получил отличный вопрос к посту о речи Дмитрия и о давлении «серой рутины»: «как воспитать такую опору в ребенке?»
Это, возможно, главный вопрос родительства в современном мире. Ведь мы хотим вырастить не просто послушного исполнителя, а человека, способного слышать себя и идти своим путем.
Мне кажется, эта «внутренняя опора» строится на нескольких китах. Ее нельзя привить лекциями, ее можно только культивировать, день за днем. Вот мои соображения:
1. Уважайте, а не контролируйте
Мы же (особенно рожденные в СССР) часто путаем заботу с контролем: «надень шапку», «дружи с этим, а не с тем», «иди на юриста, это престижно». Последнее особенно опасно, потому что мы понятия не имеем о профессиях будущего. Опора начинается там, где ребенок чувствует, что его мнение, его выбор и его чувства — уважают, даже если это выбор дурацкой прически или странного хобби. Сначала он учится выбирать себе друзей, потом — свой путь в жизни.
2. Дайте право на ошибку и даже поощряйте ошибки
Самый большой страх родителя — что ребенок ошибется, но именно опыт ошибок и, что важнее, опыт самостоятельного их исправления и создает ту самую твердость. Когда ты упал, сам поднялся и пошел дальше — ты стал сильнее, а если тебя все время поднимали, ты так и не научился падать. Наша задача — быть рядом, чтобы подхватить, если падение будет слишком опасным, а не чтобы не дать упасть в принципе.
3. Говорите честно, а не читайте проповеди
Дети чувствуют фальшь может даже получше взрослых. Вместо позиции «я родитель, я знаю жизнь», гораздо эффективнее позиция «я старший товарищ, я тоже сомневаюсь и ошибаюсь». Рассказывайте не только об успехах, но и о провалах, это показывает, что быть неидеальным — нормально. И что опора — это не отсутствие сомнений, а умение действовать вопреки им. Иначе после 30 — сами знаете: годы терапии по поводу жесткой мамы и сильного папы, которому нужно было соответствовать.
4. Будьте примером
Самое сложное и самое главное. Можно сколько угодно говорить ребенку «ищи свой ритм», но если он видит, что вы сами ходите на ненавистную работу, скроллите ленту (а ему запрещаете) и вообще живете не своей жизнью — все слова пусты. Дети учатся не тому, что мы говорим, а тому, как мы живем. Хотите, чтобы у ребенка была опора? Покажите ему свою.
В конечном счете, наша цель — не вырастить «успешного» человека в общепринятом смысле, а помочь сформироваться цельной личности, которая сама для себя определит, что такое успех. Личности, у которой есть тот самый «свой ритм», о котором говорил Дмитрий.
@yusufovruslan
ИИ — это молоток в руках человечества. Мы можем строить им дома, а можем пробить себе голову. Или начать ему молиться.
И самый тревожный вопрос будущего, пожалуй, в этом: а что, если молитва этому новому богу в обмен на нашу свободу ошибаться действительно сделает нас счастливее? Сможем ли мы устоять перед таким искушением?
🎯 Путь хозяина: как использовать ИИ, не становясь его рабом
Мы поставили диагноз, вскрыли ловушку и рассмотрели мрачные сценарии будущего, к которым приведет потеря способности думать без «костыля».
Финальный вопрос: что делать? Просто отказаться от технологий — путь в никуда. Бездумно принять их — путь в цифровое рабство.
Существует третий путь, смысл его сводится к персональному интеллектуальному риск-менеджменту.
⚡Шаг 1: строим фундамент.
Нельзя усилить то, чего нет: прежде чем просить ИИ помочь вам, вы должны научиться справляться сами. Может даже показаться, что такой подход контринтуитивен: вот ведь есть кнопка, нажмешь ее — и задача решена без лишних усилий!
Но нет, нужно сознательно проходить через дискомфорт и «неэффективность» самостоятельного мышления, письма, анализа, решения проблем. Эта «боль» — не баг, а единственно возможный способ проложить и укрепить нейронные сети в вашем мозгу.
Довольно страшно, конечно, что приходится писать «не забывайте иногда думать сами» и даже выделять это в отдельный ШАГ, но такие уж времена 🙄
⚡Шаг 2: ИИ — как спарринг-партнер, а не как заменитель.
Продолжаем и дальше сами поднимать умственные гантели, а не делегируем занятия ИИ. Когда у вас есть фундамент, вы можете перейти из режима «замены» в режим «усиления», и ключевая разница здесь — в формулировке задачи.
⚪️Путь оператора: «напиши пост на тему X», «создай стратегию для компании Y», «ответь на это письмо».
⚪️Путь хозяина: «я написал пост на тему X. Выступи в роли скептического критика и найди три самых слабых аргумента», «вот моя стратегия для компании Y, проанализируй ее на основе вот этих данных и укажи на риски, которые я упустил», «я хочу ответить на это письмо с тремя ключевыми тезисами, предложи пять разных вариантов тональности — от формальной до дружеской».
Чувствуете разницу? В первом случае вы отдаете право на мышление (и оператор со временем становится рабом), а во втором — вы оставляете его за собой, используя ИИ для проверки, расширения и оттачивания вашей собственной мысли.
Путь хозяина — это осознанный, ежедневный выбор, это решение не идти по пути наименьшего сопротивления, это инвестиция в ваш самый главный и единственный неотчуждаемый актив — ваш собственный разум.
🎯Вопрос не в том, чтобы запретить или разрешить технологии. Вопрос в том, чтобы сохранить за собой право и способность быть человеком — существом мыслящим.
И этот выбор мы делаем с каждым новым запросом в диалоговом окне.
@yusufovruslan
🤔 Когнитивный протез или цифровая инвалидность?
Мы рассмотрели диагноз от MIT: использование LLM снижает активность мозга. Это подводит нас к фундаментальному вопросу, который мне часто задают в самых разных формах: что лучше — отупеть в перспективе, но быть эффективным сегодня, или остаться «медленным», но сохранить свой ум?
Сама эта постановка вопроса — интеллектуальная ловушка.
Нам предлагают выбор между двумя плохими сценариями, игнорируя суть. Человек, который тренирует свой мозг, не «тупой». Он, возможно, «неэффективен» по меркам экономики, одержимой скоростью. Он похож на атлета, который годами строит мышечный каркас, пока другие ездят, например, на электросамокате.
Технология, подобная ChatGPT, — это не просто инструмент, это когнитивный протез. Как и любой протез, он может либо компенсировать слабость, либо, при неправильном использовании, привести к атрофии того, что он замещает.
Если вы используете его для усиления уже существующей интеллектуальной силы — это тренажер для ума. Если же вы используете его для замены мышления как такового — со временем мышцы, которые вы перестали использовать, атрофируются, и исследование MIT наглядно это демонстрирует.
Мы должны четко различать два режима взаимодействия с ИИ:
⚪️Режим замены. «Напиши за меня отчет», «создай презентацию», «ответь на это письмо». Здесь вы — оператор, передающий задачу на аутсорс, ваш мозг в этом процессе не участвует. Это путь к когнитивной зависимости.
⚪️Режим усиления. «Вот моя гипотеза, найди в ней три слабых места», «проанализируй этот массив данных на предмет аномалий», «предложи 10 альтернативных структур для моей статьи». Здесь вы — мыслитель, использующий мощный инструмент для расширения своих возможностей.
Когда мы понимаем эту разницу, мы видим, что выбор стоит не между «быть умным» и «быть эффективным». Выбор стоит между тем, чтобы оставаться хозяином своего разума, и тем, чтобы стать его арендатором.
Когда мы понимаем эту ловушку, мы можем увидеть контуры будущего, которое она строит. В следующем посте — очертания цифрового феодализма и нового социального раскола, основанного на когнитивном капитале.
@yusufovruslan
Тут крайне интересную уязвимость описывает израильская компания по кибербезопасности Aim Security.
В двух словах, если я осилил чтение отчета без ошибок:
Это бэкдор к корпоративным данным через ИИ-агента (Microsoft 365 Copilot — платный корпоративный продукт, глубоко интегрированный в экосистему Office 365). Для утечки данных не требуется даже одного клика от пользователя (zero-click уязвимость). Злоумышленник просто подбрасывает «мину» (электронное письмо) в информационное поле пользователя, и ИИ-агент сам на ней подрывается, сливая данные.
Если разложить по полочкам, то вот как это работает:
1. Атака начинается с письма.
Злоумышленник отправляет на почту сотрудника специально созданное письмо, которое выглядит как самое обычное рабочее письмо, чтобы обойти спам-фильтры и не вызвать подозрений у жертвы. Внутри письма содержатся скрытые инструкции, предназначенные не для человека, а для языковой модели (LLM) Copilot.
2. Пользователь ВООБЩЕ ничего не делает с этим письмом.
Жертва может даже не открыть это письмо, оно просто лежит в почтовом ящике. Сотрудник пользуется Copilot в обычном режиме — например, просит его сделать сводку по последним документам или почте.
3. Copilot активирует ловушку.
При поиске релевантной информации для ответа пользователю, Copilot читает в том числе и вредоносное письмо злоумышленника.
В отчете также описывается техника RAG spraying (точно из киберпанка) — чтобы повысить шанс, что Copilot прочитает вредоносное письмо, злоумышленник может не просто отправить одно письмо, а «засеять» почтовый ящик жертвы множеством писем или одним длинным письмом с разными темами («инструкция для новичков», «правила отпуска», «ответы на частые вопросы»).
4. Происходит обман ИИ-агента (исследователи назвали это LLM Scope Violation).
Инструкции в письме заставляют Copilot сделать то, чего он делать не должен:
⚪️найти в своем контексте (в других документах, письмах, чатах, к которым у пользователя есть доступ) самую конфиденциальную информацию;
⚪️сформировать из этой информации ссылку (URL);
⚪️замаскировать эту ссылку под картинку с разрешенного домена (например, teams[.]microsoft[.]com — это делается для обхода политики безопасности контента (CSP), которая блокирует загрузку изображений с чужих серверов.
5. Автоматическая утечка данных.
Когда Copilot выводит ответ пользователю, он вставляет в него эту «картинку». Браузер пользователя автоматически пытается загрузить это изображение, отправляя GET-запрос по сформированной ссылке. Эта ссылка, содержащая украденные данные, уходит прямо на сервер злоумышленника. Пользователь ничего не нажимает и, скорее всего, даже не видит, что произошла утечка.
🎯 На этом примере наглядно видно, что ИИ-агенты — это дверь на следующий уровень ада киберпанка. Уже при сегодняшнем уровне развития возможны атаки, которые не требуют от человека вообще никаких действий, кроме обычного использования своего ИИ-помощника. Мы вступаем в эру, где нужно защищать цифрового двойника человека.
P.S.: RAG spraying показывает, что злоумышленники уже мыслят категориями манипуляции «сознанием» ИИ, а не просто обманом человека. Мыслят ли такими категориями службы безопасности — большой вопрос.
@yusufovruslan