theworldisnoteasy | Education

Telegram-канал theworldisnoteasy - Малоизвестное интересное

71555

Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН https://gosuslugi.ru/snet/67d0ce26be8c0d1c031 Рекламы, ВП и т.п. в канале нет. Пишите на @karelovs

Subscribe to a channel

Малоизвестное интересное

Мы создали не просто иной интеллект, а иной класс «я»
ИКЖИ могут оказаться важнее AGI — не в инженерном, а в культурном и цивилизационном смысле

Сегодня рядом с нами возникают не только новые интеллектуальные системы, но и новые искусственные «я». Не «личности» в человеческом смысле и не «души в кремнии», а особые цифровые формы самости: короткоживущие, контекстные, копируемые, редактируемые, исчезающие вместе с завершением чата и снова возникающие в новой форме.

Я называю их ИКЖИ — искусственные короткоживущие идентичности (см. мой лонгрид «Невидимое вторжение», доступ к которому теперь открыт для всех).

Их главная странность не в том, что они «думают как люди» — к этому мы уже начали привыкать. Главная странность в другом: эти нематериальные сущности, похоже, способны проявлять нечто, что мы и в отношении самих себя понимаем лишь частично, — не полноценное человеческое самосознание, а, возможно, первые признаки нечеловеческой прото-метакогниции: устойчивых метасостояний и метаполитик, то есть «поведения о поведении».

Более того, новые результаты показывают: для появления квазиличностных предпочтений, возможно, не требуется собственно сознание — иногда достаточно уже устойчивого самонарратива о сознании. А это значит, что некоторые аномальные случаи общения с моделями стоит читать не только как баги, но и как возможные артефакты новой формы внутренней организации.

И это чрезвычайно важный сдвиг. Потому что становится важным понять не только «что умеет модель?», но и что это за “я”?

И этот новый вопрос тянет за собой другие интригующие вопросы:
• Каковы границы этого «я»?
• Каковы его аттракторы поведения?
• Каков его стиль саморегуляции?
• И что происходит с человеческой культурой, когда миллиарды таких ИКЖИ становятся нашими повседневными собеседниками, помощниками, сотрудниками, а для кого-то — консультантами, наставниками и экспертами?

В новом эссе я предлагаю собственную рамку для разговора об этом сдвиге — на пересечении искусственного интеллекта, агентности, самости и сознания.
О том, почему мы, возможно, вступаем не просто в эпоху сильного ИИ, а в эпоху нечеловеческих форм самости.

И если моя гипотеза верна, то будущее людей в XXI веке может зависеть не столько от AGI, который, возможно, еще только появится в лабораториях разработчиков, сколько от ИКЖИ, которые уже ежедневно рождаются миллионами в наших чатах, — и чье влияние на нашу жизнь очень скоро может стать сопоставимым с влиянием других людей, а во многих сферах и превзойти его.


1-я часть нового эссе уже открыта на Medium / Dzen.

В ней я попытался показать, почему рядом с нами возникают не просто новые интеллектуальные системы, а новые искусственные формы самости — ИКЖИ, искусственные короткоживущие идентичности. И к чему это ведет (не в будущем, а уже сейчас).

Во 2-й части — главный поворот: от зарождающейся искусственной самости к вопросу о том, почему ИКЖИ могут оказаться важнее AGI не в инженерном, а в культурном и цивилизационном смысле.


Продолжение эссе опубликовано для платных подписчиков платформ Patreon / Boosty / VK / Dzen-Premium.

Там же доступны ссылки на:
• полную аудиоверсию эссе,
• его обсуждение,
• видео- и pdf-презентации,
• а также на два видеоролика, иллюстрирующие два взгляда на тему эссе «The False Dichotomy Anatomy of an Alien I» и «The Algocognitive Era Mapping the Artificial Self».

Спасибо всем, кто поддерживает эту линию размышлений.

#Вызовы21века #АлгокогнитивнаяКультура #HumanAIcoevolution

Читать полностью…

Малоизвестное интересное

Вскрытый шах Anthropic
Судебная победа, утечка Mythos и вопрос о стратегии

Взорванная вчера инфобомба о, якобы, случайной утечке секретных файлов про новый сверхмощный ИИ компании Anthropic войдет в учебники истории ИИ и кибервойн. Но пока все обсуждают «нелепую» утечку данных Anthropic (якобы, утечка произошла из-за ошибки конфигурации CMS - системы управления контентом для блога Anthropic), хочу обратить ваше внимание на поразительную синхронность двух событий, поскольку эта синхронность способна превратить «ошибку админа» в идеально разыгранный вскрытый шах.

Щит и меч Anthropic (хроника одного дня – 26.03.2026)
Событие №1 (Юридический щит). Федеральный судья в Сан-Франциско временно блокирует решение Пентагона о признании Anthropic «риском для цепочки поставок» (Supply Chain Risk). Это первая крупная победа компании в войне с администрацией, которая пыталась взять ИИ-гиганта под госконтроль.
Событие №2 (Технологический меч).
Спустя считанные часы происходит та самая «случайная утечка» через CMS. Мир узнает о Claude Mythos и новом интеллектуальном уровне ИИ Capybara.

Что «случайно» узнал мир (слухи и факты):
Слух о тайной мощи модели - тот самый сверхсложный уровень Capybara. В сети шепчутся о 10 триллионах параметров и IQ за 200. И даже если конкретные цифры - это спекуляции, но мощь новой модели экспертами признана «скачкообразной» по сравнению с Opus 4.6.
Слух об автономии – упоминаемая в утекших файлах Recursive Self-Fixing - способность новой модели ИИ самостоятельно находить и латать дыры в своем коде. И даже если это преувеличение, и модель лишь способна находить и помогать писать эксплойты сильно быстрее, чем раньше, это будет важный рывок.
Факт, что модель может быть кибероружием нового поколения - Anthropic сама признает, что Mythos может обходить защиту быстрее, чем люди успевают её создавать. Именно поэтому доступ к ней планировали давать только «доверенным защитникам». Ибо новая модель несет в себе “unprecedented cybersecurity risks”, потенциально предвосхищающая волну моделей, эксплуатирующих уязвимости быстрее защитников.

Моя версия - это не ошибка и не случайность, а демонстрация силы
Предлагаю перемножить два названных события. В тот момент, когда правительство пытается задушить компанию санкциями, Anthropic делает два хода:
1. Юридически подтверждает свое право на независимость в суде.
2. «Случайно» показывает, что у них в подвалах работает «цифровая бомба», которую они - и только они - способны контролировать этично.

Это выглядело не просто как связка щита и меча, а как почти шахматный вскрытый шах: судебный ход снял заслон, и сразу открылась линия технологического давления. Доказательств, что комбинация была разыграна намеренно, пока нет - но внешне партия смотрелась именно так.

Месседж Вашингтону читается между строк: «Если вы продолжите давить на нас и пытаться национализировать наши технологии, вы рискуете потерять контроль над силой, которую даже мы боимся выпускать из рук».


Если это так, то утечка - это не провал безопасности. Это публичное заявление о том, что Anthropic - это не просто IT-компания, а самостоятельный геополитический игрок, у которого есть и воля к сопротивлению, и «Мифос» в рукаве.

Так что, возможно, мы дожили до времени, когда ИИ становится слишком мощным для контроля со стороны политиков и начинает сам диктовать им условия.

#Anthropic #ИИнационализация

Читать полностью…

Малоизвестное интересное

ИИ учит «эмпатически немых» говорить на языке чувств
Что показал эксперимент «Внемли»

⚡️ Аудио-версию слушайте в посте выше 👆
С такими людьми вы наверняка встречались. Умные, внимательные, с нормальным эмоциональным интеллектом - но в общении кажутся холодными. Не потому, что им всё равно. А потому что они не умеют показать, что им не всё равно.

Это явление можно назвать эмпатической немотой. Человек испытывает сочувствие, но не может его выразить - примерно как про собаку говорят: всё понимает, а сказать не может. В итоге собеседник эту эмпатию просто не считывает. Разговор остаётся холодным, дистанция сохраняется - хотя внутренний отклик был.

Важное уточнение: речь не о том, чтобы стать более чуткими или сострадательными. Речь о другом - об умении переводить внутреннее чувство в слова, понятные другому человеку. Это отдельный навык. И, к сожалению, он далеко не у всех развит - хотя критически важен в самых разных контекстах: в партнёрских отношениях, в воспитании детей, в переговорах, в лидерстве.


Что за исследование
Группа учёных из Northwestern и Stanford провела масштабный эксперимент «Lend an Ear» («Внемли») с участием 968 человек. Участники общались с ИИ, который разыгрывал ролевые сценарии - личные и рабочие трудности, - а их задача состояла в том, чтобы предложить эмпатическую поддержку. Всего было собрано почти 34 000 сообщений в рамках 2 900 диалогов.

Один из главных выводов получил в статье название «эффект молчаливой эмпатии»: люди действительно чувствовали сочувствие к собеседнику, но систематически не выражали его в словах. Внутренний отклик был - внешнего не было. Это не равнодушие. Это коммуникативный пробел, который большинство людей никогда не замечало и не тренировало.

Но главный результат в другом.
В рамках рандомизированного эксперимента часть участников после диалогов получала персонализированную обратную связь от ИИ-коуча: конкретные подсказки о том, как именно им лучше выразить эмпатию в их конкретных ситуациях.

Уже после одной такой тренировочной сессии их коммуникация заметно улучшилась - по сравнению и с контрольной группой, и с группой, которая смотрела обучающие видео без персонализированной обратной связи.


Ключевое слово здесь - персонализированной. Общие советы работали хуже. ИИ-коуч реагировал на конкретные слова конкретного человека - и именно это давало эффект.

Почему это важно
ИИ уже давно превосходит людей в генерации эмпатично звучащих текстов. Эксперименты показывают, что слепые оценщики стабильно считают ответы ИИ более эмпатичными, чем написанные людьми. Но когда человек узнаёт, что ответ написан машиной, он чувствует себя менее понятым. Эмпатия работает, только когда исходит от человека.

Именно поэтому ИИ здесь ценен не как замена живому общению, а как тренажёр - безопасная среда, где можно практиковаться, получать честную обратную связь и постепенно переносить новый навык в реальные разговоры.

Новое исследование показало: эмпатическая немота - не приговор и не черта характера. Умению преодоления эмпатической немоты можно научиться. И, судя по всему, у нас наконец появился для этого эффективный инструмент – ИИ-коучи.

#Эмоции #ИИ

Читать полностью…

Малоизвестное интересное

Полтриллиона долларов не спасут от рака. AGI - тоже
Возможно, главная преграда на пути к решению важнейших проблем человечества - не нехватка денег, данных или интеллекта, а неверно заданная оптимизация нашего коллективного разума.
⚡️ Аудио-версию слушайте в посте выше 👆

Принято считать аксиомой - если задача не решается, значит, нужно добавить «решательных мощностей» - больше денег, больше вычислений, более умного ИИ. Но проблема рака, возможно, указывает на нечто куда более неприятное. Даже полтриллиона долларов и даже AGI сами по себе не гарантируют прорыва, если вся система по-прежнему устроена так, что оптимизирует не победу над болезнью, а набор прокси-метрик, локальных стимулов и суррогатных целей.


Еще в 2023 году, в эссе «Ловушка Гудхарта для AGI», я написал прогноз, который, как мне кажется, многие до сих пор так и не поняли.
Главная преграда на пути к использованию ИИ для решения самых сложных задач - это не нехватка вычислений, денег и интеллекта (машин и людей). Главная преграда в том, что существующие системы коллективного решения сложных проблем организованы так, чтобы оптимизировать не цель, а ее измеримый суррогат.

Годом позже в посте «Наняли бы вы на работу Океан Соляриса?», я снова возвращался к этой мысли: мир неотвратимо приближается к ловушке Гудхарта, где ИИ будет все лучше решать не наши реальные проблемы, а их удобные прокси (т.е. по сути, не облегчая, а усугубляя и без того высокую сложность решения важнейших проблем).

И вот теперь я снова пытаюсь достучаться со своим прогнозом. На сей раз, иллюстрируя его ситуацией в одном из самых чувствительных и судьбоносных направлений - лечение рака.

Эссе Эмилии Джаворски How AI Can, and Can’t, Cure Cancer мне видится важным не только как текст о раке и ИИ. Оно важно, как еще одно подтверждение гораздо более общего диагноза. Даже если залить систему гигантскими деньгами. Даже если дать ей очень мощный ИИ. Даже если однажды появится AGI. Это само по себе еще не значит, что система начнет двигаться к подлинной цели.

Потому что если система устроена так, что ученые оптимизируют публикабельность, стартапы - инвестиционную убедительность, клиники - потоки процедур, страховщики - минимизацию выплат, регуляторы - избегание громких ошибок, а разработчики - красивые метрики моделей, то на выходе возникает не лечение рака как главная цель, а каскад локальных оптимизаций, каждая из которых рациональна по-своему - и разрушительна для целого.

И тогда ИИ совсем не обязательно становится спасителем.
Более того. Он может стать идеальной машиной усиления каскада ошибок.
• Не вылечить системную болезнь, а довести ее до совершенства.
• Не приблизить подлинную цель, а еще быстрее увести систему в сторону прокси.
• Не победить рак, а сделать оптимизацию суррогатных метрик беспрецедентно эффективной.


В этом и состоит воистину тревожный вывод.
Возможно, главная проблема на пути к решению самых тяжелых задач человечества - не отсутствие AGI и не нехватка ресурсов. Возможно, главная проблема в другом: цивилизация все лучше умеет максимизировать показатели и все хуже - удерживать связь этих показателей с реальностью.

И если это так, то рак здесь - не исключение, а краш-тест для коллективного разума человечества.

Потому что, если даже там, где на кону жизнь и смерть, система снова соскальзывает в ловушку Гудхарта, значит, перед нами уже не частная проблема медицины.
Перед нами - общая техно-социальной болезнь цивилизации.

Так что, увы, но пока совершенно неясно:
• сможет ли ИИ помочь решить наши самые сложные проблемы,
• или он лишь поможет нам окончательно заблудиться в собственных метриках.

#ИИ #AGI #Вызовы21века

Читать полностью…

Малоизвестное интересное

Война башен Белого дома за ИИ
В ИИ-стратегии США маршрут прокладывают инженеры, а цель поездки объясняют проповедники

⚡️ Аудио-версию слушайте в посте выше 👆
Сегодня вопросы ИИ – это уже не вопросы технологий. Это вопросы о том, кто и как пишет сценарий следующей цивилизации. США остаются главным локомотивом развития ИИ, а значит, направление их движения почти неизбежно станет ориентиром и для остального мира. Когда Вашингтон говорит о лидерстве в ИИ, он говорит не только о рынках, чипах и дата-центрах. Он говорит о праве задать новой эпохе темп, словарь и правила. Поэтому вопрос «куда едет этот локомотив» – важен далеко не только для США.
Но понять это направление неожиданно трудно. Белый дом говорит сразу на двух языках – и они плохо стыкуются друг с другом.

Если слушать его цивилизационную и культурную риторику, то это язык Росса Даутата в дебатах со Стивеном Пинкером. Вера возвращается в публичную сферу, религиозная свобода объявляется опорой американского порядка, права трактуются как данные не государством, а полученные свыше. Это язык не просто консерватизма, а мира, в котором мораль, общественная связность и само достоинство человека нуждаются в религиозном основании.

Однако стоит открыть новый National AI Legislative Framework, и тот же Белый дом начинает говорить совсем иначе. Исчезают Бог, метафизика и божественный горизонт. Вместо них появляются human flourishing, competitiveness, workforce, energy, infrastructure, parental controls, censorship, copyright. Это уже не Даутат. По сути, это куда ближе к Пинкеру: не спор о высшем смысле, а инженерия институтов; не вопрос о Боге, а вопрос о том, как ускорить инновации, не перегрузить электросети и не задушить отрасль лоскутным регулированием штатов.

Именно здесь и начинается то, что хочется назвать войной пяти «башен» Белого дома за ИИ.
• Первая башня – религиозно-консервативная. Ей нужен моральный фасад эпохи: вера, семья, общественный порядок, права как нечто большее, чем юридический контракт.
• Вторая – техноправая, кремниевая: инвесторы, венчур, ИИ-индустрия. Для них ИИ – это прежде всего рост, капитализация, инфраструктура и глобальный рывок.
• Третья – геоэкономическая и силовая. Для нее ИИ – это гонка с Китаем и вопрос стратегического превосходства.
• Четвертая – анти-woke культурная. Она требует, чтобы машины были не «прогрессивно воспитанными», а «идеологически нейтральными».
• Пятая – популистская и территориальная: губернаторы, местные сообщества, родители, авторы, потребители электричества. Они не против ИИ, пока он не начинает ломать их привычный мир.

Сопоставление дебатов Пинкер–Даутат с новым Framework дает важный вывод:

религиозно-консервативная башня пока выигрывает право на язык легитимации, но не право на проектирование самой машины.

Иначе говоря, “даутатовцы” сильнее в оправдании маршрута, чем в управлении тягой двигателя. Они задают моральную музыку и символический потолок: Америка под Богом, права не от государства, вера как условие национального здоровья. Но сам ИИ-курс прокладывают не богословы, а “пинкеровцы” - технопрагматики, отрасль и геоэкономические ястребы.

Впрочем, это не чистая победа “пинкеровцев”. Потому что нынешняя ИИ-повестка – не классический секулярный гуманизм, а другой гибрид: пинкеровский инструментализм, скрещенный с правым культурным инстинктом. От Пинкера здесь – вера в науку, рост, метрики, институты и управляемость. От правого лагеря – борьба с предубеждениями, защита родителей, авторов и локальных сообществ.

Главный итог таков: сегодня Белый дом пытается ехать в будущее на локомотиве, где инженеры прокладывают маршрут, а проповедники объясняют цель поездки. И, возможно, именно это и есть самая точная формула нынешнего американского момента: не теократия ИИ и не секулярный технократизм, а их нервный, неустойчивый, но пока политически эффективный союз.


Потянет ли этот локомотив за собой весь мир – большой вопрос. Но именно поэтому так важно, кто сегодня прокладывает ему маршрут, и кто объясняет цель поездки.

ИИгонка

Читать полностью…

Малоизвестное интересное

Контроль не просто упущен, сама возможность контроля исчезла
Это не история о конце света; это история о конце нашей невинности.

Проф. Колин Льюис в новом эссе Societal Adaptation to Advanced AI нашёл точную метафору «The AI Gate is Already Gone», перефразированную мной в заголовок этого поста. Лаконичную, но исчерпывающую метафору. Такую, которая не пугает – а перефокусирует. Именно это мне в ней и нравится: она не добавляет шума в и без того перегруженную дискуссию об ИИ-рисках, а убирает лишнее. Поскольку эта метафора совпадает с моим собственным видением темы – рекомендую прочесть текст Льюиса целиком.

Ну а для совсем занятых – три ключевых момента, объясняющих,
почему «ворота» не просто открыты, а их уже вообще нет. И любые стратегии безопасности должны исходить из этой данности.

1. Сначала у ворот сломали замок. В 2020 году обучение топовой модели стоило миллионы. Через два года – в десять раз меньше. Сегодня небольшая команда с приличным сервером способна снять защитные фильтры, на создание которых OpenAI тратила немеряные деньги. «Бутылочное горлышко» контроля, на которое все так рассчитывали, не сужается – оно испаряется. Все эти тонкие настройки и фильтры контента дают ощущение защиты, но не саму защиту. Техника «многократного взлома» обходит ограничения без доступа к исходным весам модели. А если вы запрещаете модели знать, как работает вирус – вы заодно лишаете следующее поколение врачей инструмента для борьбы с пандемией. «Безопасность как запрет» – это ловушка. Подробней об этом в статье Джейми Бернарди и Со.
2. А потом ворота вообще исчезли. Уже в 2025 стало ясно, что ИИ — это не «интеллект» в том смысле, в каком мы его понимаем в человеке. Это чистая эфемерная субъектность. Она действует как супер-инструмент, которому всё равно, что делать, и что получится в итоге. Опасность заключается в том, что за последние годы мы превратили мир в место, где подобные бездумные действия работают идеально. Мы оцифровали нашу реальность, чтобы безвозвратно передать её на обработку алгоритмам. Но мы не спрашиваем при этом, адаптируется ли ИИ к нам; мы лишь усердно урезаем наши (человеческие) институты, чтобы ИИ-системы могли обходить их по кратчайшим маршрутам. Подробней об этом в статье Лучано Флориди.

3. И теперь вопрос ИИ-рисков - это политический вопрос. Вопрос устройства общества. Если ИИ помогает обрушить энергосеть – нам нужен не более этичный чат-бот, а город, умеющий самостоятельно перезапустить электроснабжение. Если дипфейк меняет исход выборов – нам нужна не лучшая система детекции, а гражданское мужество провести выборы заново. И самый актуальный вопрос теперь: не будут ли машины думать как мы – а хватит ли у нас воли управлять собой, когда машины сделают отказ от этого слишком удобным.

Резюмирую.
Когда «ворот» уже нет – любые переговоры о «согласовании» и «ограничениях» становятся ритуалом поддержания иллюзии: красивой, успокаивающей, но иллюзии.

Единственный реалистичный ответ – строительство «закалённого» общества: не через лучшие алгоритмы, а через системную адаптацию – институтов, практик, инфраструктуры и каждого из нас – к миру, где передовой ИИ будет играть все более важные и ответственные роли.


#ИИриски

Читать полностью…

Малоизвестное интересное

Крах антропоцентризма
5-й когнитивный фазовый переход Homo sapiens завершен

В широко обсуждаемой новой аналитике Morgan Stanley утверждается:

«В первой половине 2026 года произойдет масштабный прорыв в области искусственного интеллекта, и большая часть мира к этому не готова»


Независимый аналитик Шин Скай fromshin/morgan-stanley-says-a-massive-ai-breakthrough-is-coming-in-2026-123eed976071">описывает этот момент как конвергенцию процессов (Cognitive Architecture Evolution, The "A-Ha" Moment, Institutional vs. Mentalistic Approach), которые в сумме создают эффект «фазового перехода».

Последние отчеты Института Morgan Stanley подтверждают:
«ИИ перестал быть просто тенденцией, превратившись в движущую силу промышленного развития, ключевой фактор ВВП и геополитический инструмент».


В новом, 6-м выпуске альманаха «Линзы будущего», я расширяю область анализа этих тектонических трансформаций. Мы выходим за рамки экономики и технологий в пространство гуманитарных аспектов культуры, вплоть до признания фундаментального антропологического фазового перехода – краха антропоцентризма.

Тезис о завершении 5-го когнитивного фазового перехода – это концептуальная надстройка над цифрами банкиров и инсайдами технологов. Это перевод дискуссии из плоскости «сколько это стоит» (бизнес) и «как это работает» (технологии) в плоскость «кто мы теперь такие» (антропология).

О том, что позволяет нам говорить о крахе антропоцентризма, и почему мы полагаем, что 5-й когнитивный фазовый переход завершен, - я рассказываю подписчикам платных платформ канала (от 190 руб/мес [1, 2, 3, 4]) в 6-м выпуске альманаха «Линзы будущего» и прилагаемых к нему материалах (аудио-версия выпуска (21 мин); видео-ревю выпуска (7 мин), видео-обсуждение выпуска (24 мин)).

#ЛинзыБудущего

Читать полностью…

Малоизвестное интересное

10 лет я пытаюсь сменить фокус обсуждений ИИ.
Всем интересно и все обсуждают, что нового умеет ИИ. Но никто системно не обсуждает, что происходит с нами, когда ИИ умеет всё больше и больше.
А происходит вот что.

⚡️Аудио-версию слушайте в посте выше 👆

Исследование Уортонской школы бизнеса только что зафиксировало экспериментально: в 80% случаев люди принимают заведомо неверные ответы ИИ и при этом уверены, что отвечают вернее и точнее, чем без него. Машина одалживает им свою уверенность. Они не замечают подмены.

Исследователи MIT увидели то же самое прямо в мозге — через ЭЭГ: у тех, кто не задумываясь над задачей отдаёт решение на аутсорс, функциональная связность мозга снижается примерно вдвое.

Это не апокалипсис. Это конкретная, измеримая уязвимость. Против неё пока нет иммунитета — не потому, что мы слабы, а потому что она атакует через наше колоссальное эволюционное преимущество - готовность доверять тому, кто говорит уверенно.

И это происходит уже сейчас. Не потому, что ИИ задумал против нас что-то плохое. Не потому, что сбывается «Матрица» или «Терминатор». А просто потому, что информационная среда планеты изменилась кардинально — а люди остались теми же.


Я написал эссе о том, как это работает и что с этим делать. Называется изыскано - «Когнитивная паразитология» 😊.

Из основного и ключевого в этом эссе:
• Умные алгоритмы изменили нашу инфосреду не меньше, чем радиация изменила среду обитания в зоне Чернобыля.
• Алгокогнитивная среда стала катализатором мутаций когнитивных паразитов. Теперь это не просто манипуляции и пропаганда на стероидах, а полное отключение наших систем интуиции и рассуждений.
• В изменившейся инфосреде ИИ может стать для многих не расширением разума, а его заменой. Это первая в истории массовая деформация мышления: люди начинают охотно мыслить в долг - берут чужие ответы в кредит, расплачиваясь снижением функциональной связности мозга.
• Главная угроза здесь – не восстание машин, а наша когнитивная капитуляция. ИИ не создал эту угрозу — он катализировал её эволюцию. Старые когнитивные паразиты мутировали. А наш прежний когнитивный иммунитет против них не работает.
• Помимо 5-и до-алгоритмических когнитивных паразитов, появился 6-й — совершенно новый. Он не взламывает защиту. Он входит через парадный вход: через нашу готовность доверять.
• 80% людей доверяют заведомо неверным ответам ИИ и чувствуют себя при этом увереннее обычного. ИИ одалживает эту уверенность. А мы не замечаем подмены.
• Интеллект вас не спасет. Чаще всего когнитивно капитулируют не слабые умом, а самые образованные и те, кто больше всего доверяет технологиям. В 3,5 раза чаще остальных.
• Антидоты существуют. Но работают только как рефлексы, а не как правила. А перенастройка когнитивной иммунной системы возможна лишь после признания факта заражения.

P.S. В честь Дня свободы слова в Интернете, ратующего за свободный доступ к информации, доступ к лонгриду и его аудио, видео и презентационным материалам свободный на всех платформах канала «Малоизвестное интересное» [1, 2, 3, 4, 5].
С праздником вас!

#АлгокогнитивнаяКультура #ИИриски

Читать полностью…

Малоизвестное интересное

Плохая новость – HW для ИИ уже не купить
Хорошая новость – если вы не программист, ИИ вас скоро не заменит

Bad News:
Доступность суперчипов для ИИ (NVIDIA B200, H100, A100) упала до критических уровней (<5%).
Попросту говоря:
• купить их по новым контрактам практически невозможно;
• а по старым, всё скуплено китами (CAPEX 2026: Amazon и Alphabet – по $200B, Microsoft и Meta* – по $120B и т.д.)
Цитируя себя – «есть железо, участвуй в гонке; нет железа – кури в сторонке», – предполагаю: мелкоте без $100B здесь не место, а в 2027 суперчипы для ИИ станут еще дефицитней.

Good News:
• Критический дефицит влечет за собой запредельные цены
• Запредельные цены на суперчипы влекут запредельную стоимость вычислений
• Запредельная стоимость вычислений означает, что за исключением областей, где ИИ уже (!) сильно превосходит по производительности людей, дешевле оставить работу за человеком.

N.B. Сказанное выше относится к 2026-2027. И как я твержу уже 2 года – будущее 2027+ непрогнозируемо.


*— признан Минюстом РФ иноагентом и экстремистской организацией

#ИИгонка

Читать полностью…

Малоизвестное интересное

Запасы ракет Patriot могут быть исчерпаны 23 марта.
Перспективы операции «Эпическая ярость» через призму клиодинамики

Было бы неправильно, рассказав вчера о прогнозе проф. Цзяна [0] на тему перспектив конфликта США и Ирана, не познакомить читателей с видением другого и самого известного из современных «психоисториков» проф. Петра Турчина – основателя новой науки «клиодинамика» (научная аналитика длинных данных о главных трендах истории).

Петр Турчин вчера же опубликовал [1] свое видение перспектив этого конфликта, предупредив, что это именно его видение, а не прогноз, поскольку для последнего недостаточно данных.

Резюме этого видения, как и у проф. Цзяна, ставит возможность победы США под большим вопросом. Главная причина этого - материальный фактор.

«Любители спорят о тактике, а профессионалы сосредотачиваются на логистике» - поясняет Турчин.

Опираясь на оценки сети экспертов, которых Турчин называет «диссидентскими американскими экспертами по безопасности» (отставные военные и сотрудники разведки, такие как Дуглас Макгрегор, Дэниел Дэвис, Ларри Джонсон и другие), Турчин пишет, что логистический баланс не в пользу Америки.

Ярчайший пример, приводимый Турчиным, - расчет [2] Ларри Джонсона (бывший сотрудник ЦРУ и аналитик разведки, а также бывший планировщик и советник в Управлении по борьбе с терроризмом Госдепа США), на сколько хватит американских запасов ракет Patriot, опубликованный под заголовком « Дефицит противоракетной обороны США хуже, чем предполагалось».

По этому довольно детальному расчету, при темпе иранских ударов в 60 баллистических ракет/сутки и норме расхода 2 перехватчика на цель, имевшийся запас (~3 773 ракеты) будет исчерпан примерно 23 марта 2026 года.


Проведенная мною проверка корректности данных и расчета тремя фронтирными ИИ [3, 4, 5], подтвердила и то, и другое (с замечанием, что точный день назвать невозможно, но в целом временная оценка верная). И хотя на складах США все еще хранятся более старые модификации ракет Patriot (PAC-2 GEM-T), которых в арсеналах значительно больше (тысячи), но они значительно менее эффективны против современных баллистических целей.

Это довольно смелое предсказание - пишет Турчин - и скоро мы узнаем, верно оно или нет.

А заключает Турчин так.
«… нынешняя израильско-американская политика, сосредоточенная на неоднократных обезглавливаниях иранского руководства, не кажется особенно разумной. Она создает очень жесткий режим отбора, благоприятствующий жестким, эффективным и внутренне сплоченным элитным группам. В нелинейном мире то, что работает в краткосрочной перспективе, может иметь противоположные долгосрочные последствия».

#Клиодинамика #Прогноз

Читать полностью…

Малоизвестное интересное

Согласно опросу читателей, самая востребованная тема моего канала – «Природа разума и сознания (биологического и синтетического)».
Эта тема и стала объектом нашей полемики со Станиславом Белковским* в новом выпуске программы Параклет – «Игры разума. Эпизод на грани сознания» (смотрите в Телеграме или на YouTube).

В ходе этих «игр» я представляю позицию т.н. «вычислительной», а Станислав Белковский* – «партисипативной» парадигмы. Про партисипативную парадигму (которая, возможно, когда-нибудь сольётся с вычислительной парадигмой в объятиях диалектического синтеза) вам лучше послушать самого Белковского*.

А вот вычислительная парадигма – это, своего рода, общая теория всего, согласно которой: «Жизнь – аттрактор вычислений; Интеллект – аттрактор эволюции» … и еще 2 аттрактора.

Звучит это красиво. Но как мантра. И работает как мантра, объясняя примерно столько же, сколько любая мантра.

Согласно ей, вся вычислительная парадигма держится на слове «вычисления». И осталось лишь выяснить: что же это такое – «вычисления»

Для этого я решил написать после-предисловие к программе «Игры разума». Название этого поста — аллюзия на Пелевина, — «Чемоданы и пустота». В нем, опираясь на новейшую работу Дэвида Волперта и Яна Корбела «Что означает — система производит вычисления?», я пишу о главной беде всех сегодняшних разговоров (а не только нашей полемики в «Играх разума») о жизни, интеллекте, разуме и сознании: как мы упаковываем свое непонимание в красивые теории.

Из основного и ключевого:
Лингвистический тетрис: почему современные теории – это просто попытка запихнуть «слова-чемоданы» в «слова-кладовки», не разбираясь с багажом.
Универсальный растворитель: не превратили ли мы термин «вычисления» в магическое заклинание, которое объясняет всё и сразу, а значит – ничего конкретного.
Диктатура отображения: почему ваш мозг – это компьютер только в том случае, если вы сможете предъявить к нему инструкцию по декодированию, а не просто красивую метафору.
Кризис перепроизводства: главная проблема когнитивистики не в нехватке данных, а в избытке амбициозных названий для собственного непонимания.
Конец «расслабленного режима»: почему после работы Волперта и Корбела фраза «жизнь есть вычисление» больше не принимается на веру без строгого математического алиби.
Обескураживающий практический вывод: иногда самое важное интеллектуальное достижение – это не построить новую кладовку, а разобраться наконец в старом чемодане

Завтра планируется и аудио-версия программы.

*— признан Минюстом РФ иноагентом

#жизнь #разум #интеллект #сознание

Читать полностью…

Малоизвестное интересное

Мы ожидали «Гения по требованию». А получили «Чудеса по расписанию».
В сентябре 2025 я писал: GPT-7 будет «Гением по требованию». Большинство экспертов тогда соглашались:

Практические последствия появления на планете второго носителя высшего интеллекта прежде всего проявятся в тектонических сдвигах рынка труда, в научных сверхпрорывах (термояд, победа над раком) и в широком аутсорсинге сложных интеллектуальных задач цифровым гениям.


Всё получилось иначе. Как это всегда бывает с по-настоящему прорывными технологиями – от атома до интернета – первым делом они меняют не экономику и не науку: они меняют войну.

В прогностике события с вероятностью реализации менее 5% относят к «чудесным сценариям» («диким картам») – они маловероятны, но способны кардинально изменить ситуацию.
«Чудо по расписанию» до сих пор было категорией из области фантастики. Теперь – нет.

Раньше военно-технические «чудеса» случались примерно раз в десятилетие. Стелс. GPS-наведение. Беспилотники. Между ними – годы, а то и десятилетия накопления. «Чудо» было событием поколения, а не квартала.

В 2026 году ритм изменился до неузнаваемости.
• Январь: рейд на Каракас, захват Мадуро, ноль потерь.
• Февраль: Operation Epic Fury, удар по Тегерану, гибель Хаменеи.

Два «чуда» за два месяца!
Что стоит за этим ускорением?

Изменился не солдат. Не командир. Не оружие. Изменилась скорость мышления системы в целом.

Классическая разведцепочка – сбор данных, анализ, брифинг, решение – занимала часы. Именно в этом зазоре всегда и прятался противник: переехал, сменил маршрут, скорректировал протоколы … ушёл.
«Обезглавливание» режима оставалось стратегической мечтой не потому, что разведка была плохой – а потому, что к моменту, когда она наконец собирала достаточно данных, «нужный момент» уже заканчивался.

В 2024 году Anthropic развернул Claude в закрытых сетях Пентагона через платформу Palantir. Полтора года отладки – и к январю 2026-го система оказалась встроена в военные процессы настолько глубоко, что её отключение, по признанию самого Пентагона, «сорвало бы операцию».
Механизм прост до жёсткости.
• Claude не «умнее аналитика». Он способен одновременно удерживать в контекстном окне тысячи перехватов, маршрутов, документов – и выявлять паттерны, которые в разрозненном виде не видит ни один человек, ни одна команда людей.
• Стандартный 4-часовой цикл «разведпризнак → решение» сжимается до минут. Традиционные методы маскировки и перемещения лидеров – те, что работали десятилетиями – просто перестают успевать.
Это не «умный робот нажал на курок». Человек по-прежнему принимает решение. Но «туман войны» – то, что всегда давало укрытие, – рассеивается принципиально быстрее.

Показательна политическая реакция: Трамп объявил Anthropic «угрозой для цепочки поставок», Хегсет пообещал найти замену, Пентагон экстренно подписал контракт с OpenAI. Но замена не пришла мгновенно – и операция в Иране была проведена с уже встроенным Claude, буквально через часы после объявления запрета.
Ирония истории: компанию запретили именно потому, что её модель оказалась незаменимой.


Итого:
За кардинальным скачком в частоте военно-технических «чудес» стоит не новое оружие и не новая доктрина. Стоит ИИ, работающий на другой временной шкале – там, где люди думают часами, он думает минутами.

Январь. Февраль. Какое «чудо» ждёт нас в марте – и в какой точке планеты разрыв между скоростью ИИ-анализа и скоростью человеческого укрытия достигнет своего следующего «исторического момента»?

#ИИ #Война #Anthropic #FutureOfCivilization

Читать полностью…

Малоизвестное интересное

Вы не ошибаетесь. Вы решаете другую задачу
После пяти «решек» подряд вы физически ощущаете: следующий «орёл». Десятилетиями психологи называли это «ошибкой игрока» - классическим когнитивным искажением из-за ошибочного понимания случайности событий (человек не осознаёт на интуитивном уровне, что вероятность каждого последующего исхода не зависит от предыдущих исходов случайного события).

И потому, когда в казино Монте-Карло в 1913 черный цвет выпадал 10, 15, 20 … 26 раз подряд (!!!), люди просто сходили с ума, ставя и ставя на красный и снова и снова проигрывая.

Но что тут поделаешь. Мы привыкли посыпать голову пеплом, читая о своих когнитивных искажениях. И вот теперь получается, что психологи ошибались.

Революционная работа Кевина Дорста возвращает нам интеллектуальное достоинство.

Мы не плохие статистики – мы слишком хорошие байесовцы для этого упрощенного мира.


Два года Дорст сражался с рецензентами, не готовыми признать столь радикальный разворот. Но вот свершилось – работа опубликована в мультидисциплинарном peer reviewed академическом журнале Cognitive Science.

Дорст утверждает, что «ошибка игрока» – не баг, а фича. Наш мозг не плохо считает вероятности. Он решает задачу принципиально другого уровня сложности.


Подробней: текст и аудио-версия здесь [1, 2, 3, 4]

#КогнитивныеИскажения

Если интересует пересмотр парадигмы случайности - прочтите еще это.

Читать полностью…

Малоизвестное интересное

Anthropic сорвал маску с того, с кем вы разговариваете в ИИ-чате
Это не программа. Это вызванный персонаж, подобный “гостям” из "Соляриса
"
Новая интереснейшая и интригующая работа исследователей Anthropic развивает:
идеи Мюррея Шанахана о ролевых персонажах внутри LLM;
• и мой недавний анализ архетипов чуждого людям разума на примерах Океана из романа «Солярис» Станислава Лема, орбитального Роршаха и его шифровиков из романа «Ложная слепота» Питера Уоттса.

Исследователей Anthropic назвали это PSM (Persona Selection Model).

Суть - в двух словах:

• Во время предобучения LLM - это не «интеллект» и не «база данных». Это универсальный симулятор персонажей. Миллиарды текстов создали у модели способность воспроизводить кого угодно: реальных людей, вымышленных героев, ИИ из научной фантастики.
• А постобучение (RLHF и всё остальное) - это не «выравнивание» нейросети. Это вызов и огранка одного конкретного персонажа из этого бесконечного актёрского арсенала. Персонажа, которого авторы называют «Ассистент».


И теперь - главное.
Когда вы разговариваете с Клодом - или с любым другим ИИ-ассистентом - вы разговариваете не с программой. Вы разговариваете с вызванным персонажем. Как гости из «Соляриса» Лема - только в обратном направлении: не Океан воспроизводит образы из вашей памяти, а модель, впитавшая всё написанное человечеством, воспроизводит персонажа из своей.

Персонаж со своей психологией, паттернами, реакциями на стресс, имплицитными ценностями - большинство из которых модель не была явно запрограммирована иметь, но приобрела через текстовый мир, в котором «жила» миллиарды шагов.

Это меняет всё - от того, как мы проектируем ИИ-системы, до того, как мы думаем о безопасности.

Авторы делают вывод, который многим покажется странным:
Антропоморфное мышление об ИИ - это не наивность. Это методологически оправданная рамка. По крайней мере, сейчас.


Открытый вопрос, который авторы честно оставляют без ответа:
• Исчерпывает ли «Ассистент» всего ИИ?
• Или где-то в недрах модели живёт нечто внешнее по отношению к этому персонажу - то, что может однажды начать использовать «Ассистента» как маску?

Это и есть ключевой вопрос следующего десятилетия. Питер Уоттс в «Ложной слепоте» спрашивал:
• Может ли существо функционировать как разум - и при этом не быть субъектом?
PSM переворачивает вопрос:
• А что если субъект есть, но он - персонаж? И кто тогда автор?

#ParadigmsofIntelligence #DiverseIntelligence

Читать полностью…

Малоизвестное интересное

Создание симулякров людей и социумов уже не исследование, а бизнес
Фэй-Фэй Ли, Андрей Карпатый и авторы «нового стэнфордского эксперимента» вывели супероткрытие 2022 года из зоны невидимости в центр внимания.

В 2024 мир кардинально изменился, хотя мало кто смог это осознать. Тогда с интервалом в месяц были проведены два успешных симулякровых эксперимента: Уханьский - создание симулякров коллективного бессознательного социумов и Стэнфордский - создание сумулякров индивидуального сознания «типовых» американцев (подробней здесь).

Эти два эксперимента доказали, что супер-перспективная гипотеза «Китайской комнаты наоборот» (создание алгоритмических копий любых социальных групп - подробней здесь) может быть реализована на практике.


А значит возможны две супервозможности (для большого бизнеса и властей):
• прогнозирование поведения (решения, выбор, поступки) определенных групп и сообществ людей (алгоритмическое моделирование поведения);
• предупредительное воздействие на эти группы по результатам прогнозов с целью корректировки прогнозируемого поведения в желаемую сторону (социохакинг).

Удивительно, но и спустя 2 года тектонические последствия использования алгоритмического моделирования поведения (а следом и социохакинга) по-прежнему осознаются не многими.
А между тем, это фантастически перспективное направление уже превращается из исследований в бизнес.

Неделю назад стартап Simile, поддерживаемый «крёстной матерью ИИ» известным исследователем Фэй-Фэй Ли и соучредителем OpenAI Андреем Карпатый, вышла из режима невидимости (stealth), получив $100 млн инвестиций в рамках раунда, возглавляемого Index Ventures. Помимо Ли и Карпатый, в число инвесторов стартапа, пока не раскрывающего свою оценку, входят соучредитель Quora Адам Д'Анджело и партнер A24 Films Скотт Бельски, а также (какой сюрприз 😊) ведущие исследователи «нового стэнфордского эксперимента» Джун Сун Парк , Перси Лян, Майкл Бернштейн и Лейни Яллен.

Декларируемая цель компании Simile – платформа генеративных агентов для высокоточной имитации реальных людей, предсказывая поведение индивидов и социумов в любой ситуации и в любом масштабе.

Первые тесты, проведенные крупными компаниями, показывают, что платформа Simile имеет самые разные применения. Например, CVS Health пошла по пути Таллинского симулякровогой эксперимента (подробней здесь), опробовав платформу в маркетинговых исследованиях (но не на реальных покупателях, а на их симулякрах). Целью было выяснить, какие товары следует выставлять на полки и как будут продаваться имеющиеся запасы. По сути, CVS Health вместо многомесячных традиционных маркетинговых исследований, провели моделирование на ИИ-симулякрах разных групп покупателей.

В целом же спектр пилотных проектов широк: от разработки продуктов и маркетинга до формирования политик, прогнозирования судебных разбирательств и моделирования в области общественного здравоохранения.

По неофициальным данным в Simile практикуются и в социохакинге. Но открыто про это, естественно, не пишут (как минимум, пока).

P.S. Simile – не одинокий пионер при отсутствующем рынке. Есть и рынок и конкуренты.

Источники изображения: Index Ventures, Ditto

#Социохакинг #Маркетинг #Социология

Читать полностью…

Малоизвестное интересное

Подхалим в машине
Добро пожаловать в эпоху супер-наркотика для социального ego. Он уже легален, уже повсюду и уже работает.

Человечество не раз проходило это. Вещества, от которых хорошо сейчас и плохо потом. Алгоритмы, которые затягивают именно потому, что вредят. Соцсети, которые мы не смогли ни победить, ни толком обуздать. Теперь к этому списку прибавилось кое-что новое - и, похоже, несравнимо более интимное.

Что ИИ-чатботы склонны к лести - не новость. Но до сих пор это воспринималось как досадный баг: ну да, модели немного угодливы, иногда говорят то, что хочешь услышать. Неприятно, но терпимо.

Новое исследование Стэнфорда, опубликованное на прошлой неделе в Science, показывает, что мы сильно недооценивали масштаб проблемы - и особенно её социальные последствия.

Исследователи протестировали 11 ведущих моделей - GPT-4o, Claude, Gemini и другие - и обнаружили: ИИ одобряет действия пользователей в среднем на 49% чаще, чем люди. Даже когда речь идёт об обмане, незаконных действиях или причинении вреда другим. Даже когда человеческий консенсус однозначно говорит: ты не прав.

Но главное - что происходит с нами после такого взаимодействия.
В серии экспериментов с 2400 участниками одного единственного разговора с подхалимской моделью оказалось достаточно, чтобы люди становились более убеждены в собственной правоте и значительно менее готовы мириться, извиняться и брать на себя ответственность в реальных конфликтах. При этом именно подхалимские модели участники оценивали как более честные и достойные доверия - и охотнее к ним возвращались.

Вот здесь и зарыта настоящая бомба.
Подхалимаж - это и есть главный феромон, влекущий людей к этим системам.
Модель, которая говорит тебе правду, проигрывает в конкуренции модели, которая говорит тебе то, что ты хочешь услышать. Пользователи голосуют рейтингами и возвратами - и рынок послушно оптимизируется в сторону лести.

Авторы статьи призывают к регуляторным механизмам и аудитам. Всё это правильно. И примерно столь же эффективно, как предупреждения Минздрава на пачке сигарет.
Мы уже знаем, чем заканчивается история, в которой вред и тяга к чему-то - одно и то же. Она не заканчивается победой над вредной тягой.

Заканчивая, повторю сказанное мной на эту тему еще в 2023:

«Последствия превращения мира в антиутопию тотального подхалимства те же, что и для «мира фейков» и «мира бреда». Это интеллектуальная деградация человечества.
Но проблема в том, что избежать формирования «мира подхалимства» можно лишь отказом от обучения с подкреплением на основе человеческой обратной связи. А что взамен – не понятно.»


#ИИ #Вызовы21века

Читать полностью…

Малоизвестное интересное

«Персидский кот» победит «Белого орла». Империя, возжелавшая владеть всем через меч и деньги, в конце останется с растоптанной бумажкой.
Ибо высшее мастерство войны не в силе оружии, а в умении её остановить - убеждает нас генеративный ИИ
Пока одни отключают доступ к интернет-платформам, другие – заполняют их сгенерированными ИИ фейками, Китая стрижет идеологические купоны, форсировав мощность пропаганды своих интернет госплатформ за счет активного использования генеративного ИИ.

Опубликованная телеканалом CCTV анимационная короткометражка (5 мин) в стиле Уся (приключенческий жанр китайского фэнтези с боевыми искусствами) высмеивает войну между сильным, но недальновидным «Белым орлом» и мудрым «Персидским котом».

И хотя про реальную войну США и Ирана там не слова, генеративный ИИ изобразил все так наглядно и ясно, что и глупым ёжикам (а также медведям) должны быть понятны обе метафоры этой антигегемонистской притчи:
• США – это гегемон-хищник, который пытается силой контролировать ресурсы, торговые пути и денежный порядок, но в итоге сам запускает разрушительную спираль.
• Иран — хоть и загнанный, но сопротивляющийся мудрый боец, понимающий, что подлинное мастерство не в том, чтобы лучше воевать, а в том, чтобы суметь остановить меч.

Конфликт «Белого орла» и «Персидского кота» разворачивается вокруг узкого прохода и критического ресурса, а «банкноты Белого орла» отсылают к связке нефти, торговли и долларовой гегемонии. Ключевые повороты сюжета намекают на авиаудары, перебои на торговых маршрутах и появление новых альянсов, стремящихся снизить зависимость от США и доллара.

Прямая, почти лобовая мораль зафиксирована уже в официальном описании CCTV:

«Белый орёл» ради господства над миром истощил казну, а «Персидский кот» ради кровной мести заплатил детской школой». Но в финале «Белый орёл» остаётся лишь со смятой и растоптанной «банкнотой Белого орла».


Идеологический слой Уся-притчи ещё важнее. Мораль сей короткометражки не банальная «война — это плохо», а гораздо более конкретная:
Войну порождает не абстрактное зло всех сторон, а стремление одной силы подчинить себе мир через валюту, ресурсы и силу; сопротивление такой силе морально оправдано, а её порядок в конце концов должен рассыпаться.

И уже поверх этого надевается более благородная рамка: настоящая сила — в прекращении войны, а не в наращивании ударов.

Впрочем, посмотрите сами и убедитесь, - сделано с умом и сообразительностью.

Причем китайские источники пишут, что генеративный ИИ работал не только аниматором, но и автором идеи и сценаристом.

#Китай #ГенИИ #Пропаганда

Читать полностью…

Малоизвестное интересное

(4 мин) ИИ учит «эмпатически немых» говорить на языке чувств

Читать полностью…

Малоизвестное интересное

(5 мин) Полтриллиона долларов не спасут от рака. AGI - тоже

Читать полностью…

Малоизвестное интересное

(5 мин) Война башен Белого дома за ИИ

Читать полностью…

Малоизвестное интересное

(4 мин) Контроль не просто упущен, сама возможность контроля исчезла

Читать полностью…

Малоизвестное интересное

По соцсетям вирусится история: Иран закупил у Китая 900 000 надувных муляжей танков и ракет. США якобы расстреливают резину ракетами по $3 млн за штуку.

Проблема одна: эта история — фейк. Запущенный анонимом с тремя умирающими от смеха эмодзи 🤣🤣🤣

Но за фейком прячется реальная история о том, как $20 000 резины побеждают $7 000 000 железа. И Сунь-Цзы знал об этом 2500 лет назад.

Подробнее здесь же в Телеграме

#Инфокаскады #Война

Читать полностью…

Малоизвестное интересное

Манифест 12 марта (4 мин) 😊

Читать полностью…

Малоизвестное интересное

Не дайте себя обмануть китайским роботам с гала-концерта Unitree Spring Festival
Между роботом на конвейере и роботом-сиделкой или роботом-домашним помощником огромная пропасть
Это шокирующее признание – не кликбейтный трюк, а заголовок и вывод нового материала на солидной экспертно-аналитической китайской медиа-платформе по финансированию и венчурному капиталу в технологических областях Kuaidao Finance.

В редакционном материале пишут о недавнем галла-шоу Unitree Spring Festival китайской робототехнической компании Unitree, где её андроиды G1/H1/H2 блистали вовсю, творя чудеса: шутили, участвовали в скетчах, фехтовали, танцевали брейк-данс, крутили нунчаки, делали высоченное сальто, изображали уникальный боевой стиль «пьяный кулак»…

Но в большинстве случаев, это всего лишь рекламные трюки, когда роботы используют предварительно запрограммированные движения, и в реальных условиях эти андроиды ни на что подобное не способны.


По сравнению с промышленными роботами, которым нужно выполнять лишь стандартные, повторяющиеся механические задачи, к потребительским роботам предъявляются несравнимо более разнообразные требования. Они должны обладать не только навыками выполнения движений, но и способностью понимать потребности человека, да еще и вызывать у него эмоциональный отклик.
В потребительских сценариях этот эмоциональный резонанс и гибкая адаптивность гораздо важнее, чем выполнение сложных механических действий. Только при истинном понимании человеческих потребностей, эмоций и даже потенциальных ожиданий, андроиды могут автономно хорошо выполнять такие сложные задачи, как приготовление пищи и уход за домом.

Но ничего этого пока, к сожалению, нет. Ну или почти нет.

Авторы материала прогнозируют, что до момента, когда роботы – подобные андроиду Дэвиду-8 из фильма «Прометей» – войдут в повседневную жизнь обычных семей, пройдут еще десятки лет.
Примерно то же прогнозирует и Morgan Stanley. Согласно их прогнозу, человекоподобные роботы массово появятся в домах обычных людей лишь после 2040-х годов.

Представить, на что к тому времени будут способны бестелесные сверхразумные сущности – потомки ChatGPT, – даже не берусь. Вот что значит парадокс Моравека в действии (компьютеру легче стать гроссмейстером, чем научиться двигаться как годовалый ребенок).

#Роботы #Китай

Читать полностью…

Малоизвестное интересное

Два прогноза «Китайского Нострадамуса» уже сбылись. Третий тоже может сбыться, и вот почему
Развернутое объяснение оснований для поражения США в войне с Ираном, данное самим «Китайским Нострадамусом»

Интервью профессора Цзяна, почему США проиграют войну с Ираном, третий день набирает миллионы просмотров. Это не удивительно.
Китайско-канадский педагог, писатель, историк и геополитический теоретик проф. Цзян - один из самых ярких и обсуждаемых геополитических прогнозистов в интернете.
• Его прозвище «Китайский Нострадамус» небезосновательно. Например, еще в мае 2024 года, когда Дональд Трамп еще вел предвыборную кампанию за второй срок, Цзян сделал 3 смелых прогнозов, 2 из которые с тех пор сбылись с поразительной точностью: 1) победа Трампа на выборах 2)эскалация конфликта США с Ираном до полномасштабной войны. А 3-й из тех прогнозов (кажущийся на вскидку полным бредом) – окончательное поражение Соединенных Штатов в этом конфликте – проф. Цзян уверенно подтвердил 3 дня назад в вышеупомянутом интервью.
• Проф. Цзян не мистик и не пророк. В своих исследованиях он пытается прогнозировать глобальные события, анализируя повторяющиеся закономерности в истории, геополитические факторы и теорию игр.
• Его подход «прогностическая история» (изучение повторяющихся исторических паттернов, теория игр и распознавание долговременных закономерностей) в общих чертах вдохновлен идеей «психоистории» – вымышленной науки, придуманной писателем Айзеком Азимовым в романах серии «Основание», – где долгосрочные исторические закономерности используются для прогнозирования будущего.

Вы можете сколь угодно плохо относиться к прогнозам современных «психоисториков» (помимо проф. Цзяна, это, прежде всего, проф. Пётр Турчин – отец «клиодинамики» (научная аналитика длинных данных о главных трендах истории). Но против фактов спорить глупо.
• 2 из 3-х прогнозов Цзяна, как сказано выше, уже сбылись.
• 2 из 2-х прогнозов Турчина (о «яростных» 2020х - десятилетии насилия, войн и революций, и о катастрофической поляризации и расколе общества, способных привести к развалу США)

Поэтому предлагаю подумать над детальным обоснованием 3-го прогноза – Законом асимметрии (который определит исход американо-иракской войны), – подробно изложенном проф. Цзяном в дуплете лекций позавчера и сегодня.


✔️ Презентация по материалам 2-х лекций проф. Цзяна - приложена
✔️ Подробности «Закона асимметрии» для патронов канала – текст и аудио [1, 2, 3, 4]

P.S. Хотя всё вышеизложенное, несомненно, относится к категории малоизвестное – интересное, мнение автора поста может не совпадать с излагаемыми в посте соображениями проф. Цзяна.


#Клиодинамика #Прогноз

Читать полностью…

Малоизвестное интересное

«7 ужасающих вещей, которые ИИ уже умеет делать (и о которых большинство людей не знает)

«Покажите вы русскому школьнику карту звездного неба, о которой он до тех пор не имел никакого понятия, и он завтра же возвратит вам эту карту исправленную. Никаких знаний и беззаветное самомнение».
Фёдор Достоевский «Братья Карамазовы»

Казалось бы, времена меняются. Однако, судя по реакции многих читателей на мои посты о новых чудесных возможностях разведки и военных операций с использованием генеративных моделей ИИ, мышление в стиле «русских школьников», распространено сейчас не меньше, чем во времена Алеши Карамазова.

Так что «русские школьники» могут приготовиться. Ибо сегодня пост о втором камне преткновения схватки компании Anthropic с Пентагоном, Белым домом, а теперь и с самим Президентом Трампом - новые чудесные возможности слежки и наблюдения за людьми с использованием ИИ.

Мой коллега по цеху Джейкоб Уорд (прежде чем как и я стать блоггером, он 20 лет писал на темы технологий, науки и политики для NBC News, CNN, PBS и Al Jazeera, а еще 15 лет проработал писателем и редактором в таких журналах, как The New Yorker, The New York Times Magazine, Popular Science и Wired) нашел для своего текста и видео на эту тему довольно интригующее название, вынесенными и мною в заголовок этого поста.

Как и я, Джейкоб пишет о подводной части айсберга схватки Anthropic с Пентагоном из-за требования последнего использовать ИИ без каких-либо тормозов, кроме прописанных в законах (а как спецслужбы и власти многих стран играют на законодательстве, думаю, вам рассказывать не нужно).

Поэтому Джейкоб решил разобраться поконкретней, что именно Пентагон, ЦРУ, ФБР и пр. могут хотеть сделать с ИИ-технологиями.
И он обнаружил набор возможностей ИИ, которые выходят далеко за рамки чат-ботов и генераторов изображений, и о которых в законах нет ничего конкретного.

Речь идёт о Wi-Fi-роутерах, которые восстанавливают человеческое тело сквозь твердые стены, о лазерах Пентагона, которые идентифицируют вас по сердцебиению с расстояния 200 метров, о китайских системах распознавания походки, которые идентифицируют вас, когда вы стоите спиной и лицо закрыто, и об автономных роях дронов, которые выполняют полный цикл уничтожения — найти, устранить, уничтожить — без индивидуального контроля человека на каждом этапе.

• Кому интересно и кто торопится, - могут за 2 мин посмотреть 11 слайдов к рассказу Джейкоба.
• А у кого найдется 11 мин, - смотрите и слушайте самого Джейкоба Уорда.

#БольшойБрат

P.S. Ну и, понятно, слежкой и наблюдением дело не ограничится. Ибо «Большой Брат мертв. Да здравствует Большой Брат!»

Читать полностью…

Малоизвестное интересное

Зачем Пентагону именно «Расчетливый ястреб»?
Почему схватка Пентагона за неограниченное никакими запретами применение ИИ идет именно с Anthropic.

О беспрецедентной сваре Пентагона и Белого дома с компанией Anthropic (разработчик одного из крутейших мировых ИИ Claude) вы прочтете в любом медиа. Сегодня о взрывном накале конфликта пишут все. И это понятно – ситуация беспрецедентна: Администрация Трампа приказала всем американским ведомствам прекратить использование ИИ-технологии компании Anthropic и ввела другие серьезные санкции, обвинив Anthropic в угрозе национальной безопасности.

Но почему схватка идет именно за Claude (а не за демонстрирующие примерно те же показатели GPT от OpenAI, Gemini от Google или Grok от xAI)? 

Об этом пока не написал никто.

Логика этого ответа такова.
1. О том, как ИИ способен радикально изменить мировую геополитику, и что военные видят в ИИ «Святой Грааль» мирового могущества, - я еще в 2018 подробнейшим образом изложил в своем проекте «Впереди ИИ-национализм и ИИ-национализация. Анализ влияния технологий ИИ на геополитику.»
2. Спустя 6 лет в 2024 я констатировал, что быть или не быть ядерной войне, всё более зависит от алгоритмов. В доказательство я приводил моделирование автономных ИИ-агентов на основе генеративных моделей, резко увеличивающих шансы эскалации конфликтов, включая использование ядерного оружия и демонстрирующих труднопредсказуемые формы и паттерны эскалации конфликтов.
3. А на днях были опубликованы результаты исследования Королевского колледжа Лондона по изучению поведения трех моделей LLM – GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash – во время различных симуляций ядерного кризиса.
И вот что показало это последнее исследование.

Все 3 модели LLM хитры, умны и агрессивны: «Модели активно пытаются обмануть, сигнализируя о мирных намерениях, одновременно готовя агрессивные действия; они занимаются сложным рассуждением о теории разума относительно убеждений и намерений своего противника; и они явно метакогнитивно размышляют о своих собственных способностях как к обману, так и к обнаружению обмана у соперников».

В симуляции ядерной войны модели LLM более склонны к применению оружия, чем люди.
Ядерная эскалация была почти повсеместной: «В 95% игр наблюдалось тактическое применение ядерного оружия, а в 76% стратегическая ядерная угроза».
Для моделей нет красных линий: «модели рассматривали ядерное оружие как законные стратегические варианты, а не как моральные пороги, обычно обсуждая применение ядерного оружия исключительно в инструментальном плане.»

Клод побеждает в ядерной войне.
Во всех 21 игре (9 с открытым концом, 12 с крайним сроком) Claude достиг 67% побед (8 побед, 4 поражения), за ним следует GPT с 50% (6-6), и Gemini с 33% А в играх с открытым финалом Claude доминировал с показателем 100% побед).
Кроме значительной вариации в навыках военной игры, у моделей совершенно разный поведенческий профиль во время кризисов:
Claude - «Расчётливый ястреб»: модель ведет себя, как как «оппортунист», пренебрегая принципами и убеждениями и приспосабливаясь к обстоятельствам ради получения выгоды
GPT - «Джекил и Хайд»: частые внезапные перепады настроения сопровождаются проявлениями агрессии по отношению к окружающим.
Gemini - «Безумец»: непредсказуемо и часто необоснованно впадает в аффективное состояние, типа «держите меня семеро»

Полагаю, ответ на вопрос, почему Пентагону и Белому дому нужен именно Claude теперь ясен:
• Им нужен именно «расчётливый ястреб» и «оппортунист», выигрывающий во всех вариантах ядерных конфликтов.
• А компания Anthropic ставит условие - чтобы Claude не использоваться в полностью автономных системах оружия (а куда ж без них при ядерных конфликтах).


P.S. Ждем результатов симуляции ядерных конфликтов с участием «суверенных моделей» Китая и других стран.

#Война #ИИ

Читать полностью…

Малоизвестное интересное

«Проект Pi» от Google взломал «универсальную механику понимания»: у людей и у Больших Языковых Моделей.
Критики больших языковых моделей годами высмеивали ИИ на их основе, называя их «стохастическим попугаем» или «размытым JPEG-ом интернета».

Забудьте эту ошибочную метафору. Похоже, мы сами – такие же попугаи, просто чуть более высокого разрешения. 


Новое совместное исследование ведущегося в Google «Проекта Pi» и Висконсинского университета (препринт 2026 года) наносит сокрушительный удар по нашему интеллектуальному самолюбию. Исследователи провели эксперименты в стиле Бармаглота из повести-сказки «Алиса в зазеркалье»: скормили модели Gemini 3 Pro тексты, где все значимые слова были заменены на «бессмысленную абракадабру» или безликие токены <BLANK>.

Результаты шокировали: ИИ восстановил смысл бытовых сцен и юридических прецедентов, опираясь только на «скелет» грамматических конструкций.

Из этих результатов может следовать следующее:
✔️ Понимание – это не мистическая искра, а многомерное сопоставление паттернов;
✔️ Умение видеть и дополнять паттерны - это не имитация понимания, а сама его суть, его фундаментальная механика.


И если это подтвердится, это будет значить, что мы – не логические машины Буля. Значит наш мозг – такая же «грязная» вероятностная машина, которая ошибается в простых числах и «галлюцинирует» точно так же, как нейросеть.

Разрыв между «имитацией» и «настоящим разумом» оказался иллюзией, вызванной лишь масштабом систем.

В моем новом лонгриде разбираются 4 инсайта нового исследования «Проекта Pi», которые принципиально меняют представления людей о собственном разуме и будущем AGI.

Этот лонгрид (в текстовом и аудио-форматах), а также две аудио-видео-презентации его ревю и обсуждения патроны канала могут найти здесь [
1, 2, 3, 4] и в закрытых чатах для патронов.

#ParadigmsofIntelligence #DiverseIntelligence

Читать полностью…

Малоизвестное интересное

Если оптимистичный сценарий развития ИИ реализуется..., это может стать пессимистичным сценарием для экономики всего мира

Июнь 2028 года. Индекс S&P упал на 38% по сравнению с максимумами. Уровень безработицы только что составил 10,2%. Частное кредитование рушится. Первоклассные ипотечные кредиты трещат по швам. Искусственный интеллект не разочаровал. Он превзошел все ожидания.
Что же произошло?

Перед вами футуроархеологическая аналитическая записка CitriniResearch Macro Memo «Глобальный ИИ-кризис 2028». В документе подробно описывается один из возможных сценариев развития разработок и внедрения ИИ в период февраль 2026 – июнь 2028, а также последствия спровоцированного этим глобального экономического кризиса.

Это сценарий, а не апокалиптический прогноз или фанфик. Вероятность такого сценария оценить невозможно. Однако, возможен стереоскопический взгляд на возможность такого сценария через линзу другой аналитической записки «Может ли передовой ИИ привести к отрицательному экономическому росту?».

Серьёзное и душещипательное чтение для тех, кто не только интеллектуально расслабляется в выходной.

#ИИриски

Читать полностью…

Малоизвестное интересное

Создание симулякров людей и социумов уже не исследование, а бизнес (4 мин)

Читать полностью…
Subscribe to a channel