Люблю высокие технологии и кушать. Добро пожаловать, если в сферу твоих интересов тоже входят математика, DL, NLP, программирование на Python, или тебе просто любопытно, о чем на досуге размышляют люди, занимающиеся разработкой и исследованиями в ML.
Автор соседнего паблика недавно завершил цикл постов про проблемы методологии в статьях, посвященных применению Reinforcement Learning в задачах построения рекомендательных систем.
Звучит, может, на первый взгляд и душновато, но на деле проблема интересная и важная. При постановке экспериментов и написании научных статей очень важно соблюдать подходящую методологию, чтобы не принять желаемое за действительное, а получить объективно полезный результат. Ну а читателям статей полезно уметь детектировать нарушения методологии в этих статьях, чтобы критически оценивать их выводы.
Вот сами посты:
/channel/knowledge_accumulator/61
/channel/knowledge_accumulator/63
/channel/knowledge_accumulator/64
/channel/knowledge_accumulator/65
/channel/knowledge_accumulator/66
Финальный вывод:
/channel/knowledge_accumulator/67
Я не являюсь специалистом в Reinforcement Learning, поэтому с интересом послушаю, если кто-то, кто глубже это погружен, дополнит рассказ из постов новыми наблюдениями на тему или заметит ошибку.
#объяснения_статей
Хорошо. Если для кого-то это не очевидно, давайте разберем этот опрос более подробно и поймем, почему он является примером травли Перельмана.
Заголовок:
"Ваше отношение с поступку Гриши Перельмана, отказавшегося от $1 млн."
Неуважение к ученому начинается уже с заголовка. Григорий Яковлевич говорил, что ему неприятно, когда его в прессе называют "Гришей", но, конечно, никто его не слушал. Вот цитата (источник): "Он сказал мне, что не общается с российскими журналистами из-за неуважительного к нему отношения. Например, в прессе его называют «Гришей». И эта фамильярность его обижает." Здесь же используется как раз такое произношение имени, которое неприятно ученому.
Варианты ответа:
1. "Завидую. Хотел бы тоже так знать математику, чтобы так плевать на деньги".
С чего автор взял, что Перельман "плевал на деньги", и что отношение ученого к деньгам в целом как-то связано со знанием математики?
В одном из интервью Григорий ясно сказал: "Я отказался (от премии. - "ИФ"). Вы знаете, у меня было очень много причин и в ту, и в другую сторону. Поэтому я так долго решал". Если бы он якобы "плевал на деньги", он бы не раздумывал над своим решением. Из данного высказывания очевидно, что были у него причины так поступить.
А насчет связи отношения к деньгам и знанием математики: есть много сильных математиков, которые очень охотно ищут и находят способы заработать на своих знаниях. В том числе это и лауреаты премии Филдса, и других престижных математических премий. Отсюда ясно, что знание математики само по себе не мешает любить деньги.
2. "Понимаю его. Он же внятно объяснил, что управляет Вселенной - какой еще $1 млн?"
Это ложь и клевета. Перельман такого точно не говорил. Оригинальная цитата из интервью (сама статья по ссылке, впрочем, также преисполнена глупости; я даю на нее ссылки только для того, чтобы показать, из какого первоисточника пошла цитата) Перельмана звучит следующим образом: "Я знаю, как управлять Вселенной. И скажите - зачем же мне бежать за миллионом?!" Даже про эту дословную цитату мы точно не знаем, правдива ли она в точности или журналист все-таки приукрасил; но уж про то, что Перельман "управляет Вселенной" там точно не было. Перевирать слова ученого, чтобы выставить его сумасшедшим - это травля.
3. "Уважаю поступок, но, думаю, надо было взять. Маме бы помог, сам бы получше жить стал".
Что автор вообще может знать об уважении, после того, как он придумал настолько неуважительный заголовок и варианты ответа выше, остается загадкой.
4. "Он живет в своем мире, нам не понять".
Опять попытка выставить ученого сумасшедшим.
5. "Странно отказываться от новых возможностей, не попробовав".
Дословно то же самое, что и 3 вариант.
6. "Глупо. Взял бы, да мне хотя бы отдал".
Опять то же самое, что и 3 вариант. Видимо, автору опроса настолько трудно взять себя в руки и справиться с эмоциями, что он решил написать варианты с одной и той же навязчивой мыслью аж три раза.
Варианта "Я думаю, что Перельман не сумасшедший. Раз он так поступил, значит, у него были причины." опрос не предусматривает. В третьем варианте есть слова "Уважаю поступок", но из продолжения того же самого варианта и остальных вариантов совершенно ясно, что по сути ни о каком уважении речи не идет.
Автору не интересно разбираться, в чем именно заключается открытие ученого или почему произошла эта история с премией. Ему интересно лишь обсасывать свои негативные эмоции по поводу ученого и создавать шум в интернете.
Автор не дает ученому кредита доверия. Не думает о том, что Григорий Перельман - это такой же человек, как и мы, со своими чувствами и мыслями. Что если Григорий как-то поступил, значит, есть причины, есть чувства и мысли, которые его к этому привели. Нет, такой мысли не допускается.
Это и есть травля. Когда человека перестают воспринимать как человека, как существо с мыслями и чувствами, достойными хотя бы попытки их понять и проявить хоть какое-то уважение. Перестают воспринимать как субъект - только как объект.
#математика
Статья с ICLR 2023: Кривизна внутреннего представления данных в vision моделях является хорошим показателем робастности моделей
Звучит, наверное, страшно и непонятно, но на самом деле все очень просто. Давайте по порядку. Для начала, что такое "кривизна внутреннего представления":
В двух словах — это то, насколько сильно отличаются между собой внутренние представления (эмбеддинги) модели для последовательных кадров видео.
Считается кривизна так: берем vision модель. Например, ResNet18. Берем видео. Например, мультик про Чебурашку. Подаем кадры видео один за одним в модель, получаем эмбеддинг для каждого кадра. Обозначим эти эмбеддинги как {x_t}. Теперь вычисляем разность между парами последовательных эмбеддингов: v_t = x_t - x_{t-1}. Получаем последовательность {v_t}. Теперь вычисляем косинусную близость между последовательными векторами v_{t-1} и v_t. Среднее значение косинусной близости между всеми парами последовательных векторов v_{t-1} и v_t и будет значением кривизны внутреннего представления данных для нашей модели.
Было показано, что у людей внутренние представления картинок, получаемые из органов зрения, имеют меньшую кривизну, чем сами эти картинки (если считать кривизну между пиксельными представлениями картинок). То есть, представление потока картинок как бы "выпрямляется" у нас в голове, становится более стабильным во времени. Кажется, это свойство может иметь что-то общее с генерализуемостью и робастностью моделей для классификации. Типа, стабильность внутренних представлений модели во времени говорит о том, что эти представления довольно общие и хорошо генерализуемые.
Эксперименты показывают, что смысл в этом действительно есть. В целом, чем кривизна меньше, тем выше робастность модели. Вот какие выводы получились по итогам экспериментов:
- CNN модели, обученные с помощью adversarial training, имеют меньшую кривизну, чем те же модели без adversarial training;
- кривизна self-supervised ViT (DINO-v1) меньше, чем кривизна supervised ViT. Возможно, это говорит о том, что self-supervised обучение позволяет выучивать более робастные и общие представления, чем supervised обучение (но тут, имхо, надо больше экспериментов);
- У модели, в устройстве которых используются идеи из биологии (biologically-inspired models), внутренние представления оказываются более "выпрямленными". Причем чем глубже слой сети, тем меньше становится кривизна эмбеддингов. Прям как у людей.
Однако у одной из таких моделей (VOneNet) кривизна перестает уменьшаться начиная с некоторой глубины слоя. При этом эта нейросеть довольно робастна к состязательным атакам. Это означает, что нельзя отождествлять кривизну внутреннего представления с робастностью модели. Т.е. из того, что модель робастна, не обязательно следует, что ее внутренние представления будут стабильны.
В общем, кажется, кривизна внутренних представлений модели может быть одним из показателей робастности и генерализуемости этой модели. Но, кажется, further research is needed, чтобы лучше понять связь кривизны с качеством vision моделей.
📄 Статья
Долго собиралась посмотреть фильм "Доктор Стрейнджлав, или Как я научился не волноваться и полюбил атомную бомбу" (1963), потому что несколько раз видела комментарии о том, что это очень хороший образец сатиры (а я люблю сатиру), а также, что к этому фильму (и другим фильмам Кубрика) есть много отсылок в современных фильмах. Но каждый раз когда мой курсор наводился на значок скачанного файла, я в нерешительности отводила его обратно, потому что думала "а вдруг это окажется что-то очень странное, доступное к осмыслению только для 3,5 специалистов по истории кино, а мне будет просто непонятно и неинтересно?".
У меня вообще всегда были сложные взаимоотношения с артхаусом и "классическим" кино.
Когда я была подростком, я посмотрела по телевизору фильмы "Солярис", а затем "Сталкер" Тарковского, и они мне очень понравились. Но, естественно, в школе и техникуме никто их не смотрел и не обсуждал. Я не понимала, почему. Потом я узнала, что есть такой тип фильмов, как "артхаус", и эти фильмы являются его представителями. Я стала находить обсуждения этих и других артхаусных фильмов в интернете, но эти обсуждения были больше похожи на соревнования в том, кто лучше всех знает историю кино и биографию режиссера да кто заметит больше всего отсылок, чем на обмен личными эмоциями и впечатлениями. В этих обсуждениях было очень много одинаковых, написанных под копирку "глубокомысленных" восторгов в духе "филигранная режиссерская работа", "тонкие исторические отсылки", "гениальный режиссерский ход", "тонкая интеллектуальная игра" и очень мало искренних высказываний про то, так было ли в итоге человеку интересно смотреть этот фильм или нет. В итоге у меня сложилось впечатление, что большинство комментаторов смотрели эти фильмы не для того, чтобы хорошо провести время, а для того, чтобы потом похвастаться перед другими тем, какой у них тонкий вкус и глубокое понимание искусства. 🤣 (К тем людям, которые действительно разбираются в тонкостях режиссерской работы претензий не имею, но боюсь, что таких меньшинство 😏).
Кстати, позже мне также сильно запал в душу такой артхаусный фильм как "Седьмая печать". Меня очень сильно взволновал этот фильм, но нормально обсудить свои личные впечатления от него удалось только с парой знакомых - в интернете же царствовали типичные для таких случаев обсуждения "филигранной режиссерской работы".
Многие обсуждения классического кино, которые я находила, также были по структуре похожи на обсуждения артхауса - даже если на момент выхода фильм был мейнстримным. Только еще добавляются дополнительные глубокомысленные штампы: "изумительная игра актеров", "классика на все времена" и "оказал глубокое влияние на мировой кинематограф". Поэтому у меня начало складываться впечатление, что современные люди эти фильмы смотрят также чаще с целью удивить всех своим вкусом, чем для того, чтобы хорошо провести вечер.
Тем не менее, сегодня я все-таки отбросила сомнения и посмотрела "Доктора Стрейнджлава" и ни капли не пожалела. Фильм поначалу показался мне неожиданно мрачным, а потом держал в напряжении все полтора часа, лишь иногда разряжая обстановку неожиданной странностью или шуткой. Сцены с очевидным наложением кадров самолетика на кадры пейзажа поначалу портили впечатление (да, я в курсе, что в то время были объективные проблемы со спецэффектами), но очень быстро я перестала обращать на это всякое внимание, увлекшись фильмом. К концу сюжет разыгрался и действительно вышел в настолько злую, ядреную (😏) сатиру, что с некоторых сцен я проорала в голос. Теперь я знаю, откуда пошел мем про попытки удержать зигующую руку и почему фильм так называется. 😂
Что ж, теперь на очереди также давно откладываемая "2001 год: Космическая одиссея" (1968)...
#о_себе
Почему так сложно популярно рассказывать про алгебраическую топологию? (Часть 3).
Один из примеров - мостиков между аппаратом алгебраической топологии в высших размерностях и реальным миром можно усмотреть в такой концепции, как равновесие Нэша (по ссылке - видео с рассказом простым языком, что это такое). Оказывается, что доказательство существования равновесия Нэша для широкого класса игр опирается на теорему о неподвижной точке на n-мерной сфере , которая, в свою очередь, доказывается с помощью подсчета фундаментальной группы этой сферы. Правда, и здесь выходит загвоздка: если само равновесие Нэша можно понять без знания университетской математики, то доказательство существования этого равновесия и доказательство самой теоремы Брауэра можно понять только используя соответствующий математический аппарат, в чем можно убедиться, проследовав по двум последним ссылкам. 🤷♀️
Вот так и получается, что в алгебраической топологии происходит много всего интересного, а объяснить без сложной математики получается только ее крошечную часть, которая едва ли дает представление о богатстве этой науки. Можно сделать такое сравнение: пытаться показать, в чем прикол алгебраической топологии, пользуясь лишь повседневными терминами да двумерными рисунками - это все равно, что пытаться показать, в чем прикол небоскреба Бурдж-Халифа, пользуясь тремя камешками.
Конечно, можно положить три камешка друг на друга и сказать "Бурдж-Халифа - это очень высокое здание, в котором этажи построены друг над другом, так же, как я положила друг на друга эти камни". Но много ли особенностей удивительного здания раскроет это объяснение? Можно ли с помощью трех камешков изобразить длинные и массивные подземные сваи, на которых покоится небоскреб и объяснить, почему они нужны? Можно ли с их помощью показать, какие ухищрения придумывают во время строительства таких сверхвысоких домов и почему они получаются такими дорогими? Или показать на примере "башенки" из трех камешков, почему небоскребы делают не жесткими, а гибкими, позволяя им раскачиваться под порывами ветра, но они все равно не падают? Для таких объяснений понадобится явно больше инструментов и понятий, чем три камня.
Таково свойство самой области: основная часть алгебраической топологии уходит так же далеко от наглядных и привычных нам понятий, как башня Бурдж-Халифа - от поверхности земли, теряясь в утреннем тумане. Вдали от привычных нам повседневных образов и понятий, только очень точный математический аппарат позволяет вникнуть во все тонкости и не потеряться во всех этих высших размерностях, также, как он же помогает башне Бурдж-Халифа не упасть и не сломаться.
#математика
Почему так сложно популярно рассказывать про алгебраическую топологию? (Часть 1).
Большую часть поста я напишу более-менее доступным языком, чтобы общий посыл был понятен не только топологам, но и другим интересующимся, снабдив его ссылками на видео и статьи с объяснениями. Но часть поста будет сложной.
Итак, в основном топология занимается изучением многообразий - очень грубо выражаясь, поверхностей различной размерности, от одномерных (таких, как отрезок или окружность) и двумерных (таких, как сфера, лента Мебиуса или тор) до сколько-угодно-мерных.
Похоже, что топология одномерных многообразий (узлов, кос) ближе всего к наблюдаемой физической реальности, так как она имеет больше всего непосредственных, "осязаемых" приложений к чему-то практическому. Например, она помогает лучше понять механизмы репликации ДНК и, как следствие, механизмы действия химиотерапии (короткое видео); входит в новые концепции квантовых вычислений (короткое видео), более устойчивых к помехам. И это уже не говоря о том, что даже такая повседневная и простая вещь, как ткань, из которой сделана наша одежда, имеет прямую связь с теорией узлов, т.к. вполне осязаемые физические свойства ткани зависят от топологии зацепления нитей (длинное видео).
Но чем больше размерность изучаемых многообразий - тем дальше они от непосредственно наблюдаемой реальности, от того, что можно "пощупать". А в алгебраической топологии очень много интересных феноменов появляются только в высоких размерностях, в более высоких, чем мы можем нарисовать или представить себе наглядно.
Например, в алгебраической топологии есть такое понятие, как бордантность. Определение бордантности для не-математиков может прозвучать страшновато: замкнутые многообразия без края M и N называются бордантными, если существует такое многообразие K (с размерностью на 1 больше), что M и N являются границами K.
Надеюсь, определение станет понятнее после такого примера: любые две окружности являются бордантными друг другу, потому что мы можем построить такой цилиндр, что одна окружность будет служить одним основанием цилиндра, а другая - другим. Это верно и для многообразий, состоящих из нескольких отдельных окружностей, что проиллюстрировано в статье по ссылке выше, где вместо цилиндра рисуют "штаны". Далее можно отметить, что все замкнутые одномерные многообразия без края являются либо окружностью, либо набором из нескольких окружностей (отрезок не входит в рассмотрение, так как у него есть края). Закручена ли это окружность в виде какого-то узла или нет, в данном определении роли не играет. Таким образом, можно показать, что все одномерные многообразия, для которых определено отношение бордантности, бордантны между собой.
А вот для двух двумерных поверхностей уже не так. Некоторые двумерные поверхности имеют две стороны - внутреннюю и внешнюю, например, тор, а некоторые - только одну, например, бутылка Клейна (крошечное видео). (Примечание: еще чуть-чуть об односторонних поверхностях рассказано тут). Наиболее глубоко прочувствовать различие этих двух видов поверхностей можно, если понять, почему двусторонние поверхности являются ориентируемыми, а односторонние - неориентируемыми (по ссылке красивое старое видео). И вот, наличие одно- и двухсторонних поверхностей дает интересное следствие: оказывается, все двумерные односторонние поверхности без края бордантны друг другу; все двумерные двусторонние поверхности без края бордантны друг другу; а вот односторонняя и двусторонняя поверхность между собой не бордантны. Т.е., нельзя придумать трехмерного многообразия такого, что одной из его границ является бутылка Клейна, а другой - тор.
Но как можно изобразить доказательство такого факта на картинке? Мы ведь не можем спроецировать все это на плоскость так, чтобы не потерять свойство одно-или дву-стороннести. Поэтому доказательство не выйдет сделать наглядным. Поэтому про бордизмы в популярных изложениях, к моему большому сожалению, не рассказывают, а ведь мне эта теория кажется красивой, плюс она хорошо иллюстрирует то, как при увеличении размерности пространства обретают новые свойства.
#математика
⬆️ Занятный веб-интерфейс-демонстрация, в котором можно поиграться с аппроксимацией распределения многочленами, с выводом всех нужных формул.
Вбитое в интерфейс распределение являет собой набор длительностей пролетов крошечного дрона через трассу. Здесь можно посмотреть на фотографии самого дрона и описание оборудования и данных.
Как заметили в комментариях к исходному посту, более совершенную аппроксимацию таких распределений можно получать с помощью методов под общим названием Kernel Density Estimation, реализованных в библиотеке scikit-learn. Например, это поможет избежать случаев, когда аппроксимирующая кривая опускается ниже нуля (что постоянно происходит с многочленами и не имеет "физического" смысла в контексте данной задачи).
Конечно, в более серьезных задачах и научных презентациях я бы также использовала Kernel Density Estimation. Тем не менее, аппроксимация многочленами, реализованная в данной демонстрации, интересна тем, что вывод формул здесь является намного более коротким и прозрачным. Для понимания этого короткого вывода достаточно понимать, что такое интеграл и система линейных уравнений.
Также следует отметить, что реализованную тут аппроксимацию можно рассматривать как вариант полиномиальной регрессии. Только в отличие от обычной полиномиальной регрессии, тут минимизируется не среднеквадратичное отклонение между многочленом и самими данными, а среднеквадратичное отклонение между интегралом многочлена и интегралом гипотетической функции, порождающей данные (если можно так выразиться).
Рис. 1 - реклама.
Рис. 2 - я, смотрящая эту рекламу по дороге домой с работы, после нудного исправления очередных ошибок в эксперименте на питоне, не зная, как ответить на этот вопрос.
Гугл сделал прикольную штуку: Generative AI Learning Path. Это Tl;Dr из 10 мини-уроков о том, как работают современные генеративные модели в CV и NLP. Начинают с того, что вообще такое — эти ваши "большие языковые модели", переходят к общим описаниям архитектур и аттэншену, заканчивают туториалом о том, как самому создать и задеплоить такую модель (на Google Cloud, разумеется, хехе)
Кажется, может быть полезно тем, кто в DL понимает не особо, но хочет базово разобраться в том, на каких принципах работают совеременные модели и задеплоить свою.
📄 Ссылка
Внезапная скромность OpenAI про 26% полноты
#ml #chatgpt
Кто-то из Эффективных Менеджеров паснул в мою сторону статью Forbes про yet another (для меня) и революционный (для менеджера) детектор текста, сгенерированного chatGPT, у которого 99% accuracy. Мол цени, че свяжемся, потестируем?
Читаю статью. Ну, датасет из 128 статей это уже и не смешно. Интересно подбить списочек по метрикам:
- TurnitIn: 98% accuracy
- Copyleaks: 99% accuracy
- Winston AI: 99% accuracy
- AI Writing check: 80-90% accuracy
- OpenAI classifier: 26% recall, 91% specificity, 58.5% accuracy (если я тут все верно посчитал)
Кекьх. Отчего это вдруг у OpenAI такая скромность? Они создали chatGPT, нанимают лучшие умы, которые потом пашут по 60-90 часов в неделю. И что, они проигрывают универу Канзаса в задаче детекции chatGPT-контента?
Конечно, нет. Задача, в общем-то не так проста. Или, как говорят спецы по мемам, есть нюанс. Описал в новом посте, почему это так. Подкрепляется моим опытом организации COLING 2022 трека с примерно той же задачей. Вот полный пост, а выжимка такова:
- модели участников соревнования выбили по 99%, явно переобучившись на фичи датасета (например, что модель-пересказчик, всегда начинает с какой-то одной фразы-открытия)
- один из победителей соревнования Domenic Rosati опубликовал папирус, где показал, что модели, обученные на данных моего соревнования, не обобщаются на новую похожую выборку, полученную немного другими DL-моделями
Задача пока вообще не решена. И чем дальше, тем сложнее будет сказать, где человеческий текст, а где машинный.
А пока… можно заявлять 95% и толкать свой продукт. Как Дороничев c новым стартапом в смежной задаче распознавания фейк-изображений. Если вы где-то слышите про "99% точности» в этой задаче, перешлите людям этот пост или английский вариант.
Ps. я все же разобью текст своего выступления на DataFest на несколько постов. Stay tuned.
Как же мне надоели насмешки над Григорием Перельманом, которые длятся годами. Сколько лет уже прошло, но люди продолжают демонстрировать свою глупость, выставляя математика сумасшедшим за его отказ от премии за доказательство гипотезы Пуанкаре, в том числе подобными дурацкими "опросами", в которых большинство вариантов по сути одинаковые, пропитанные одинаковым ядом: /channel/obznam/1209
Григорий Яковлевич яснее ясного сказал, что не согласился с решением института им. Клэя, потому что счел, что вклад другого математика в решение данной проблемы был не меньше, чем его собственный.
Человек выразил свое несогласие с решением комитета таким образом, зачем его травить годами? Какое кому дело до того, взял он эту премию или не взял, почему человек не имеет право своего выбора и своего мнения на эту премию без того, чтобы не стать изгоем? Мне больно, очень больно видеть эту травлю в адрес этого очень достойного математика каждый раз.
Очень интересно было бы послушать больше мыслей на эту тему от самого математика. Тем более, что судя по всему, у него уже давно был конфликт с математическим сообществом. Но его уже так все достали преследованиями и бесконечными попытками выдавить из него очередные слова, которые можно будет вырвать из контекста и обсосать как очередную "сенсацию", чтобы привлечь ещё больше внимания и насмешек, вместо того, чтобы понять человека и разобраться, что, конечно, человек не хочет уже ни с кем общаться.
Если бы меня так травили и доставали годами, я бы тоже, наверное, забила на попытки что либо до кого либо донести.
#математика
Кстати, появилась гипотеза, откуда берут начало эти однотипные глубокомысленные комментарии про филигранность. Возможно, это влияние того, как нас заставляют писать сочинения в школе.
Я помню, что в тех школах, где я училась, учителя считали постыдным, когда ученик говорит или пишет, что не понял литературное произведение, либо что оно ему не понравилось и ругали за это (конечно, я часто так делала и получала люлей 🤭).
Но ведь любить или не любить абсолютно любое произведение и любых его персонажей это совершенно нормально. Каждый человек имеет право на свое мнение и чувства. И ещё более нормально и естественно, что современному ребенку очень нелегко понять, что хотел сказать взрослый автор, живший пару столетий назад. Это происходит не потому что ребенок "тупой", а потому что в данной ситуации у писателя и читателя бэкграунд объективно радикально отличается, и потому задача установления понимания между ними объективно непростая (как сказали в комментариях, есть такая вещь, как границы компетентности, и понимать их довольно важно).
А что люди начинают делать, когда не могут справиться со сложной задачей, но и отказаться от ее выполнения также не могут? Конечно же, имитируют бурную деятельность. В данном случае, механически копируя в свои сочинения глубокомысленные цитаты, увиденные у литературных критиков либо услышанные от учителя (хорошо, что в наше время этот бессмысленный процесс можно автоматизировать 🤭).
Возможно, школьная привычка прудить в сочинениях глубокомысленные высказывания и воспроизводить навязанное мнение о том, что не любить или не понимать классику или артхаус это якобы нечто постыдное, как раз и приводит к тому, что комментарии на соответствующие фильмы полны "филигранности".
Кстати, может быть, я в предыдущем посте переборщила с жесткостью, с которой описала эти комментарии и их создателей. Вполне может быть, что какие-то авторы этих комментариев действительно смотрели фильм с интересом и имеют о нем какое-то свое индивидуальное мнение, но сказать не могут потому что учили другому...
#о_себе #рассуждения
Интересный материал попался на YouTube: https://www.youtube.com/watch?v=McM3CfDjGs0&ab_channel=KyleHill
Тут автор научпоп-канала рассказывает о новом явлении на этой платфоме, которое он называет Science Spam. Science Spam - это видеоролики, которые имитируют научно-популярный контент, но на деле представляют собой мусор, слепленный из кусков чужого контента - возможно, с использованием сгенерированного сценария, парафразинга, Text-to-Speech и т.п. Я решила проверить его слова и поискала названия тех каналов, которые он упоминал.
И действительно, я очень быстро нашла такие примеры:
- https://www.youtube.com/watch?v=SuBYyH4h7xo&ab_channel=FutureUnity - нарезка не связанных между собой кусков видео, взятых из чужих источников, под столь же бессвязный набор высказываний, либо нарезанных из интервью этого человека, либо созданных с помощью технологии Voice Cloning по мотивам его интервью;
- https://www.youtube.com/watch?v=Pi0yOqCcb4o&ab_channel=Ridddle - повествование под аналогичную нарезку, сделанное с помощью Text-to-Speech модели, при чем в данном ролике TTS как будто простудился. 😂
Единственное, что под этими видео (больше?) нет того дисклеймера, о котором чел говорил в своем видеоролике.
Сами видео, впрочем, смотреть не рекомендую, у меня от 10 минут просмотра IQ упал на 10 пунктов.
На рис. 1 изображен фулл хаус из видео типа "It happened!" и "This is bad news!" на одном из таких каналов. Это полный треш. Люди, конечно, и без нейросетей успешно клепали мусорные видео, но с нейросетями и современными видеоредакторами делают это вообще как из пулемета.
#ИИнфобизнес
Почему так сложно популярно рассказывать про алгебраическую топологию? (Часть 2).
Тем не менее, хоть я и не могу ничего из этого нарисовать или даже просто в полной мере объяснить без формул, я решила набросить еще пару абзацев про бордантность, чтобы проиллюстрировать еще один важный аспект алгебраической топологии, который, к сожалению, очень редко упоминается в популярных изложениях - пайплайн, по которому топологи переходят от поверхностей (~ многообразий) к чистой алгебре. Этот аспект также не прост, но, я надеюсь, что можно будет уловить главную мысль.
Алгебраическим топологам очень нравится тот факт, что все бордантные между собой многообразия имеют некое сходство между собой, то есть, говоря математическим языком, "эквивалентны с точностью до бордизма". А эквивалентные штуки математики любят объединять в классы. Например, все одномерные многообразия без края (то есть, окружности) бордантны между собой и потому объединяются в один класс бордантности, а двумерные уже имеют два класса бордантности (один класс порождается двусторонними поверхностями, другой класс - односторонними; есть тонкости в том, что происходит, когда мы берем многообразия, являющиеся объединениями тех и других, но сейчас просто придется принять на веру, что эти объединения все равно либо бордантны одной односторонней поверхности, либо одной двусторонней). Эти классы называются классами эквивалентности.
Каждый такой класс эквивалентности можно рассматривать не только как набор объектов, но и как один, цельный математический объект - то есть, обозначить этот класс какой-то буквой и использовать в уравнениях. Удивительно, но оказывается, что с этими буквами (которые обозначают классы эквивалентности) можно производить вполне осмысленные операции, похожие на сложение и умножение чисел. Выражаясь алгебраическим языком, эти буквы (или классы), образуют группу (и даже кольцо). В частности, операция объединения непересекающихся многообразий в некотором смысле соответствует операции сложения в такой группе. То есть, поэтически выражаясь, операции на многообразиях как бы отражаются в мире алгебры с помощью зеркала - бордантности. Но для понимания этого факта уже придется изучить основы высшей алгебры - в частности, что такое группа и т.д.. В отличие от статей и видео по предыдущим ссылкам, то, что написано по последней ссылке, без знаний основ этой науки не понять.
—
Подводя итог, в моём рассказе про бордантность было проиллюстрировано не только появление интересных свойств у многообразий более высоких размерностей, но и один из главных пайплайнов алгебраической топологии:
1) придумать отношение эквивалентности на многообразиях;
2) определить классы эквивалентности;
3) превратить эти классы в алгебраические объекты;
4) изучить то, какие алгебраические операции можно делать с этими объектами.
Конечно, тот же самый пайплайн можно применить, используя вместо бордантности более популярные инструменты - гомологии, когомологии, гомотопии (в частности, фундаментальные группы). Я выбрала для объяснения бордантность потому что мне нравится ее связь с ориентируемостью, наличием одной или двух сторон у двумерных многообразий и с тем, как свойства многообразий меньшей размерности выражаются с помощью многообразий большей размерности. Я думаю, это раскрывает данные темы из алгебраической топологии под новым углом.
Здесь, однако, может возникнуть новый, справедливый вопрос, а зачем вообще строят такие сложные пайплайны? Есть ли какой-то смысл изучать такие алгебраические отражения гиперповерхностей высоких размерностей, кроме как ради искусства? Оказывается, что такой смысл есть.
#математика
Когда читатель открывает типичную книгу по топологии (особенно если она советская), его глазам немедленно предстают целые горы наваленных друг на друга непонятных математических символов и терминов, которые вводятся сходу через большие, громоздкие формулы, с минимальным количеством объяснений и примеров. Неудивительно, что в глазах многих читателей эти символы как бы складываются в буквы "пошел на ***", после человек думает "ладно" и закрывает книгу.
Данная брошюра (Рис.1) призвана смягчить эту проблему, делая упор на наглядность, большое количество иллюстраций, примеров и задач (см. предисловие на рис.2-3), давая читателю возможность освоиться с интуицией вводимых определений, прежде чем переходить к сложным, большим формулам. Например, она может быть полезна для младшекурсников, которые могут прочитать ее перед тем, как переходить к более сложным курсами по топологии или использовать параллельно с такими курсами, чтобы лучше во всем разобраться.
Большим плюсом является то, что в книге есть не только задачи, но и их решения, что поможет не застопориться, если что-то не получается.
На рис. 4 изображено содержание книги. Главы 1-5 и 9 посвящены некоторым основным понятиям (используемым во всей топологии) и нескольким темам из теории узлов (маломерной топологии). Эти главы может понять и старшеклассник с хорошей мат.подготовкой. Главы 6-8 примыкают к дифференциальной топологии и являются более сложными.
На рис. 5 и 6 приведено рассуждение про инварианты узлов; на рис. 7 и 8 - более сложное рассужение-доказательство известной формулы Эйлера с помощью понятий об особых точках векторного поля.
Я иногда листаю эту книгу чтобы припомнить что-то забытое из курсов по топологии или решаю упражнения из нее для разминки.
#математика #учебные_материалы
Я сильно упоролся и хотел по имеющимся данным из прошлого поста построить гладкий график распределения.
Можно ведь как-то численными методами по набору точек аппроксимировать функцию их распределения, да?.. В интернете не нашёл готового ответа, поэтому решил изобрести это сам, с использованием полиномов. Оказалось довольно несложно.
В итоге мало того что написал математический вывод и приложил псевдокод, так ещё и сделал веб-интерфейс (прямо в статье!), куда вы можете вставить свои данные, и сразу получить нарисованную гистограмку, и гладкую кривую, статистику по ней, уравнение полинома!!!
Вы только представьте себе мир, где каждый учёный когда делает какой-то алгоритм, публикует в интернет веб-интерфейс своего алгоритма! Да никто так не сделает. А я взял и сделал))) Не могу иначе))))
https://optozorax.github.io/p/polynom-distribution/
⬆️ Что-то я не врубаюсь в рассуждения посетителей качалки.
Понятно, что мем заключается в том, что они дают сложное решение простой задачи, но непонятно, в чем именно заключается это решение.
Они, по сути, говорят, что надо расширить поле Q, из которого взяты коэффициенты многочлена, добавлением гипотетических корней многочлена. Затем посмотреть на группу таких автоморфизмов получившегося поля, в которых Q отображается в себя. Эта группа называется группой Галуа.
Но я никогда далеко не продвигалась в изучении теории Галуа, поэтому дальше не понимаю.
#математика
> Вообще ни единой претензии, только лучи добра. Но, учитывая выше написанное, ответь сама себе честно на вопросы:
> "являюсь ли я алкоголиком с протёкшей крышей?"
> "действительно ли я не хочу ничего менять в своей жизни, или мне не хватает сил что-то поменять?"
Про алкоголика - в прошлом да, сейчас - скорее, нет, потому что за последние пару лет, с помощью КПТ, ACT (методы психотерапии) и поддержки коллег и друзей (хотя они и понятия, наверное, не имеют об этом, и сейчас сильно удивятся моему каминг-ауту 😂), мне удалось постепенно уменьшить потребление алкоголя с полбутылки вина в день до полбутылки вина в неделю.
Про протекшую крышу - совершенно точно да. Я мучаюсь от БАР с тяжелыми депрессивными эпизодами уже больше семи лет. Пробовала много разных схем лечения фармацефтикой и когнитивной терапией под руководством (уже второго по счету) психиатра и психолога (тоже второго по счету; это разные люди).
Иметь психическое расстройство очень тяжело. Приходится делать много невидимой никому работы для того, чтобы держаться на плаву. Если честно, я на самом деле внутри себя горжусь, что с таким тяжелым расстройством, могу жить одна, следить за собой, ухаживать за домашним животным, работать, помогать другим. Хотя, конечно,многие посмеются и скажут "ну значит не такое уж и тяжелое расстройство". Ну, а что я могу на это ответить? Это же все в голове находится, другому человеку напрямую не покажешь и не докажешь ничего.
Другие люди не видят эту черноту, которая постоянно наползает и пытается полготить мой разум. Если мне и удается ее отогнать (либо начинается гипомания, когда все проходит само собой), чернота не исчезает насовсем. Она только затаивается и ждет подходящего момента, ждет проявления слабости, чтобы опять попытаться поглотить все, забрать все краски мира, отобрать немногие оставшиеся положительные эмоции, которые я еще могу испытывать.
Настоящее психическое заболевание, например, настоящий депрессивный эпизод - это не способ попонтоваться и выставить себя необычным. Это больно и страшно.
Я прибегала к алкоголю просто потому что мне было больно и страшно. Я только хотела отключиться от этого, хотела перестать испытывать это.
Но, конечно, соевые просветленые не задумываются о таких мелочах.
Для них если человек живет один, испытывает трудность с общением, страдает от псих.расстройства и проблем с зависимостями, не успевает сделать работу и задерживается, то это неудачник, лузер и посмешище, который сам во всем виноват и заслуживает любых неприятностей. Хотя никто никогда не уточняет, как человек может быть виноват в болезни?
Говорят "Если бы он хотел, он бы просто взял и изменил свою жизнь". А как именно? "Если бы он хотел, он бы просто взял и пошел к психологу/психиатру". А что, если терапия длится годами и дает только частичную ремиссию? Опять человек виноват? Недостаточно хорошо подобрал врача? Недостаточно хорошо подобрал таблетки? Да эти соевые сверхразумы понятия не имеют о том, как тяжело подобрать таблетки даже для частичной ремиссии, как это больно и мучительно, пробовать разные схемы лечения снова и снова, какие жуткие побочки у этих таблеток, которые обостряются каждый раз, когда переходишь от одних таблеток к другим, даже под руководством врача.
Они понятия не имеют, как это стыдно и мерзко, когда, например, чувствуешь от каких-то таблеток жуткий голод, каждую гребанную секунду. Забиваешь живот водой и овощами, но голод все равно не проходит, пока не съешь что-то калорийное. Просто в дополнение к жуткому голоду еще и чувствуешь, как живот раздулся от овощей и болит. И в конечном итоге ты все равно ешь калорийное, понимая, что ты толстеешь от этого, и тебе противно, мерзко, но ты все равно ешь, потому что в противном случае ты страдаешь еще хуже.
И в конце концов ты набираешь 15 килограм и бросаешь таблетку с побочкой-голодом, и на тебя обрушивается вся эта чернота, и заполняет все, и ты начинаешь пить, чтобы спастись от этого, а соевые говорят - фу, не люблю жирных алкашей. Надо быть счастливым, менять свою жизнь (как?!), если ты не счастливый, ты лох и т.д. и т.п.
Тьфу. 🖕
#о_себе