tech_priestess | Unsorted

Telegram-канал tech_priestess - Техножрица 👩‍💻👩‍🏫👩‍🔧

12122

Люблю высокие технологии и кушать. Добро пожаловать, если в сферу твоих интересов тоже входят математика, DL, NLP, программирование на Python, или тебе просто любопытно, о чем на досуге размышляют люди, занимающиеся разработкой и исследованиями в ML.

Subscribe to a channel

Техножрица 👩‍💻👩‍🏫👩‍🔧

Очень приятное научно-популярное видео про теорию узлов на английском, которое мне понравилось простотой и качеством изложения:
https://youtu.be/8DBhTXM_Br4?si=myJGx1Vsufbaz0hW (перевод для Русов тут - https://youtu.be/6LeWR0GsA_U?si=a7LQVtX_BshfTch4 ).
В видео понемногу рассказано про суть данного направления математики, про постановку задач, про историю развития, а также про некоторые практические применения, все с богатыми иллюстрациями. В общем, очень хорошо подойдёт для первого ознакомления.

Ну а я напомню, что чуть глубже копнуть в этом направлении можно с помощью книжки, про которую рассказано тут - /channel/tech_priestess/681 . В ней есть много упражнений и несколько теорем насчёт узлов, понимание которых не требует больших предварительных знаний.
(Если знаете, где изучить данное направление более подробно, как следующую ступень после этой вводной книжки, можете тоже делиться в комментариях).
А ещё я упоминала теорию узлов в посте, где рассуждала про алгебраическую топологию в целом - /channel/tech_priestess/682 .

#математика

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

В комментариях неоднократно спрашивали, каким образом я нахожу научные статьи по machine learning для чтения. Поэтому я попробовала собрать несколько наиболее часто используемых мной приемов в этот пост в порядке от наиболее до наименее банальных.

1. Первое, с чего я начинаю, когда хочу найти статьи по какой-то теме - просто пишу запрос в Google, который начинается со слов "site:arxiv.org", а далее идут ключевые слова, по которым хочу найти статью. Иногда делаю то же самое, заменив "site:arxiv.org" просто на слово "paper", чтобы искать не только на архиве.
2. Варианты второй линии - поиск по Google Scholar: https://scholar.google.co.uk/ , по https://aclanthology.org/ (для исследований по компьютерной лингвистике / NLP) либо по сайту материалов конкретной конференции (если есть уверенность, что нужные статьи концентрируются именно там).
3. При желании найти на выбранную тему не просто какую-то статью, а открытый датасет, использую https://datasetsearch.research.google.com/ .
4. Удобный инструмент для нахождения статей, которые ссылаются на выбранную статью - Bibliographic Tools на https://arxiv.org/ . Чтобы им воспользоваться, нужно открыть абстракт заинтересовавшей статьи, пролистать вниз и нажать на вкладку с названием, собственно, "Bibliographic Tools". Статьи, ссылающиеся на данную, будут находиться в колонке "Citations". Кроме того, в этих Bibliographic Tools есть и другие полезные приколы.
5. Один из них - визуализация графа связанных статей: https://www.connectedpapers.com/ . Если ввести название статьи, связи с которой вы хотите посмотреть (или просто перейти со ссылки на архиве), отобразятся как те статьи, на которые ссылается она, так и те, которые ссылаются на неё (если такие есть). Каждая статья в графе изображается кружком, размер которого тем больше, чем больше количество её цитирований. Очень удобно при желании поисследовать какую-то узкую тему, в которой многие статьи связаны между собой.
Главный недостаток инструмента - ограниченное количество бесплатных использований. Но можно просто переоткрывать сайт в новых окнах инкогнито, и это решит проблему. 🤷‍♀

Пара замечаний о том, что я делаю, если найденную статью очень трудно понять.
А) Вбиваю её название либо в Google поиск по видео, либо в поиск YouTube. Чем более статья известная, тем больше вероятности найти ее разбор либо доклад от авторов в виде видоса.
Б) Ввожу в Google "review" и далее название статьи либо "site:openreview.net" и название статьи. Если повезёт и окажется, что статью рецензировали в открытую, то можно будет лучше понять сложные места в статье, прочитав переписку между авторами и рецензентами (там часто задают вопросы по таким местам).

Ну и конечно не забывайте делиться своими способами искать и разбирать статьи в комментариях.

#учебные_материалы #академический_ликбез

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Магоса Эксплоратора на них не хватает, чтобы вырвал все клешни за нарушение использования СШК

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Нашёл еще лучшие практики.

poetry (лучший из всех худших пакетных менеджеров в Python-окружении) год назад решил сделать deprecation одного из способов установить poetry в CI/CD окружении.

Помимо собственно сообщения о том, что этот способ скоро перестанет работать, они вмёржили рандомайзер(!), который с 5%(!) шансом ронял ваш CI/CD билд. Интересно, сколько человекочасов было потрачено на исследование падений таких билдов (и сколько онкол инженеров было поднято из-за этого).

Это конечно кринж и лучше так не делать никогда. Еще лучше даже не думать о возможности так сделать (но теперь вы знаете, что так можно 🌚️️️️️️)

Proofs

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Недавно в составе бесплатного курса Deep Learning School выложили мою лекцию, в которой я рассказываю, что такое трансформер:
https://stepik.org/lesson/1088060/step/1?unit=1098557
Пока что это единственная моя лекция в этом курсе.
Она состоит из трёх частей ("шагов"), эти шаги можно прокликать по кнопке над видео.

Есть также то же самое на Ютубе, чтобы смотреть без регистрации на курс:
Шаг 1 - https://youtu.be/lK0hqrVHrUA?si=B8d8JsdCjmXE6F_r
Шаг 2 - https://youtu.be/cKPDBXjD9lo?si=tkeSQDeXd8lEvs2D
Шаг 3 - https://youtu.be/BgFqtC866qE?si=AXKuDid0YE2_CKhc .

У кого есть свободное время, напишите, пожалуйста, что понравилось/не понравилось в лекции, какие есть ошибки и недочёты и так далее.
Это первый раз, когда я попробовала записать видео подобного формата, поэтому наверняка получилось много неловких моментов, и мне хотелось бы понять, как улучшиться в дальнейшем.

#учебные_материалы

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

С гроккингом, о котором недавно писал Борис (пост /channel/boris_again/1948 и ещё четыре поста после него). По ссылкам разъяснено, что это такое и разобрана хорошая статья на эту тему, поэтому повторяться не буду. Лишь отмечу еще два наблюдения, сделанных авторами статьи про Intrinsic Dimensionality в последних частях статьи: a) уменьшение d_90 связано с уменьшением разницы между качеством на трейне и тесте (то есть, с хорошей обобщаемостью); b) d_90 снижается в процессе предобучения модели.

Совпадение? 🤨🤨🤨

#объяснения_статей

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Расскажу сегодня про статью "INTRINSIC DIMENSIONALITY EXPLAINS THE EFFECTIVENESS OF LANGUAGE MODEL FINE-TUNING" 2020-2021 года ( https://aclanthology.org/2021.acl-long.568/ ). #объяснение_статей

Честно говоря, я не стала вникать во все технические детали (так что не стесняйтесь поправлять в комментариях, если где ошибусь), но могу поделиться главными результатами и выводами, а также своими собственными мыслями по этому поводу.

Я уже упоминала данную статью в посте /channel/tech_priestess/781 , как одну из статей, которыми вдохновились авторы LoRA. И немудрено: ведь в данной статье авторы как раз показывают, что для того, чтобы достаточно хорошо решать задачи из GLUE, достаточно дотюнить лишь малое подпространство в пространстве всех параметров модели. А для того, чтобы спроецировать параметры модели в это самое подпространство меньшей размерности, авторы используют алгоритм Fastfood transform (который, на наш взгляд из 2к23, чем-то напоминает LoRA, но содержит умножение большего количества различных матриц и, видимо, из-за этого не такой быстрый и эффективный). Двумя различными способами они измеряют внутренние размерности подпространства параметров, которые изменяются в процессе применения данного алгоритма, а затем вводят величину, которую называют d_90.
Сейчас надо вчитаться внимательно: эта величина равна внутренней размерности того подпространства параметров, которое достаточно изменить с помощью Fastfood, чтобы получить на данной задаче точность 90% от максимальной. А максимальной считается точность, достигнутая полным обучением всех параметров модели (без Fastfood).
Например, определим, что такое d_90(MRPC) для модели RoBERTa. Для этого я напомню, что MRPC - это задача бинарной классификации, в которой модели дают на вход два предложения, и она должна определить, является ли одно из них перефразировкой другого. Далее допустим, мы сделали полный тюнинг RoBERTa обычным оптимизатором и получили 89% точности на этой задаче. Тогда d_90(MRPC) - это внутренняя размерность того подпространства параметров, которое достаточно дотюнить с помощью Fastfood transform, чтобы получить 89*0.9 == 80.1% точности на этой же задаче.
Так вот, авторы изучили зависимость d_90 от размера модели, и оказалось, что эта величина для моделей типа BERT и RoBERTa large на задачах MRPC и QQP имеет совсем небольшой порядок - в районе от нескольких сотен до нескольких тысяч (напомню, что сами модели имеют сотни миллионов параметров), а еще что d_90 уменьшается в процессе предобучения. Но настоящий шок будет в следующем посте. Так что прежде чем читать дальше,

УБЕРИТЕ ДЕТЕЙ ОТ ЭКРАНОВ! 😱

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

#реклама 😏😏😏

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

ВК вчера показал очередной шедевр "рекламы для айтишников" - не совсем #ИИнфобизнес, но близко. Разберем же по частям здесь написанное. 🤓

Во-первых (красное подчеркивание, рис.1), то, что новичку сейчас легко найти работу в IT - чушь. Все, что я слышу от знакомых (и даже незнакомых), говорит об обратном: на entry-level позициях, напротив, сейчас большая конкуренция, джунам приходится сильно стараться, чтобы их наняли. А если вы еще и из другой страны, это делает ситуацию ещё сложнее: ведь работодателю приходится решать проблему с получением разрешения на работу для иностранца. Чтобы он этим заморочился, придется ему доказать, что вы лучше, чем конкуренты с местного рынка.
Во-вторых (синее, рис.1-2), зачем оценивать мои шансы на оффер, если вы его мне и так гарантируете? (Может быть, гарантируется оффер на должность уборщика дата-центра в Таджикистане? А что, тоже IT-работа за рубежом! 😎).
В-третьих (желтое, рис.2), рекламу мне показывали вчера, но и сегодня ссылку с так называемыми "подарками" ( https://develop.skyeng.ru/it-english ) никто не отключил. Очередной обман. 😡😡😡
Ну и в-четвертых (рис.3): получить работу в США для россиянина - крайне нетривиальная задача. Даже если вас возьмут в крупную американскую IT-компанию типа Гугла, вам, скорее всего, предложат какое-то время (в 2019м называли цифру в 1 год) проработать где-нибудь в Европе или Азии, прежде чем перевозить в американский офис. Причина проста: рабочих виз в США для иностранцев выдается на порядки меньше, чем желающих там работать. Более реалистичный вариант для крупных компаний - провести по облегченной процедуре тех сотрудников, кто уже проработал на них определенное время в другом месте - на таких сотрудников не такой жестокий лимит виз.
Ну а про то, что "топовость" резюме определяется не только грамматической правильностью его написания, я промолчу. 😂

P.S. Конкретную стоимость "обучения" я так и не узнала, так как не захотела оставлять свой телефон и пожизненно слушать их спам. Если вы знаете эту стоимость, напишите в комментариях. 😏

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

#реклама 😏😏😏

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Видео, в котором рассказали про недавно решённую проблему нахождения Einstein tile:

https://youtu.be/A1BhOVW8qZU?si=IKqU00Gb7ryXKbZr

Einstein tile - это фигура, с помощью которой нельзя замостить плоскость периодически (то есть так, чтобы паттерн замощения повторялся с каким-то периодом), а можно только апериодически. В видео более точно определяется, что это значит.
Также в видео очень захватывающе рассказывается про историю данного открытия. Особенно примечательно то, что оно было сделано человеком, который профессионально не занимался математикой (!) - это редкость в наше время, так как большая часть современной математики крайне сложна, и без соответствующего образования к большинству современных проблем математики не подступиться.
А здесь и проблема сама формулируется просто, и стиль рассказа рассчитан на широкую аудиторию, в общем, всем советую. Для тех, кто плохо воспринимает английский на слух, есть сделанные человеком субтитры.

#математика

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Иногда, когда ищешь максимально правильный способ процитировать чужие статьи в своей статье, натыкаешься на интересные вещи.

Дело в том, что при цитировании чужой статьи принято искать информацию о том, не опубликована ли она в каком-то рецензируемом venue - то есть, в журнале (нормальном, не arXiv), на конференции или в каком-нибудь сборнике. И если статья действительно опубликована в таком месте, то принято вставлять цитирование с указанием этого места, чтобы и авторам, и venue правильно засчитывались цитирования в тех наукометрических системах, где venue индексируется. Ну и плюс читателям в целом может быть интересно и полезно знать, на какой конференции был опубликован первоисточник.
Так вот, во время одного из таких поисков, я наткнулась на интересное обсуждение статьи про модель RoBERTa на OpenReview:

https://openreview.net/forum?id=SyxS0T4tvS

Из этого обсуждения выяснилось, что данную статью отвергли с конференции ICLR 2020 из-за недостатка новизны. 😅

Как сказал мета-ревьюер: "This paper conducts an extensive study of training BERT and shows that its performance can be improved significantly by choosing a better training setup (e.g., hyperparameters, objective functions). I think this paper clearly offers a better understanding of the importance of tuning a language model to get the best performance on downstream tasks. However, most of the findings are obvious (careful tuning helps, more data helps). I think the novelty and technical contributions are rather limited for a conference such as ICLR. These concerns are also shared by all the reviewers. The review scores are borderline, so I recommend to reject the paper."
Постфактум эта ситуация, конечно, выглядит парадоксально, учитывая, насколько большое распространение получила RoBERTa в NLP. Представление об её популярности и вкладе в область можно получить, даже просто взглянув на текущее количество цитирований препринта ( https://arxiv.org/abs/1907.11692 ): 8615.
А в 2020м, видимо, казалось, что это "еще одна никому не нужная вариация BERT, которая дает +0.0001% улучшения за счет банальных техник"... 🥹

P.S. Краткое пояснение для новичков, что такое OpenReview: OpenReview - открытая площадка, на которой можно видеть, какие рецензии (review) статья получила, когда ее подавали на конференцию или в журнал. Кроме того, после получения первых рецензий, на многих топовых конференциях устраивается так называемый Rebuttal - период, в который авторы могут ответить на претензии рецензентов, отраженных в их review. В этом случае, на OpenReview впоследствии можно будет увидеть целый диалог между авторами и рецензентами. Я часто читаю эти диалоги, когда хочу прояснить для себя непонятные моменты в каких-то статьях, потому что рецензенты тоже часто задают вопросы по непонятным местам, и по соответствующим ответам авторов можно лучше во всем разобраться.
В конце периода Rebuttal последний, самый главный рецензент (также называемый мета-ревьюером) высказывает окончательное мнение, основываясь на оценках и отзывах предыдущих рецензентов и их диалогах с авторами статьи, и принимает окончательное решение: принимать ли статью на конференцию или нет. Что мы и увидели в случае статьи про RoBERTa.
Мне нравится, что на OpenReview публикуются в открытую обсуждения статей со многих топовых конференций: ICLR, NeurIPS, EMNLP и других, а также с некоторых воркшопов. Это очень полезно, и немного жаль, что есть еще много конференций, которые все еще не используют OpenReview и не предоставляют возможность посмотреть обсуждения статей авторов с рецензентами.


#академический_ликбез

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Мы открываем набор на осенний семестр школы глубокого обучения Deep Learning School!

DLschool — это школа при ФПМИ МФТИ, где мы учим нейронным сетям с самых азов до продвинутого уровня. Полный курс состоит из двух частей, каждая из которых длится полгода.
- Первая часть посвящена введению в нейросети и компьютерному зрению. Начинаем с основ машинного обучения и нейросетей, переходим к CNN для обработки картинок, заканчиваем переносом стиля изображений и ГАНами.
- Вторая часть полностью посвящена обработке естественного языка (NLP) и обработке звука.

Сейчас идет набор на первую часть. О новостях второй части курса напишем отдельно (скоро).

Особенность нашей школы в том, что мы даем много практики (теория при этом тоже есть, разумеется, и немало). Вам предстоит много практических домашних заданий и самостоятельный итоговый проект в конце семестра. По окончании обучения вы точно получите нужные практические навыки работы с нейросетями. Больше информации об организации курса и подробную программу первой части можно найти тут.

Преподаватели школы — ведущие специалисты российских и зарубежных IT-компаний и научные сотрудники исследовательских лабораторий. Среди них — я (Таня), буду вести у вас несколько лекций про CV, сегментацию и архитектуры сетей =)

Школа бесплатная. Полностью онлайн: учиться можно из любой точки мира, где есть интернет. Занятия проходят раз в неделю — лекция, семинар и домашнее задание. Обучение проходит на платформе Stepik. Берем всех, отбора нет.
❗️Начиная с этого года также есть возможность приобрести дополнительный пакет, в который входит индивидуальная поддержка от менторов и преподавателей в прохождении курса, а также дополнительные вебинары. Подробнее о нем читайте на нашем сайте.

Занятия начинаются 16 сентября. Регистрация продлится до 23 сентября. Чтобы зарегистрироваться на курс, оставьте заявку на нашем сайте. После этого вам на почту придет письмо со ссылками на курс на Степике, на канал и чат в Телеграме (письмо может идти 15-20 минут).

Ссылки:
Наш сайт
Подробная программа и оргинформация первой части курса
Ответы на часто задаваемые вопросы (F.A.Q)
Наш YouTube (тут видео всех лекций и семинаров школы, а также открытые лекции и интервью)
Наша группа VK
Поддержать нашу школу на Boosty
❗️В этом году в организации школы произошли некоторые изменения по сравнению с предыдущими потоками. Подробнее о них читайте тут. Также хочется сказать, что мы за лето хорошо поработали над организацией, и теперь не будет задержек в выкладке материалов, проверке дз и решении других вопросов =)

Если остались вопросы, пишите нам на почту (dlphystech@gmail.com), в сообщения в группе VK или в комментарии под этим постом.
И ждем вас в чатике курса в новом семестре! =)

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Некоторые заинтересовавшие меня постеры с Interspeech 2023.
В комментариях выложу файлы без сжатия.

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Презентовали сегодня статью "Topological Data Analysis For Speech Processing"на конференции Interspeech вместе с коллегой и по совместительству главным автором Эдуардом. 💪
Пост с рассказом про саму статью:
/channel/tech_priestess/755
Ссылку на pdf постера помещу в комментарии.

#объяснения_статей

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Недавно (🐌) на конференции SmartDev2023 выступил мой бывший коллега Дима Абулханов с рассказом про 💫 StarCoder - open source LLM для генерации программного кода, которая вышла 4 месяца назад.
Оказывается, с тех пор возник целый ряд вариаций данной модели, наиболее заметные из которых перечислены на слайде №5 в приложенной презентации. Основной же акцент доклада сделан на подготовке данных для предобучения - на эту тему рассказано больше всего интересного.
Ближе к концу доклада речь зашла про оценку качества модели, и мне показалось очень любопытным, что StarCoder показал адекватные результаты не только на задачах, связанных с кодом, но и на общих задачах NLU (Natural Language Understanding), несмотря на то, что, как я поняла, в претрейн НЕ добавляли документы с естественными текстами на "общие" темы (наподобие веб-страниц, википедии или книг). Видимо, содержимого issues, комментариев в коде и пояснений в юпитер ноутбуках оказалось достаточным, чтобы модель начала потихоньку осваивать естественный язык.

Сам доклад можно посмотреть по этой ссылке:
https://front.sber.link/smartdev2023/iframe/5/ru
Он идет с момента от минус 2:55:30 до минус 2:12:10 (время в плеере отображается оставшееся до конца видоса). Кстати, здесь же можно посмотреть панельную дискуссию про LLM, рассказы про GigaChat (перед Димой), а также про Kandinsky, YandexGPT 2 и диффузионные модели (после Димы). Список докладчиков см. здесь - https://smartdev.ru/program.html в графе ML/AI.

Репозиторий модели на HuggingFace, с демонстрацией: https://huggingface.co/bigcode/starcoder
Статья (LaTeX'овские таблицы взяты из нее): https://arxiv.org/abs/2305.06161

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Дорогие читатели!
Сегодня я сделала шпаргалку по самым известным научным конференциям уровня A* (по CORE2023), связанным с машинным обучением. Большими сойджеками выделены конференции с более высоким h5-индексом в Google Scholar, а маленькими - с h5-индексом поменьше. Забирайте на стену, чтобы не забыть, куда подавать статьи, чтобы потом делать самое сойджековское лицо в своем офисе!

#ML_в_мемах

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Интересно, сколько таких рандомайзеров, о которых мы не знаем, программисты-Джокиры добавили в ПО с закрытым исходным кодом 🤡😎

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Нажми ссылку, чтобы понизить рейтинг канала и закрыть админу все дополнительные возможности!

Если ссылка не работает, установи самую старую версию приложения телеграм!

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Пять главных слов, которые мечтает прочитать каждая женщина 😍

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Итак, ШОК: Рис. 1. 😱 (d_90 изображен по оси Oy, а количество параметров модели - по оси Ox).

Из этого Рис. следует, что d_90 для больших моделей меньше, чем для маленьких. При чем меньше не только в относительной, но и в абсолютной величине! То есть, чем больше модель, тем меньшее по размерности подпространство достаточно дотюнить для того, чтобы получить хороший результат на MRPC.

***

На этом моменте я прерву обсуждение статьи и выскажу свои мысли.

Я лично вижу глубокую связь между тем, что изображено на Рис. 1, и такой уважаемой мистерией Бога Машины, как Двойной Спуск (Double Descent). Тем, кто еще не ознакомлен с этим явлением, настоятельно рекомендую ознакомиться по следующим ссылкам: https://mlu-explain.github.io/double-descent/ и https://mlu-explain.github.io/double-descent2/ . Ну а тем, кто уже знаком, дам краткое напоминание.
На целом ряде задач и моделей была замечена закономерность: при увеличении количества параметров модели ее функция ошибки на задаче сначала постепенно падает, потом резко возрастает, а потом падает еще сильнее. Эти два промежутка падения и зовут "двойным спуском" (они приблизительно изображены на Рис. 2).

Так вот, я предполагаю, что "контринтуитивный" второй спуск как-то связан с падением d_90. Хоть количество параметров модели формально и увеличивается, та функция, которую она выучивает при дообучении с предобученного состояния для решения downstream task, становится, наоборот, проще. И эта простота как раз и выражается в низком d_90 и позволяет получить хорошее обобщение. В этом контексте явление двойного спуска становится намного менее странным: хоть размерность пространства всех параметров формально и увеличивается, но размерность пространства реально нужных для данной задачи параметров, наоборот, уменьшается. То есть, двигаясь по оси Oy на рисунке 2 вправо, мы в каком-то смысле упрощаем модель, а не усложняем.

А знаете, с чем еще я вижу связь?

#объяснение_статей

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

А расскажите, какая последняя научная статья на тему анализа внутренних репрезентаций моделей машинного обучения вам больше всего понравилась (и при этом вы смогли её понять).
А то мне какая ни попадётся за последние две недели, так либо понятная, но неинтересная, либо интересная, но непонятная. 🤔

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Новый сезон Черного зеркала великолепен!

перевод:
Все мы пытаемся притворяться, что не видим бездомных, которые просят денег. Но с эпл вижн фильтрами больше не надо притворяться! Мы собрали все данные о бездомных - одежде, позе, даже запахе.
И теперь эпл вижн может опознать их на улице и отфильтровать.
Больше не надо притворяться, просто идите как обычно.
А с компактным форм фактором очков вы можете заниматься любой активностью - даже в спальне.

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Нашла интересный подкаст, в котором рассказывается про различные мошеннические схемы - не только про уже вызывающих зевоту "сотрудников безопасности Сбербанка", но и про многие другие, намного менее очевидные разводы. Уважение вызывают гости подкаста - люди, лично попавшиеся на эти схемы и пришедшие про это рассказать. Ведь вообще-то нужна смелость для того, чтобы рассказать о том, как тебя облапошили, преодолев страх того, что над тобой будут смеяться (вообще, как мне кажется, практика высмеивания жертв мошенничества является вредной, так как мешает пострадавшим людям свободно обмениваться опытом и предупреждать ещё не пострадавших).

Есть выпуск с рассказами про использование мошенниками нейросетевых технологий, а именно, дипфейков и клонирования голоса: https://music.yandex.ru/album/23032480/track/116056318 .
Так что если после прослушивания этого эпизода вы когда-нибудь увидите видео, в котором я предлагаю вложиться в новую, очень прибыльную и точно ни капельки не рисковую криптовалюту 🦻 , то сможете сделать соответствующие выводы. 🤡
Еще прикольно, что команда подкаста не поленилась и самостоятельно провела эксперимент по клонированию голоса ведущего, также рассказав об этом в выпуске. Правда, из-за того, что специалиста по Speech Processing у них в команде не было, результат получился "🥴", от чего они, как мне кажется, преуменьшили опасность данной технологии (в плане использования мошенниками). На самом деле можно сделать клонирование голоса на русском намного более хорошего качества, чем получилось у этих ребят, если хорошо разбираться в теме обработки речи.
Это демонстрируется, например, и всем известной историей с голосом Алёны Андроновой ( https://habr.com/ru/amp/publications/758172/ ), который вполне себе успешно используется в коммерческих целях (иронично, что она как раз судится по этому поводу с тем же самым банком Тинькофф, с которым аффилирован данный подкаст 😅 ).

Есть и другие интересные выпуски, например, про чудаковатые разводы в телеграм-каналах: https://music.yandex.ru/album/23032480/track/116851904 и у врачей: https://music.yandex.ru/album/23032480/track/116643169 . Сделаны выпуски качественно, увлекательно, так что буду слушать дальше по дороге на работу и мотать на ус.

#подкасты

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Все хотят найти себе айтишника, но не все понимают как — и чтобы решить эту проблему, Mamba провела исследование и опросила почти 1000 айтишников.

Теперь известны их предпочтения по цвету волос (более 30% предпочитают рыженьких!), телосложению и даже о темах, которые можно обсудить на первом свидании. Ну и красные флаги тоже теперь известны.

Mamba предлагает попробовать найти айтишника с новыми знаниями и даёт промокод на VIP-статус на две недели для всех новых пользователей.
Реклама АО "МАМБА" ИНН 7714548885

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Совпадение?!!
/channel/epsiloncorrect/101
/channel/lovedeathtransformers/6291

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

⬆️ Это одна из главных причин, по которой летом (и особенно в последнюю неделю) было не очень много постов на канале.

Мы прям серьезно взялись за структуризацию школы и улучшение организации, которая явно хромала. Этим летом, можно сказать, попробовала себя в роли менеджера. Ощущения смешанные. Иногда хотелось послать все к черту и пойти дальше спокойно читать статьи и писать рисерчерский говнокод ставить эксперименты. Но пересиливало то, что DLS я очень люблю и чувствую за него ответственность. Хотелось попробовать сделать школу еще лучше и приятнее для студентов. Наладить процессы так, чтобы они не были сильно завязаны на конкретных людей и не буксовали.

А еще иногда становилось почти страшно от ответственности за принимаемые решения и изменения. Да и прям сейчас страшно: запустили набор и смотрим, как все то, что сделали, будет работать. По ощущениям, мы таки справились (хоть и не без косяков и задержек), и сейчас должно быть явно намного лучше. Но посмотрим на практике)

При этом все эти процессы еще даалекоо не закончены, еще остается сделать уйму вещей. А казалось бы, просто онлайн-школа с лекциями там, семинарами и дзшками... Как же я ошибалась насчет многих вещей о сроках и пайплайне их реализации =/

Так что вот. Буду рада, если поделитесь анонсом набора с теми, кому учиться в DLS может быть интересно)

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

В прошлом семестре у нас был курс по питону. В него на стороне студентов ворвался ChatGPT. Написал небольшую довольно банальную заметку про то, что происходило на курсе и что с этим имеет смысл делать.

https://vas3k.club/post/19804/

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

А вот чего уж точно я не ожидала увидеть на научной конференции, так это говорящую аниме-голову... 💃
Жаль, ее речь была слишком тихой, и ничего не было слышно в шуме вокруг (everybody's talking, nobody listening! 😭 ).

Сайт создателей элестрической забавы: https://furhatrobotics.com/

Читать полностью…

Техножрица 👩‍💻👩‍🏫👩‍🔧

Увидела в аэропорту Стамбула очень любопытный плакат. Оказалось, что это не просто рандомная иллюстрация к маленькой экспозиции на научную тему, которая расположена неподалеку, а картинка сос мыслом: здесь изображён математик Аль-Хорезми, который вдохновляет своими открытиями Мариам Мирзахани на ее собственные математические достижения, как бы передавая эстафету сквозь века.

В русскоязычном интернете можно почитать несколько вариантов краткого пересказа биографии Мариам, например: https://mel.fm/zhizn/istorii/9041328-miriam-mirzakhani-pervaya-zhenshchina-poluchivshaya-premiyu-fildsa .
Про один из ее значимых научных результатов упомянуто, например, в лекции А.В. Зорича (сын того самого В.А. Зорича, который, к сожалению, недавно умер) про кривые на поверхностях: https://m.mathnet.ru/php/presentation.phtml?presentid=31034
Если знаете ещё что-то интересное про Мариам и Аль-Хорезми, чем хотелось бы поделиться, можно сделать это в комментариях.

#математика

Читать полностью…
Subscribe to a channel