Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n
Вышла статья, в которой доказали, что GPT 4.5 прошла тест Тьюринга
Сразу оговорка: может показаться, что языковые модели уже давно прошли Тьюринга и вообще этот тест устарел. Но на самом деле это первая работа, в которой показаны такие устойчивые результаты LM в классическом культовом трёхстороннем варианте теста, а не его суррогатах.
Что подразумевает трехсторонний вариант теста? Это значит, что в каждом эксперименте участвуют два человека и бот. Участник-интеррогатор получает в руки две параллельные переписки с человеком и ботом, 5 минут задает любые вопросы и использует любые стратегии, чтобы понять, где кто, а затем голосует. На картинке 3, кстати, показано, как именно чаще всего люди пытались выяснить правду.
Так вот, ученые из Сан-Диего протестировали GPT-4.5, LLaMa-3.1-405B, GPT-4o и старенькую классическую ELIZA. Им давали промпт "веди себя, как молодой интроверт, интересующийся интернет-культурой и активно использующий сленг".
Win Rate GPT-4.5 составил (внимание) 73%. Это значит, что в 3/4 случаев моделька "переигрывала" обоих людей и заставляла интеррогатора думать, что живой собеседник – это бот, а она – человек.
У ламы результат тоже ничего – 56%, но это все-такие ближе к случайной догадке. ELIZA выбила 23%, а GPT-4o и того меньше – 21%.
И как теперь админам ботов в комментариях ловить?
Заехал новый бенчмарк ArithmeticBench по математике
Точнее даже не по математике, а, как понятно из названия, по арифметике. Создатели – Epoch AI – пишут, что работали над ним с экспертами математиками, и в числе задач операции над 50-значными, 100-значными и даже 150-значными числами. Человеку на такое потребовались бы часы или даже дни.
Текущие скоры топовых моделей:
🟦 Gemini 2.5 – 8% на умножении
🟦 GPT-4.5 – 5% на сложении, но с делением все плохо
🟦 Claude 3.7 Sonnet – абсолютно мимо 🔤
x.com/EpochAIResearch/status/1907199415678578804
Как LLM выучивают факты: новое исследование от Google DeepMind
LLM обучают на огромных наборах данных и их задача проста – предсказывать следующий токен. Но при этом получается так, что в итоге они каким-то образом извлекают и структурируют фактическую информацию. Так как именно происходит этот процесс "сжатия" датасетов в знания?
В DeepMind написали об этом целую работу. Они взяли для обучения 6 выдуманных биографий и трекали, в какой момент моделька перейдет от простого правдоподобного повторения к приобретению фактических знаний.
Оказалось, что такое выучивание происходит циклично, в три вполне конкретных этапа:
➖ Сначала модель довольно быстро изучает общие закономерности данных, запоминает, какие даты, слова, названия и имена встречаются чаще. Но при этом она ещё не формирует связь между, например, человеком и его датой рождения, а просто тыкает "наугад" исходя из статистики текстов.
➖ Потом, внезапно, наступает долгий этап плато. Производительность стабилизируется, то есть кажется, что модель все еще не видит связей. Но на самом деле в этом время атеншн аллоцируется, и формируются особые схемы внимания (attention circuits), с помощью которых LMка выделяет ключевые элементы текста и начинает ассоциировать их между собой. Кстати, на этом же этапе начинают возникать галлюцинации.
➖ Ну и, наконец, фаза приобретения знаний. Тут происходит так называемый грокинг. Лосс очень быстро падает, и модель уже не опирается только на общую статистику, а способна воспроизводить точные факты.
И, кстати, это интересно не просто теоретически. Отсюда можно сделать массу практических выводов: например, теперь понятно, с чем связано катастрофическое забывание при интеграции новой даты.
arxiv.org/pdf/2503.21676
Figure AI снова показали, как их роботы трудятся на заводе BMW
Уточняем: это не тестовая среда внутри завода, а реальное производство. Интересно, что гуманоиды работают на BMW уже несколько месяцев, но раньше только таскали железки. А теперь вот уже какое-то подобие взаимодействия со станком.
Работяги 🧑🏭
Еще одна приятная новость от OpenAI: обновленная нативная генерация изображений наконец-то доступна всем бесплатным пользователям
Несмотря на то, что несколько дней к ряду сервера стартапа буквально умирали, фичу все-таки докатили на фри юзеров, как и обещали.
Возможно, так в компании "отпраздновали" закрытие нового раунда инвестиций. Они привлекли рекордные 40 миллиардов долларов при оценке в $300 миллиардов. Теперь OpenAI официально делит второе место в списке единорогов мира с ByteDance (300 млрд). Дороже них остался только SpaceX (350 млрд).
А еще, на секундочку, это крупнейший раунд финансирования за всю историю частных тех.компаний. Однако пока OpenAI получит только 10 миллиардов. Остальное должно поступить к концу года, но только при условии, что к тому моменту стартап все-таки станет коммерческой организацией.
Ладно, друзья, теперь серьезно: OpenAI (о чудо!) планирует выпустить опенсорсную модель
Последним опенсорсным релизом компании была GPT-2, это было 5 лет назад. И вот сейчас Альтман объявил, что стартап вновь выпустит что-то открытое.
Что конкретно это будет – неизвестно, но напоминаем, что чуть больше месяца назад Сэм проводил в X опрос о том, какой опенсорс хотели бы видеть пользователи. Варианты были такие: локальная модель, которую можно запустить на утюге, или модель уровня o3-mini, которая запускается на GPU. С небольшим отрывом тогда победила вторая.
Возвращаясь к новости: сейчас разаботчики могут подать заявку на фидбэк сессии, то есть прийти, попробовать раннюю версию и оставить обратную связь.
🍯 Hugging Face совместно с Unsloth AI выпустили гайд по тому, как быстро научить любую модельку ризонить
Недавно Hugging Face добавили в свой NLP курс раздел "Build Reasoning Models". Внутри – подробнейшие наглядные объяснения, как работает обучение с подкреплением, ризонинг, GRPO и почему все это так бустит модельки.
А сегодня туда докатили еще и колаб-ноутбуки с практическими туториалами. Это буквально пошаговая end-to-end инструкция по тому, как завезти GRPO для любой модельки и заставить ее думать.
Вот ссылка на тетрадку с примером на gemma-3-1b, а вот теория к ней. Есть еще вариант с SmolLM-135M-Instruct. Для первого знакомства – идеально.
Gemini 2.5 Pro набрала 118 баллов IQ
Это достаточно большой отрыв от предыдущих результатов: для сравнения, o1-pro набирает 110, Claude 3.7 – 107, o3-mini – 104, GPT-4.5 и o1 – 97. Средний результат человека – 100.
Вопросов из датасета нет в интернете (по крайней мере, так говорит создатель). Все тесты проводит единственный человек – журналист Максим Лотт. Кстати, он также занимается тем, что трекает политические предубеждения моделек. Выходит довольно интересно (картинка 3).
trackingai.org
Кажется, Llama-4 появилась на LMSYS Arena
На арене появились три новые модели под кодовыми названиями Spider, Cybele и Themis. Все они утверждают, что созданы компанией Meta AI и принадлежат к семейству Llama.
Ждем? 🔵
Там OpenAI тонет под тяжестью Ghibli генераций
Вчера Альтман написал, что команда почти не спит, чтобы серверы выдерживали натиск спроса, и напрямую попросил аудиторию остыть.
Можно подумать, что это был маркетинговый ход чтобы, наоборот, еще больше подогреть интерес. Но нет: сегодня новым пользователям временно ограничили возможность генерировать картиночки в SORA.
А еще Сэм заявил, что «AGI, возможно, появится быстрее, если вы перестанете грузить наши GPU генерациями» 🫠
Видимо деплоя на фри юзеров не видать еще долго
📌Пройдите тест из 9 вопросов и проверьте, насколько вы готовы к обучению на курсе «BI-аналитика» от OTUS.
Вы научитесь на курсе:
+ Визуализировать данные с помощью Power BI, Tableau и Analytic Workspace.
+ Создавать интерактивные дашборды и аналитические панели на Python в Dash, Numpy, Pandas, Matplotlib, Seaborn и Plotly.
+ Работать с Big Data и использовать решения с открытым исходным кодом в BI-аналитике.
+ Работать с DAX-формулами.
+ Обрабатывать и трансформировать данные в Power Query, создавать модели данных в Power Pivot.
🦉В честь дня рождения Отус, скидка 10% до 01.04
🎁Так же промо-код на курс «BI-аналитика» со скидкой 5% (суммируется на сайте):
BI_04 до 18.05. Успейте купить выгодно!
👉ПРОЙТИ ТЕСТ: https://otus.pw/REM9/?erid=2W5zFJNENTr
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
#реклама
О рекламодателе
Наткнулись на недавнее интервью Джеффри Хинтона, в котором он называет RLHF «кучкой дерьма»
RLHF на сегодняшний день – один из основных алгоритмов пост-трейнинга. Без него не обходится почти ни одна моделька + на RLHF строится почти любой элаймент.
Но нобелевский лауреат подход все равно недолюбливает и сравнивает его с покраской ржавой машины, которую вы хотите продать 🤷♂️🤷♂️🤷♂️
youtu.be/61BGgwN36Ps
Fun fact: в Meta вообще не используют термин AGI, на этом настаивает Ян Лекун
Дело в том, что AGI (Artificial General Intelligence) означает интеллект не хуже человеческого уровня. Лекун же говорит, что это определение не подходит, потому что на самом деле человеческий интеллект далеко не General.
Вместо этого ученый и его команда используют сокращение AMI – Advanced Machine Intelligence.
NVIDIA выпустила Project G-Assist для настройки и оптимизации игровых ПК
Ассистента анонсировали еще на Computex 2024, но только сейчас экспериментально раскатывают на пользователей. Пока это доступно только владельцам GeForce RTX, но вот что G-Assist может:
🟦Оптимизирует графику и системные настройки для игр или других целей
🟦Диагностирует систему и постоянно мониторит производительность
🟦Повышает эффективность GPU и поможет установить любой NVIDIA стафф
Все крутится на Llama 8В, так что ассистент не прожорливый и запускается локально. Ну и работает бесплатно, если вы уже владелец RTX с минимум 12 ГБ видеопамяти.
www.nvidia.com/en-us/geforce/news/g-assist-ai-companion-for-rtx-ai-pcs/
OpenAI официально запустили свою OpenAI Academy для всех
Помните, мы рассказывали, что OpenAI открывает OpenAI Academy для помощи ИИ-разработчикам и бизнесу в развивающихся регионах? Так вот теперь они расширились, и их курсы и вебинары стали доступны бесплатно абсолютно всем.
В основном это курсы по промпт-инжинерингу и тому, как использовать продукты OpenAI, но для разработчиков тоже что-то добавили.
Например, вот – курс с практическими уроками по дистилляции, файн-тюнингу, разворачиванию Realtime API и оркестрации мульти-агентных систем. А 8 апреля пройдет стрим про построение GraphRAG.
Стоит заглянуть, в общем: academy.openai.com
OpenAI тоже решили пошутить на 1 апреля и добавили в ChatGPT новый голос «Monday»
Звучит он буквально как утро без кофе: разбито, саркастично и немного пассивно-агрессивно.
Чтобы поболтать с понедельником, нужно обновить приложение. Доступно платным юзерам при выборе в сайд-баре, а бесплатным на боковой панели в разделе Explore GPTs.
Осторожно, можно случайно заработать депрессию ☠️
🍀 ML-щики за экологию: студенты ШАДа вместе с Yandex B2B Tech разработали модель, которую будут применять для организации очистки берегов водоемов
Она принимает на вход обычные аэрофотоснимки, а отдает карту с координатами расположения мусора, его составом (например, пластик, древесина, резина и тд) и весом. Точность классификации – выше 80%.
Модель уже протестировали в Южно-Камчатском заказнике. Там технология помогла ускорить уборку в 4 раза за счет быстрого и точного планирования. Сейчас сетку также применяют в Арктике, а затем планируют использовать и в других национальных парках.
А еще весь код выложили в опенсорс: вот репозиторий 🌿
Amazon показали собственного веб-агента Nova Act
На внутренних бенчмарках компании (?) по показателям управления текстом и визуальными элементами сайтов он обходит Sonnet 3.7 и Computer Use OpenAI. Особенно они подчеркивают свой фокус на надежности использования.
Самим агентом воспользоваться пока нельзя, но Amazon открывают ричерч-превью в виде библиотеки Nova Act SDK, и вот это интересно. Либа дает возможность бить процессы на атомарные команды и именно таким образом выстраивать работу агента.
При этом к каждому этапу можно дописать "заметки" (типа "при входе на сайт не принимай куки"), прикрутить дополнительные APIшки, вставить тесты, распараллеливание и др.
Примеры | Документация | Блогпост
⚡️ MTS AI выпустила новую версию корпоративной LLM – Cotype Pro 2
Новая модель вошла в пятерку лучших русскоязычных LLM в бенчмарке MERA. Она адаптирована под более чем 100 бизнес-сценариев по таким направлениям, как взаимодействие с клиентами, поддержка HR-функции, аналитика данных, маркетинг, финансовая отчетность и проверка документации. При этом модель может быть развернута в закрытом контуре компании без внешних API.
Ключевые апгрейды:
+40% к скорости;
+50% к точности при обработке длинных текстов до 128K токенов.
Также Cotype Pro 2 продемонстрировала улучшенные результаты в решении основных задач: генерация идей (+13%), креативное письмо (+4%), суммаризация (+6%), чаты (+9%), извлечение информации (+5%). Точность в задачах классификации остается на высоком уровне - 87%.
Перед релизом модель прошла трехмесячное тестирование в реальных условиях: в банковской сфере она использовалась для категоризации клиентских обращений в службу поддержки, а в сервисе продажи билетов MTS Live — для генерации описаний мероприятий.
"Cotype Pro 2 можно считать первым шагом MTS AI к корпоративному агентскому ИИ. Эта модель станет основой для линейки ИИ-помощников и ИИ-агентов для госсектора, банков, промышленности, ритейла, телекома, медицины и IT", – сообщают разработчики.Читать полностью…
⚡️ Сэм Альтман купил DeepSeek
Сегодня ночью основатель OpenAI Сэм Альтман официально объявил о покупке стартапа DeepSeek и написал в своем Твиттере следующее:
«Мы очень ценим вклад DeepSeek в развитие open-source и обещаем сохранить традиции открытости. Поэтому теперь все их модели доступны в ChatGPT по нашей новой подписке Pro++ за 1500$ в месяц»
Многообещающе: к 2028 Авито планируют сделать из своей платформы монолитного интеллектуального ассистента и заработать на этом 21 миллиард рублей
За три года компания вложит в ИИ-технологии 12 миллиардов и планирует получить с этого более 21 миллиарда выручки. При этом часть денег также пойдет на образовательные программы в коллабе с вузами.
Интересно, что изначально Авито расчитывали на окупаемость 5 лет, но внезапно в 2024 у них уже появился реальный экономический эффект от внедрения первых ИИ-функций – 670 млн рублей. Теперь на 2025 запланирована реализация еще 20 новых сценариев использования.
В том числе в компании уже показали собственное семейство генеративных моделей – текстовую A-Vibe и мультимодальную А-Vision. Они обучены на базе Qwen2.5 7В с использованием более 10 терабайт данных. А еще инженеры прикрутили собственный токенизатор – и это помогло ускорить инференс в 2 раза.
Модельки помогут писать продающие тексты-описания, отвечать на вопросы о товаре, суммаризировать отзывы и многое другое. Потенциал домена действительно огромный.
P.S. Если хотите понять, как именно ИИ работает и приносит деньги в e-comm, почитайте нашу авторскую статью про ML в Авито: там много интересных тех. подробностей про LLM, рекомендашки и монетизацию.
🚀Прими участие в ML Cup 2025 от Авито и выиграй 1,2 миллиона рублей!
Ты — специалист в области машинного обучения? Хочешь проверить свои силы в реальных задачах, с которыми ежедневно сталкиваются 1000+ специалистов Авито? Тогда не упусти шанс стать частью крупнейшего соревнования в этой области!
Что тебя ждет:
☑️Денежный призовой фонд
☑️Автоматизированная оценка решений
☑️2 практические задачи:
1️⃣Персональные рекомендации — предскажи, какие товары вызовут интерес у миллионов пользователей → ссылка на регистрацию.
2️⃣Поиск дублей — как с помощью CV находить похожие объявления даже при разных текстах и ракурсах фото → ссылка на регистрацию.
Выбирай одну или обе задачи, показывай лучшие результаты и получай шанс на победу! Участвовать можно как индивидуально, так и в команде до 4 человек. Загружай до 5 решений в день.
Регистрация уже открыта! Подробности и анкета по ссылкам выше.
Яндекс выложил в опенсорс Instruct-версию YandexGPT 5 Lite и упростил лицензию
До этого (с февраля) была доступна только Pretrain-модель, то есть та, которую не тюнили выполнять задачи, а только предобучили на большом корпусе данных. Instruct-модели дополнительно к этому обучают следовать инструкциям и элайнят, поэтому они умеют выполнять конкретные задачи по промпту. На HF выкладывали инстракт- и квантизованные версии, которые алайнили в сообществе.
Свежие веса вот здесь.Размер 8B, контекст 32к, есть GGUF и совместимость с llama.cpp, так что можно запросто погонять локально. По сравнению с предыдущей моделькой особенно большой скачок в кодинге и математике.
На бенчмарках бьет Qwen2.5-7B-Instruct и уже находится примерно на уровне с GPT-4o Mini в решении стандартных задач Яндекса. На русском языке и разметке текстов показывает себя даже лучше, а в Side by Side выигрывает в 62% случаев.
А еще обновилась лицензия, и теперь обе версии открытой модели можно можно использовать в коммерческих целях, если объём выходных токенов не превышает 10 млн в месяц.
xAI поглотил X или история о том, как Илон Маск будет платить долги Твиттера деньгами ИИ-инвесторов
Поехали разбираться:
➖ Маск купил Твиттер за 44$ млрд два с половиной года назад, но за это время оценка компании успела сильно упасть. В какой-то момент сообщалась, что она стоит менее 10 млрд. Но после инагурации Трампа оценка снова выросла, потому что платформа стала "более влиятельной".
➖ Маск сообщил о поглощении в эту субботу и написал, что X при покупке оценили в в 33 миллиарда (45 - долги 12 млрд). При этом он также сообщил, что xAI теперь стоит 80 миллиардов. Это почти в два раза больше, чем в декабре: тогда озвучивалась сумма в 45 миллиардов.
➖ Итого уже получаем высокую (и, что важно, фактически доказанную сделкой) стоимость X + подорожание xAI + вероятно более широкий доступ xAI к данным X. И это все, можно сказать, бесплатно: покупка была полностью оплачена акциями.
➖ Интересно, что пишет WSJ: "Руководители обеих компаний посчитали, что будет проще привлекать деньги для объединенной компании". То есть теперь Маск будет получать больше инвестиций на мощный ИИ с огромным доступом к данным X, но тратить эти деньги сможет на покрытие долгов соцсети.
Это не первый случай стирания границ между компаниями Маска. На самом деле, у него уже даже были юридические проблемы на этой почве. Посмотрим, чем все закончится в этот раз.
Google сделали свою новую модель Gemini 2.5 Pro бесплатной
Теперь она доступна абсолютно всем юзерам. Все что нужно – аккаунт Google 🥳
Напоминаем, что сейчас Gemini 2.5 Pro занимает первое место во всех номинациях на арене (с отрывом), бьет на кодинге o1, o3-mini и Sonnet 3.7. А еще она мультимодальная и контекст у нее – миллион (!) токенов.
Пробуем: gemini.google.com
Всплыли некоторые подробности увольнения Сэма Альтмана осенью 2023 года
The Wall Street Journal выпустил статью-отрывок из будущей книги “The Optimist: Sam Altman, OpenAI, and the Race to Invent the Future”, в которой раскрыли некоторые подробности событий ноября 2023.
Оказалось, что Сэм несколько раз лгал и недоговаривал совету директоров:
➖ Однажды при обсуждении новой модели GPT-4 он солгал, что она прошла проверку безопасности. После перепроверки оказалось, что это не так.
➖ Тестирование GPT-4 на пользователях также началось без ведома директоров.
➖ В другой раз он сказал Мире Мурати, что юридический отдел подтвердил, что GPT-4 Turbo не нужно пропускать через тест безопасности в Microsoft. В последствие главный юрист компании отрицал это.
➖ Ну и вишенка: хотя Альтман не владел никакими акциями OpenAI (помните вот это "I do It because I love It"?), оказалось, что ему тайно принадлежал инвестиционный фонд OpenAI Startup Fund. Сэм утверждал, что прибыли тот не несет, но все равно зачем-то скрывал факт владения от совета.
А еще выяснилось, что помимо Ильи Суцкевера, руку к увольнению Альтмана непосредственно приложила Мира Мурати. Они с Ильей вместе собирали документальные доказательства лжи и токсичности Альтмана и Грега Брокмана. На том же совете, на котором решили уволить Сэма, Миру назначили новым временным CEO.
Это забавно, потому что именно Мира сразу после увольнения Альтмана сделала вид, что она не в курсе "заговора" и возглавила протест сотрудников против увольнения Сэма. Она вместе с 95% сотрудников (и Суцкевером в том числе) подписала петицию с угрозой массового увольнения. Именно поэтому Альтмана восстановили.
Вот такая вот кремниевая игра престолов 👀
P.S. Сама статья WSJ платная, но бесплатное зеркало есть тут, так что можете легко прочитать полностью
Парень попросил gpt-4o сгенерировать первую страницу его самой нелюбимой статьи и получил шапку «Attention is all you need»
На этом все.
Облачные технологии — ключ к эффективному AI
Это логично — облачные технологии упрощают доступ к сервисам для работы с big data и делают инструменты для ML-разработки и создания AI-агентов доступнее.
Как использовать эти возможности на практике? Эти вопросы все чаще поднимаются в профессиональном сообществе — например, на профильных конференциях. 10 апреля на GoCloud – ежегодной конференции провайдера облачных и AI-технологий Cloud․ru, судя по заявленной программе, можно будет узнать много нового о практическом применении AI и как оптимально настроить работу ML-инженера в облаке.
Программа насыщенная: помимо AI, будет еще два трека «Инфраструктура и сервисы» – про новые возможности Cloud․ru Evolution, а также «Сценарии работы в облаке», где спикеры поделятся опытом применения облачных технологий.