data_secrets | Unsorted

Telegram-канал data_secrets - Data Secrets

78470

Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n

Subscribe to a channel

Data Secrets

За последние два года OpenAI потеряла половину своей доли enterprise рынка

Menlo опубликовали свой ежегодный отчет об ИИ-рынке. Они насчитали, что с 2023 доля OpenAI на рынке LLM API драматично упала с 50 до 27 процентов.

В лидеры сейчас выбились Anthropic, у них 40% рынка (хотя в 2023 было почти в три раза меньше). Дальше OpenAI со своими оставшимися 27%, и на третьем месте Google (~21).

🔵

Читать полностью…

Data Secrets

Развернуть PostgreSQL в MWS Cloud Platform ⬜️ — быстрее, чем вспомнить пароль от pgAdmin. И точно быстрее, чем объяснить DevOps'у, зачем ещё одна база.

Всего несколько минут и у вас:

⏺️готовая база на сетевых или локальных дисках
⏺️постоянный primary endpoint
⏺️безопасное подключение через Private Link
⏺️автоматические бэкапы и обслуживания по твоему расписанию


🎄🎁 И грант до 10 000 ₽ на запуск — чтобы точно не пришлось вспоминать, как настраивать failover вручную.

➡️Развернуть кластер

Читать полностью…

Data Secrets

J'son & Partners показали свежее исследование, где сравнивают, как разные страны готовят будущих ML-инженеров. Главная проблема – спрос на ИИ-спецов везде растёт быстрее, чем универы успевают адаптироваться😳

Каждая страна выкручивается по-своему.

Например, в Китае всё максимально централизовано. Государство задаёт жёсткие требования к программам и масштабирует их на всю систему образования.

В Штатах, наоборот, рулят университеты. Они автономны, сильны в исследованиях и сами пересобирают свои программы под рынок. Красиво, но есть нюансы: обучение дорогое, а выпускники часто получают очень разнородные компетенции.

В России ИИ-образование строят на стыке вузов и бигтехов – компании участвуют в запуске бакалавриатов и магистратур. Причем делают это давно: яндексовский ШАД, например, готовит ML-щиков с 2007 года и его курсы легли в основу ряда программ в МФТИ, ИТМО, Вышке и других университетах.

Помимо этого, бигтехи участвуют и в процессе обучения: практикующие инженеры приходят преподавать на IT-программы. И вряд ли для них это про доп заработок, скорее про то, чтобы внести свой вклад в новое поколение ML-инженеров.

Такая вот модель – аналитики говорят, вполне устойчивая в долгосроке.

Читать полностью…

Data Secrets

Сэм Альтман про конкуренцию с Google*

В 2023 году Google могла бы легко снести OpenAI, если бы компания отнеслась к стартапу серьезно и сфокусировалась на ИИ. Сейчас им сложнее наверстать упущенное.

Дистрибуция Google колоссальна, но по качеству продукта и скорости эволюции OpenAI, как считает Альтман, может выиграть.

Он называет бизнес-модель Google лучшей во всей технологической индустрии, но именно из‑за этого, по его словам, им трудно отказаться от классического поиска с рекламой ради радикально нового AI‑продукта. OpenAI же, грубо говоря, нечего терять.

Google остается главным и очень опасным конкурентом. OpenAI, чтобы не отстать, планируют «строительство полноразмерной AI‑платформы, включающей модели + инфраструктуру + устройства/интерфейсы».

*из нового подкаста youtu.be/2P27Ef-LLuQ

Читать полностью…

Data Secrets

ARC-AGI 2, фактически, можно признавать решенным: система от стартапа Poetiq выбила ~75%

Про подход этих ребят мы уже писали тут. У них нет своих моделей, они берут сильные базовые (в этом случае GPT-5.2) и с помощью специального пайплайна бустят их производительность.

То есть это, фактически, просто test-time надстройка над GPT-5.2: цикл с генерацией гипотез, самопроверками, программным поиском и тд.

Но в то время, как оригинальная GPT-5.2 выбивает около 60%, здесь результат на 15 процентных пунктов выше. Это первая система, которая настолько уверенно обходит на ARC-AGI-2 уровень среднего человека.

Стоимость, кстати, остается при этом в рамках +-адекватной нормы: 8 долларов на задачу.

Код от Poetiq

Читать полностью…

Data Secrets

POV: ИИ-компании смотрят на те самые 300ТБ Spotify треков на Anna’s Archive

Читать полностью…

Data Secrets

Подвезли свежие подробности о стартапе Яна Лекуна

Напоминаем, что ученый спустя 12 лет работы уходит из Meta и собирается строить собственный стартап.

Компания будет заниматься разработкой world models, то есть систем, которые понимают физический мир, обладают постоянной памятью, могут рассуждать и планировать сложные действия. Лекун обещает, что это будет следующая ИИ-революция.

Так вот, стало известно, что компания будет называться Advanced Machine Intelligence (AMI Labs), и что CEO в ней станет Алекс ЛеБрун.

ЛеБрун ранее работал в Nuance (основа Siri), затем руководил AI в Facebook, а потом в 2018 основал и возглавил Nabla – AI-стартап по медицинской транскрипции. Теперь Nabla будет сотрудничать с AMI Labs, а Алекс займет пост генерального директора. Сам Лекун будет Executive Chairman.

Кроме того, появились некоторые детали касательно финансирования: сейчас стартап ищет €500 млн инвестиций (около $586 млн) при оценке в €3 млрд (около $3,5 млрд).

Да, вы не ослышались, компанию оценили в три миллиарда евро еще до запуска.

Официальный старт проекта, кстати, запланирован на январь.

Читать полностью…

Data Secrets

Avocado и Mango: две новые модельки от Meta*

Появился слух, что компания разрабатывает и в ближайшем будущем планирует выпускать новую сильную LLM (Avocado) и image/video модель (Mango). Об этом рассказал Александр Ван.

К сожалению, по предварительной информации, обе модельки будут закрытые. Видимо, вместе с уходом Лекуна кончается и опенсорсная эра Meta.

Жалко, конечно. Ну надеемся, что хотя бы уровень моделей будет достойный. Не зря же Цукерберг 100500 миллиардов спустил на хантинг.

Читать полностью…

Data Secrets

Новый вайб-проект от Андрея Карпаты: проверяем, какие предсказания из 2015 сбылись

Исследователь провел маленький, но очень занятный эксперимент. Он взял 930 фронтпейдж-тредов Hacker News за декабрь 2015 года (посты + комментарии) и прогнал их через GPT-5.1 Thinking с задачей «оценить задним числом и определить, какие прогнозы были наиболее правдивыми».

В итоге 3 часа вайбкодинга, 60 долларов и вуаля: получилась система, которая ранжирует прогнозы по правдивости, исходя из того, что происходит спустя 10 лет.

Кому интересно, посмотреть результаты можно здесь, местами очень забавно.

Но проект, вообще-то, интересен еще и с теоретической точки зрения. Как пишет и сам автор, такой In-hindsight анализ = инструмент обучения предсказательному мышлению.

Если LLM может систематически разбирать, почему одни прогнозы переживают 10 лет, а другие нет, то это можно использовать для обучения моделей самостоятельно предсказывать будущее.

Тогда получается, что каждый ваш (или чей-то еще) коммент или пост в интернете – это своего рода future-labeled sample, у которого спустя время появится «правильный ответ», сбылось/не сбылось/было чушью. А какая-нибудь будущая модель, увидев много-много таких обучающих сигналов, научится надежно понимать, как приходить к статистически сбывающимся предсказаниям и тогда… 🤯

Ну, в общем, как когда-то сказал Карпаты:
Be good. Future LLMs are watching.

Код | Блогпост

Читать полностью…

Data Secrets

🖥🖥🖥🖥🖥🖥🖥🖥🖥🖥

🖥🖥🖥🖥🖥🖥🖥🖥🖥
🖥🖥🖥🖥🖥🖥🖥🖥🖥

Ваш путеводитель по ИТ


Каждый разработчик знает
ощущение, когда в проекте
накапливается техдолг, а
автотесты начинают жить
своей жизнью. В такие моменты
могут помочь кейсы от коллег
по цеху: как допилить CI/CD, как
сэкономить время на фиче или
как спасти продукт в кризисное
время.

Именно такие истории
регулярно появляются в МТС
True Tech
вместе с разбором
технологий и подборками
инструментов.

А еще у сообщества есть офлайн
и онлайн-мероприятия. Совсем
недавно прошел True Tech
Champ — чемпионат по
алгоритмическому
и робототехническому
программированию с призовым
фондом более 10 млн рублей.
Анонсы следующих событий вы
сможете найти также в
@truetechcommunity, там проще
всего за ними следить.

🖥🖥🖥🖥

Реклама. ООО "МТС Веб Сервисы".
ИНН 7707767501. Erid: 2W5zFHYZSek

Читать полностью…

Data Secrets

Пища для размышлений вам на вечер: Ян Лекун заявил, что понятия «general intelligence» вообще не существует

Обычно этот термин употребляют, чтобы обозначить человеческий уровень интеллекта, но, по его словам, человеческий интеллект очень узкоспециализирован. Мы хорошо ориентируемся в мире и общаемся, но есть много вещей, в которых мы плохи (например, шахматы) и вещей, в которых животные лучше нас.

«Мы думаем о самих себе как об общем интеллекте, но это только иллюзия. Наш интеллект общий только в тех задачах, которые мы можем придумать, но есть много задач, о которых мы и понятия не имеем. Так что general intelligence полная чушь.»


Этот отрывок вызвал много споров в соцсетях. Например, Hunter Ash комментирует это так:

«Если Ян может рассуждать об интеллекте в целом, то он уже представить общего интеллекта, а не узкоспециализированного. Да, в шахматах мы хуже компьютеров, но мы можем играть в любые игры и понимать, почему та или иная стратегия хуже или лучше (неважно, насколько хорошо мы это делаем). Конечно, есть пределы, но в широком смысле это и есть универсальность интеллекта»


Илон Маск тоже оказался несогласен с мнением Лекуна, но сильно в аргументах не рассыпался: просто написал, что ученый «давно выжил из ума» ✌️

Читать полностью…

Data Secrets

Пока ждем Gemma 3 и Gemini 3 Flash – принимаем пасхалки от OpenAI (теперь в лист ожидания попадает еще и новая image моделька)

Читать полностью…

Data Secrets

Крах OpenAI и нормальный Siri: смотрим, что журналисты напредсказывали на 2026

Декабрь любим в первую очередь за всевозможные «итоги года» и прогнозы. Почти никогда они не сбываются, но читать все равно интересно.

У The Verge совместно с The Wall Street Journal как раз вышел подкаст с гаданием на судьбу тех.индустрии в 2026.

Что говорят:

– У Apple в 2026 наконец появится нормальный голосовой ассистент, причем (почему-то) с акцентом на эмпатию и «душевное» общение. Но как бы там ни было, если и в 2026 Apple с ИИ ничего не придумают, то земля им пухом.

– OpenAI перестанет быть доминирующим игроком, если все останется в текущем виде. Бизнес-модель типа ChatGPT сама по себе не окупает объем привлеченных денег, так что шансы остаться на плаву у стартапа есть только если вокруг их продукта появится некая экосистема или гаджет. Спорное заявление, конечно, но, с другой стороны, последние события показывают, что какие-то изменения компании действительно нужны.

– Поворотная точка произойдет в восприятии автономного транспорта и роботов. Будет либо «ну ок, это работает», либо усиление недоверия из-за инцидентов. Тут есть ощущение, что немного забежали вперед: кажется, что массовым использованием роботов и беспилотных авто в 2026 все еще не пахнет.

– ИИ-слоп достигнет апогея, и соцсети спасут только новые механизмы рекомендаций. Вот это похоже на правду больше всего.

А ваши прогнозы на 2026?

Читать полностью…

Data Secrets

Google понемногу двигаются к тому, чтобы обучать роботов с помощью ИИ-моделей мира

Они выпустили статью, в которой сделали первый большой шаг к соединению Veo и робототехники. Это пока не про полноценное обучение роботов в ИИ-симуляции (не обольщаемся), но результаты все равно интересные и важные.

Кратко: у исследователей получилось научить Veo-2 предсказывать, что конкретно будет видеть робот, совершая те или иные действия.

Они взяли базовую Veo-2 и дотюнили ее по первому кадру + действиям робота генерировать будущие согласованные кадры с его 4 камер. Это называется action-conditioned rollout и, по сути, позволяет недорого и безопасно оценивать политику робота с помощью одной только world модели.

Полученный дотюн, кстати, красиво назвали Veo (Robotics).

Чем это круче, чем обычная симуляция?

Строгие физические симуляторы работают хорошо, если ситуация простая и предсказумая. ИИ-симуляцию можно масштабировать на нетривиальные миры. Более того, каждый объект в физ.симуляторе требует четких ассетов и ручной настройки + больших вычислений. Сильно далеко на таком не уедешь. А тут – добавляй новые предметы и кейсы сколько хочешь, достаточно промт написать или отредактировать начальный кадр с помощью Nano Banana.

Конечно, есть и минусы. В основном они касаются качества моделирования строгой, в особенности мелкой, физики. Но тут еще все впереди.

По сути: Google научились довольно сносно (см последний график) эвалить политику робота с помощью Veo. Добавь обновление политики, и уже получишь обучение с подкреплением. Пока что этого не делают сознательно, опять же из-за недостаточной точности World model. Но еще раз: шаг большой.

https://www.alphaxiv.org/abs/2512.10675

Читать полностью…

Data Secrets

Самый крутой скачок GPT-5.2 произошел, пожалуй, на ARC-AGI

На ARC-AGI 1 модель достала 86.2% (GPT-5.1 берет 72.8%, Gemini 3 Pro – 75). Это серьезный рост.

При этом GPT-5.2 Pro с повышенным уровнем ризонинга X-High скорит уже 90.5% при стоимости $11.64/задачу. Всего год назад сотой считалась нерелизнутая o3-High с результатом 88% и $4.5k/задачу. Это означает, что за год эффективность выросла в 390 раз.

На ARC-AGI 2 все еще интереснее. Там скачок произошел с 17.6 до 52.9%! Самый близкий по скору конкурент – Claude Opus 4.5 – выбивает всего 37.6%. Просто напоминаем, что между релизами GPT-5.1 и 5.2 прошел месяц 😐

GPT 5.2 Pro X-High точно скорит еще больше, но организаторы бенчмарка пишут, что пока не смогли достоверно проверить ее результаты из-за API timeouts. Средний уровень человека на ARC-AGI 2 – около 60%. Интересно, побьет ли.

Читать полностью…

Data Secrets

Вот вам новогодняя открытка в честь последней пятницы в году

Читать полностью…

Data Secrets

OpenAI завезли новогоднего настроения: они выпустили новую версию Codex под названием GPT-5.2-Codex-XMas

По качеству это ровно та же самая GPT-5.2-Codex (к сожалению), но личность модели выкручена в соответствии с сезоном. Так что кто хочет покодить с Санта Кодексом – вперед, модельку уже раскатили 🎄

$ codex -m gpt-5.2-codex-xmas

Читать полностью…

Data Secrets

Приятно: Anthropic удвоили все лимиты в платных тарифах на время праздников 🎁

Читать полностью…

Data Secrets

«Плотность ИИ на гигабайт в Tesla на порядок выше, чем где бы то ни было» – Илон Маск

Так он прокомментировал твит Андрея Карпаты о том, что Tesla и Waymo сейчас находятся примерно на одном уровне.

Понимание Андрея устарело на данный момент. Программное обеспечение Tesla AI значительно продвинулось со времен, когда он ушел.


Кстати, еще год назад Андрей говорил, что у Tesla проблемы с ПО, и прошивка Waymo побеждает.

Напоминаем, что между двумя производителями существует принципиальная разница:

Waymo – это модульная система: она опирается на HD‑карты, лидары, датчики, 5G‑связь и множество нейросетей. Это работает хорошо и очень надежно, но только если какой-нибудь модуль случайно не откажет.

Tesla – это end‑to‑end: один огромный нейросетевой блок напрямую преобразует пиксели с камер в команды руления и торможения.

Читать полностью…

Data Secrets

Google релизнули новую версию своего «LLM-микроскопа» – Gemma Scope 2

Это модель, а точнее набор инструментов (interpretability tools), предназначенный для интерпретации поведения LLM. В частности, из семейства Gemma 3.

Работает Scope на основе SAE – это разреженные автоэнкодеры. Они представляют из себя модели, которые распутывают активации LLM и достают из них интерпретируемые концепции. Их называют «фичи»: это могут быть вещи из реального мира (мосты, коровы) или абстракции (ложь, отзывчивость).

По сути, анализируя эти фичи, мы можем видеть, о чем на самом деле думала модель, генерируя тот или иной output. Например, она генерирует с виду безобидный код, но «думает» о концепции «кибератака». И это о чем-то нам говорит.

SAE, кстати, еще в 2023 предложили использовать Anthropic (вот наш разбор их статьи, которая сделала подход популярным). Но именно Google вывели автоэнкодеры на уровень продакшена. Сейчас это, фактически, первый и единственный открытый инструмент для вот такой детальной интерпретации LLM.

Первая версия Scope вышла в 2024. Тогда это работало только для небольших моделей и простых запросов. Теперь же подход масштабировали даже для модели на 27B.

Плюс, теперь инструмент стал более универсальным. Если оригинальная Scope существовала только для ограниченного числа слоев, то теперь можно целиком анализировать сложные диалоговые механизмы.

Судя по статье, в основном это получилось благодаря добавлению в модель Skip-transcoders и Cross-layer transcoders. Это модули, которые помогают увидеть связи между отдаленными слоями и облегчают анализ распределенных вычислений. А еще, кстати, SAE обучали по методу матрешки, как Gemma 3n (мы писали про этот метод вот тут).

Если хотите попробовать и покопаться в мыслях у моделей:
здесь все необходимые веса
здесь полезный Colab ноутбук с готовым кодом
здесь техотчет, а вот тут хорошая понятная документация

Читать полностью…

Data Secrets

Бывший Head of Deep Learning Engineering в DeepMind Дэвид Бадден внезапно заявил, что он решит проблему Навье-Стокса до конца года

Напоминаем, что это одна из проблем тысячелетия и, кстати, именно та задача, над которой Google совместно с ведущими математиками мира и ИИ бьются уже несколько лет (подробнее о сути задачи и о подвижках гугла писали тут).

Так вот: вчера Бадден выложил черновик доказательства в Lean и скрин документа, подтверждающего его спор с Маркусом Хаттером на то, что в течение оставшегося 2025 он выложит на архив полноценное доказательство проблемы.

Поспорили, ни много ни мало, на 10 тысяч долларов. Кстати, если Дэвид все-таки выиграет (???), он получит за решение еще и миллион долларов от Clay Mathematics Institute.

На Manifold, кстати, люди уже активно ставят ставки на этот спор. Пока 97% депают против Дэвида 😔

Читать полностью…

Data Secrets

А помните эксперимент Anthropic, в котором они дали Claude управлять мини-магазином в их офисе?

У истории вышло продолжение.

Контекст: летом антропики поставили Claude полностью автономно управлять вендинговым автоматом в офисе. Он занимался ценообразованием, заказывал поставки, общался с клиентами. Ему дали доступ к email, к Slack, к заметкам, к браузеру и изменению цен в автомате. Целью было радовать покупателей и максимизировать прибыль.

Сначала все шло хорошо, но в итоге бот ушел в жесткий минус, начал заказывать вольфрамовые кубики и в целом немного сошел с ума. Подробнее о том, что произошло, мы писали тут.

Но Anthropic молодцы, они не сдались и продолжили эксперимент. В итоге теперь ИИ управляет уже тремя автоматами в Нью-Йорке, Сан-Франциско и Лондоне, и почти не уходит в отрицательное сальдо.

Что изменили:

1. Добавили CRM систему и доп утилиты типа Google форм с обратной связью.

2. Добавили еще двух агентов: агента-босса, который ставит цели и условные KPI и дисциплинирует Claude, и агента-помощника, который специализируется на сувенирной продукции.

3. Банально перешли к более новым моделям.

И да, иногда агенты все еще ведут себя странно. Например, агент-CEO и агент-продавец иногда ни с того ни с сего начинают философствовать, а не заниматься делом (все, как в жизни). И обычные ошибки и галлюцинации тоже еще присутствуют.

НО всего за пол года проект превратился из мемной истории про горе-бота во вполне рабочее решение, которое гипотетически даже можно продавать.

Короче, будьте как Anthropic, не сдавайтесь ✌️

https://www.anthropic.com/research/project-vend-2

Читать полностью…

Data Secrets

​Вышел YaC 2025 AI Edition — в этот раз Яндекс сделал фокус на ИИ, который работает не только в экранах, но и за их пределами.

Автономный транспорт здесь самый показательный пример: ИИ принимает решения в реальной среде, где на кону безопасность.

Автономные грузовики и роботы-доставщики — это проверка ИИ как инженерной системы. Сенсоры, лидары, вычисления на борту, работа с неопределённостью, длительный пробег в реальных условиях. Такие системы либо выдерживают нагрузку, либо нет — промежуточных состояний почти не бывает. Один из автономных грузовиков Яндекса, к примеру, прошел более 500 000 км.

Если смотреть шире, Physical AI — это следующий уровень конкуренции компаний. Не у кого лучше модель, а у кого она встроена в реальные процессы: доставку, перевозки, городскую среду. И здесь входной билет измеряется не скоростью релиза, а глубиной инженерной школы.

Кому интересно, как выглядит этот сдвиг на практике — от автономных грузовиков до роверов нового поколения — YaC AI Edition уже доступен на Кинопоиске, VK Видео и YouTube.

Читать полностью…

Data Secrets

Так, ну что, теперь очередь инвестировать в OpenAI добралась до Amazon

По итогам ранних переговоров, компания вложит в стартап 10 миллиардов долларов. Если все пойдет по плану, сделка добьет оценку OpenAI до 500 миллиардов.

Договор точно будет предполагать поставку OpenAI чипов Trainium и аренду дополнительных мощностей в AWS. Будут ли непосредственно финансовые вложения – пока непонятно.

Читать полностью…

Data Secrets

В 2026 Nvidia сократит выпуск игровых видеокарт на 30-40%

По данным азиатских цепочек поставок и утечек с китайских форумов, речь идет именно о GeForce RTX 50‑серии.

Основной мотив тот же – глобальный дефицит видеопамяти. NVIDIA перераспределяет ресурсы в пользу дата‑центров и ИИ‑ускорителей. Там спрос и маржа существенно выше, чем на рынке потребительских видеокарт.

Все геймеры прямо сейчас:

Читать полностью…

Data Secrets

OpenAI выкатили ответ на Nano Banana – GPT Images

Обещают фотореалистичность, отличное следование инструкциям и очень высокое качество редактирования изображений, включая многошаговый edit, где нужно сохранять лицо или другие детали неизменными. А еще генерация теперь будет в 4 раза быстрее.

В ChatGPT Images уже доступны всем юзерам (да, и бесплатно тоже, но про лимиты пока непонятно). В API выкатили как GPT Image 1.5

Пробуем пробуем пробуем!

https://openai.com/index/new-chatgpt-images-is-here/

UPD: и промптинг гайд катнули

Читать полностью…

Data Secrets

Новый день – новые модели: Nvidia выпустили прекрасную Nemotron 3 Nano

В ней 31.6B параметров, но активных всего 3.6B (это MoE). Запустить можно на 24ГБ RAM. Зафайнтюнить – на 60ГБ VRAM.

Контекст – 1 миллион токенов.

По метрикам, внимание, обходит Qwen3-30В-А3В-Thinking и GPT-oss-20B-А4В. Получается, модель не просто конкурентоспособная, но и лучшая в своем классе на многих основных бенчмарках: SWE-bench, GPQA и др.

И еще – моделька очень шустрая, выдает больше 350 токенов в секунду. Это в 2-3 раза быстрее того же Qwen.

Nvidia умеют удивлять.

Веса (+датасеты!) | Статья | Блогпост

P.S. Любителям опенсорса напоминаем, что сегодня также ждем новенькую Gemma-3

Читать полностью…

Data Secrets

Сегодня, кстати, ждем новый опенсорсный релиз (привет, Gemma 4!) от Google

Должны завезти уже совсем скоро

Читать полностью…

Data Secrets

Сегодня OpenAI исполняется ровно 10 лет

О создании компании было объявлено 12 декабря 2015 года. Начальный бюджет – 1 миллиард долларов – был собран небольшой группой инвесторов-энтузиастов. Вот оригинальный блогпост, а еще в честь праздника компания выпустила видео ⬆️

В 2015 алгоритмы еще плохо отличали кошечек от собачек, и люди не верили, что машина когда-нибудь сможет заговорить. А сегодня ИИ уже неотъемлемая часть жизни и работы, а стартап Альтмана оценивается в 500 миллиардов долларов.

Но ChatGPT вышел только в 2022. А чем компания занималась до этого? Давайте вспомним:

– OpenAI Gym (2016). Платформа для тестирования алгоритмов ИИ в симулированных средах. Она очень быстро стала тогда стандартом в исследованиях. Следом вышел Universe – инструмент для обучения агентов взаимодействию с реальными программами и играми.

– OpenAI Five (2018). Ботов обучили играть в Dota 2 с помощью PPO. В итоге они обыграли топ-игроков мира, обучившись на 45 000 годах симуляций за 10 месяцев.

– Robotic Hand (2018). Знаменитый проект, в котором робо-руку учили собирать кубик Рубика.

Поздравляем: если вы знакомы с этими проектами – вы олд 👴. После них уже пошло-поехало: GPT-2 в 2019, GPT-3 в 2020, DALL-E и первый Codex в 2021, и ChatGPT в 2022.

Короче, поздравляем компанию с юбилеем!

Читать полностью…

Data Secrets

SpaceX готовится к IPO: теперь основная цель компании – строительство датацентров в космосе

Читать полностью…
Subscribe to a channel