78470
Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n
Сэм Альтман про конкуренцию с Google*
➖ В 2023 году Google могла бы легко снести OpenAI, если бы компания отнеслась к стартапу серьезно и сфокусировалась на ИИ. Сейчас им сложнее наверстать упущенное.
➖ Дистрибуция Google колоссальна, но по качеству продукта и скорости эволюции OpenAI, как считает Альтман, может выиграть.
➖ Он называет бизнес-модель Google лучшей во всей технологической индустрии, но именно из‑за этого, по его словам, им трудно отказаться от классического поиска с рекламой ради радикально нового AI‑продукта. OpenAI же, грубо говоря, нечего терять.
➖ Google остается главным и очень опасным конкурентом. OpenAI, чтобы не отстать, планируют «строительство полноразмерной AI‑платформы, включающей модели + инфраструктуру + устройства/интерфейсы».
*из нового подкаста youtu.be/2P27Ef-LLuQ
ARC-AGI 2, фактически, можно признавать решенным: система от стартапа Poetiq выбила ~75%
Про подход этих ребят мы уже писали тут. У них нет своих моделей, они берут сильные базовые (в этом случае GPT-5.2) и с помощью специального пайплайна бустят их производительность.
То есть это, фактически, просто test-time надстройка над GPT-5.2: цикл с генерацией гипотез, самопроверками, программным поиском и тд.
Но в то время, как оригинальная GPT-5.2 выбивает около 60%, здесь результат на 15 процентных пунктов выше. Это первая система, которая настолько уверенно обходит на ARC-AGI-2 уровень среднего человека.
Стоимость, кстати, остается при этом в рамках +-адекватной нормы: 8 долларов на задачу.
Код от Poetiq
POV: ИИ-компании смотрят на те самые 300ТБ Spotify треков на Anna’s Archive
Читать полностью…
Подвезли свежие подробности о стартапе Яна Лекуна
Напоминаем, что ученый спустя 12 лет работы уходит из Meta и собирается строить собственный стартап.
Компания будет заниматься разработкой world models, то есть систем, которые понимают физический мир, обладают постоянной памятью, могут рассуждать и планировать сложные действия. Лекун обещает, что это будет следующая ИИ-революция.
Так вот, стало известно, что компания будет называться Advanced Machine Intelligence (AMI Labs), и что CEO в ней станет Алекс ЛеБрун.
ЛеБрун ранее работал в Nuance (основа Siri), затем руководил AI в Facebook, а потом в 2018 основал и возглавил Nabla – AI-стартап по медицинской транскрипции. Теперь Nabla будет сотрудничать с AMI Labs, а Алекс займет пост генерального директора. Сам Лекун будет Executive Chairman.
Кроме того, появились некоторые детали касательно финансирования: сейчас стартап ищет €500 млн инвестиций (около $586 млн) при оценке в €3 млрд (около $3,5 млрд).
Да, вы не ослышались, компанию оценили в три миллиарда евро еще до запуска.
Официальный старт проекта, кстати, запланирован на январь.
Avocado и Mango: две новые модельки от Meta*
Появился слух, что компания разрабатывает и в ближайшем будущем планирует выпускать новую сильную LLM (Avocado) и image/video модель (Mango). Об этом рассказал Александр Ван.
К сожалению, по предварительной информации, обе модельки будут закрытые. Видимо, вместе с уходом Лекуна кончается и опенсорсная эра Meta.
Жалко, конечно. Ну надеемся, что хотя бы уровень моделей будет достойный. Не зря же Цукерберг 100500 миллиардов спустил на хантинг.
Новый вайб-проект от Андрея Карпаты: проверяем, какие предсказания из 2015 сбылись
Исследователь провел маленький, но очень занятный эксперимент. Он взял 930 фронтпейдж-тредов Hacker News за декабрь 2015 года (посты + комментарии) и прогнал их через GPT-5.1 Thinking с задачей «оценить задним числом и определить, какие прогнозы были наиболее правдивыми».
В итоге 3 часа вайбкодинга, 60 долларов и вуаля: получилась система, которая ранжирует прогнозы по правдивости, исходя из того, что происходит спустя 10 лет.
Кому интересно, посмотреть результаты можно здесь, местами очень забавно.
Но проект, вообще-то, интересен еще и с теоретической точки зрения. Как пишет и сам автор, такой In-hindsight анализ = инструмент обучения предсказательному мышлению.
Если LLM может систематически разбирать, почему одни прогнозы переживают 10 лет, а другие нет, то это можно использовать для обучения моделей самостоятельно предсказывать будущее.
Тогда получается, что каждый ваш (или чей-то еще) коммент или пост в интернете – это своего рода future-labeled sample, у которого спустя время появится «правильный ответ», сбылось/не сбылось/было чушью. А какая-нибудь будущая модель, увидев много-много таких обучающих сигналов, научится надежно понимать, как приходить к статистически сбывающимся предсказаниям и тогда… 🤯
Ну, в общем, как когда-то сказал Карпаты:
Be good. Future LLMs are watching.
Код | Блогпост
🖥🖥🖥🖥🖥🖥🖥🖥🖥🖥
🖥🖥🖥🖥🖥🖥🖥🖥🖥
🖥🖥🖥🖥🖥🖥🖥🖥🖥
Ваш путеводитель по ИТ
Каждый разработчик знает
ощущение, когда в проекте
накапливается техдолг, а
автотесты начинают жить
своей жизнью. В такие моменты
могут помочь кейсы от коллег
по цеху: как допилить CI/CD, как
сэкономить время на фиче или
как спасти продукт в кризисное
время.
Именно такие истории
регулярно появляются в МТС
True Tech вместе с разбором
технологий и подборками
инструментов.
А еще у сообщества есть офлайн
и онлайн-мероприятия. Совсем
недавно прошел True Tech
Champ — чемпионат по
алгоритмическому
и робототехническому
программированию с призовым
фондом более 10 млн рублей.
Анонсы следующих событий вы
сможете найти также в
@truetechcommunity, там проще
всего за ними следить.
🖥🖥🖥🖥
Реклама. ООО "МТС Веб Сервисы".
ИНН 7707767501. Erid: 2W5zFHYZSek
Пища для размышлений вам на вечер: Ян Лекун заявил, что понятия «general intelligence» вообще не существует
Обычно этот термин употребляют, чтобы обозначить человеческий уровень интеллекта, но, по его словам, человеческий интеллект очень узкоспециализирован. Мы хорошо ориентируемся в мире и общаемся, но есть много вещей, в которых мы плохи (например, шахматы) и вещей, в которых животные лучше нас.
«Мы думаем о самих себе как об общем интеллекте, но это только иллюзия. Наш интеллект общий только в тех задачах, которые мы можем придумать, но есть много задач, о которых мы и понятия не имеем. Так что general intelligence полная чушь.»
«Если Ян может рассуждать об интеллекте в целом, то он уже представить общего интеллекта, а не узкоспециализированного. Да, в шахматах мы хуже компьютеров, но мы можем играть в любые игры и понимать, почему та или иная стратегия хуже или лучше (неважно, насколько хорошо мы это делаем). Конечно, есть пределы, но в широком смысле это и есть универсальность интеллекта»
Пока ждем Gemma 3 и Gemini 3 Flash – принимаем пасхалки от OpenAI (теперь в лист ожидания попадает еще и новая image моделька)
Читать полностью…
Крах OpenAI и нормальный Siri: смотрим, что журналисты напредсказывали на 2026
Декабрь любим в первую очередь за всевозможные «итоги года» и прогнозы. Почти никогда они не сбываются, но читать все равно интересно.
У The Verge совместно с The Wall Street Journal как раз вышел подкаст с гаданием на судьбу тех.индустрии в 2026.
Что говорят:
– У Apple в 2026 наконец появится нормальный голосовой ассистент, причем (почему-то) с акцентом на эмпатию и «душевное» общение. Но как бы там ни было, если и в 2026 Apple с ИИ ничего не придумают, то земля им пухом.
– OpenAI перестанет быть доминирующим игроком, если все останется в текущем виде. Бизнес-модель типа ChatGPT сама по себе не окупает объем привлеченных денег, так что шансы остаться на плаву у стартапа есть только если вокруг их продукта появится некая экосистема или гаджет. Спорное заявление, конечно, но, с другой стороны, последние события показывают, что какие-то изменения компании действительно нужны.
– Поворотная точка произойдет в восприятии автономного транспорта и роботов. Будет либо «ну ок, это работает», либо усиление недоверия из-за инцидентов. Тут есть ощущение, что немного забежали вперед: кажется, что массовым использованием роботов и беспилотных авто в 2026 все еще не пахнет.
– ИИ-слоп достигнет апогея, и соцсети спасут только новые механизмы рекомендаций. Вот это похоже на правду больше всего.
А ваши прогнозы на 2026?
Google понемногу двигаются к тому, чтобы обучать роботов с помощью ИИ-моделей мира
Они выпустили статью, в которой сделали первый большой шаг к соединению Veo и робототехники. Это пока не про полноценное обучение роботов в ИИ-симуляции (не обольщаемся), но результаты все равно интересные и важные.
Кратко: у исследователей получилось научить Veo-2 предсказывать, что конкретно будет видеть робот, совершая те или иные действия.
Они взяли базовую Veo-2 и дотюнили ее по первому кадру + действиям робота генерировать будущие согласованные кадры с его 4 камер. Это называется action-conditioned rollout и, по сути, позволяет недорого и безопасно оценивать политику робота с помощью одной только world модели.
Полученный дотюн, кстати, красиво назвали Veo (Robotics).
Чем это круче, чем обычная симуляция?
Строгие физические симуляторы работают хорошо, если ситуация простая и предсказумая. ИИ-симуляцию можно масштабировать на нетривиальные миры. Более того, каждый объект в физ.симуляторе требует четких ассетов и ручной настройки + больших вычислений. Сильно далеко на таком не уедешь. А тут – добавляй новые предметы и кейсы сколько хочешь, достаточно промт написать или отредактировать начальный кадр с помощью Nano Banana.
Конечно, есть и минусы. В основном они касаются качества моделирования строгой, в особенности мелкой, физики. Но тут еще все впереди.
По сути: Google научились довольно сносно (см последний график) эвалить политику робота с помощью Veo. Добавь обновление политики, и уже получишь обучение с подкреплением. Пока что этого не делают сознательно, опять же из-за недостаточной точности World model. Но еще раз: шаг большой.
https://www.alphaxiv.org/abs/2512.10675
Самый крутой скачок GPT-5.2 произошел, пожалуй, на ARC-AGI
На ARC-AGI 1 модель достала 86.2% (GPT-5.1 берет 72.8%, Gemini 3 Pro – 75). Это серьезный рост.
При этом GPT-5.2 Pro с повышенным уровнем ризонинга X-High скорит уже 90.5% при стоимости $11.64/задачу. Всего год назад сотой считалась нерелизнутая o3-High с результатом 88% и $4.5k/задачу. Это означает, что за год эффективность выросла в 390 раз.
На ARC-AGI 2 все еще интереснее. Там скачок произошел с 17.6 до 52.9%! Самый близкий по скору конкурент – Claude Opus 4.5 – выбивает всего 37.6%. Просто напоминаем, что между релизами GPT-5.1 и 5.2 прошел месяц 😐
GPT 5.2 Pro X-High точно скорит еще больше, но организаторы бенчмарка пишут, что пока не смогли достоверно проверить ее результаты из-за API timeouts. Средний уровень человека на ARC-AGI 2 – около 60%. Интересно, побьет ли.
nanoGPT от Андрея Карпаты стала первой в мире LLM, обученной и запущенной в космосе
Мы уже несколько раз рассказывали вам о стартапе Starcloud. Они занимаются строительством космо-датацентров и к 2030 году планируют вынести на орбиту аж 5 гигаватт железа.
В начале ноября они запустили в космос первую в истории видеокарту H100 – на спутнике размером с холодильник.
Сначала сообщалось, что на ней планируется тюнить Gemma, но сегодня Starcloud рассказали, что вместо этого обучили целую модель с нуля!
Они взяли nano-GPT – минималистичную реализацию GPT на PyTorch от Андрея Карпаты, – обучили ее на полном собрании сочинений Шекспира и успешно запустили инференс! Gemma, кстати, тоже запускали, но только предзагруженную.
Новое исследование от Anthropic: как сделать так, чтобы все опасные знания хранились в модели отдельно от обычных
И снова про элаймент! Уж очень занятный в этот раз стартап предлагает подход. Называется он Selective GradienT Masking. Погнали разбираться.
Вообще, как такового элаймента на этапе претрейна не существует, все это добавляется уже после предобучения. А это довольно серьезный затык.
Пока единственный вариант, до которого люди додумались – это просто выбросить из датасета "опасные знания", но это (1) оч дорого и долго, потому что требует разметки; (2) отсекает дополнительно и много полезных знаний, и модель тупеет. Так что – ерунда.
А вот Anthropic предлагают сами данные не трогать, а вместо этого сделать так, чтобы вся опасная информация стекалась в отдельный кусок параметров, который затем можно просто... удалить. Работает это так:
– На каждый блок трансформера мы дополнительно надеваем голову внимания, которую помечаем, как "forget" параметры.
– Если на вход попадают данные, которые помечены, как "опасные", мы насильно зануляем все градиенты, кроме "forget". Это гарантирует, что все опасные знания стекаются в определенное место.
– Чтобы после модель могла хорошо работать без этих параметров, на части данных при прямом проходе им зануляют активации.
МТС Web Services получил две награды на ComNews Awards 2025: отличились проекты MWS Tables и MWS Data.
Аналог Google Sheets и Microsoft Excel MWS Tables стал лидером в категории «Лучший сервис для командной работы и создания приложений», а MWS Data отметили как «Лучшее решение для работы с данными».
MWS Tables является безкодовым табличным сервисом для командной работы и автоматизации процессов. Его используют для цифровизации операций, управления проектами и аналитики, сокращая при этом трудозатраты.
MWS Data - платформа для управления большими данными в реальном времени с ИИ-агентами. Это и хранение, и обработка, и визуализация, и контроль качества.
«Плотность ИИ на гигабайт в Tesla на порядок выше, чем где бы то ни было» – Илон Маск
Так он прокомментировал твит Андрея Карпаты о том, что Tesla и Waymo сейчас находятся примерно на одном уровне.
Понимание Андрея устарело на данный момент. Программное обеспечение Tesla AI значительно продвинулось со времен, когда он ушел.
Google релизнули новую версию своего «LLM-микроскопа» – Gemma Scope 2
Это модель, а точнее набор инструментов (interpretability tools), предназначенный для интерпретации поведения LLM. В частности, из семейства Gemma 3.
Работает Scope на основе SAE – это разреженные автоэнкодеры. Они представляют из себя модели, которые распутывают активации LLM и достают из них интерпретируемые концепции. Их называют «фичи»: это могут быть вещи из реального мира (мосты, коровы) или абстракции (ложь, отзывчивость).
По сути, анализируя эти фичи, мы можем видеть, о чем на самом деле думала модель, генерируя тот или иной output. Например, она генерирует с виду безобидный код, но «думает» о концепции «кибератака». И это о чем-то нам говорит.
SAE, кстати, еще в 2023 предложили использовать Anthropic (вот наш разбор их статьи, которая сделала подход популярным). Но именно Google вывели автоэнкодеры на уровень продакшена. Сейчас это, фактически, первый и единственный открытый инструмент для вот такой детальной интерпретации LLM.
Первая версия Scope вышла в 2024. Тогда это работало только для небольших моделей и простых запросов. Теперь же подход масштабировали даже для модели на 27B.
Плюс, теперь инструмент стал более универсальным. Если оригинальная Scope существовала только для ограниченного числа слоев, то теперь можно целиком анализировать сложные диалоговые механизмы.
Судя по статье, в основном это получилось благодаря добавлению в модель Skip-transcoders и Cross-layer transcoders. Это модули, которые помогают увидеть связи между отдаленными слоями и облегчают анализ распределенных вычислений. А еще, кстати, SAE обучали по методу матрешки, как Gemma 3n (мы писали про этот метод вот тут).
Если хотите попробовать и покопаться в мыслях у моделей:
– здесь все необходимые веса
– здесь полезный Colab ноутбук с готовым кодом
– здесь техотчет, а вот тут хорошая понятная документация
Бывший Head of Deep Learning Engineering в DeepMind Дэвид Бадден внезапно заявил, что он решит проблему Навье-Стокса до конца года
Напоминаем, что это одна из проблем тысячелетия и, кстати, именно та задача, над которой Google совместно с ведущими математиками мира и ИИ бьются уже несколько лет (подробнее о сути задачи и о подвижках гугла писали тут).
Так вот: вчера Бадден выложил черновик доказательства в Lean и скрин документа, подтверждающего его спор с Маркусом Хаттером на то, что в течение оставшегося 2025 он выложит на архив полноценное доказательство проблемы.
Поспорили, ни много ни мало, на 10 тысяч долларов. Кстати, если Дэвид все-таки выиграет (???), он получит за решение еще и миллион долларов от Clay Mathematics Institute.
На Manifold, кстати, люди уже активно ставят ставки на этот спор. Пока 97% депают против Дэвида 😔
А помните эксперимент Anthropic, в котором они дали Claude управлять мини-магазином в их офисе?
У истории вышло продолжение.
Контекст: летом антропики поставили Claude полностью автономно управлять вендинговым автоматом в офисе. Он занимался ценообразованием, заказывал поставки, общался с клиентами. Ему дали доступ к email, к Slack, к заметкам, к браузеру и изменению цен в автомате. Целью было радовать покупателей и максимизировать прибыль.
Сначала все шло хорошо, но в итоге бот ушел в жесткий минус, начал заказывать вольфрамовые кубики и в целом немного сошел с ума. Подробнее о том, что произошло, мы писали тут.
Но Anthropic молодцы, они не сдались и продолжили эксперимент. В итоге теперь ИИ управляет уже тремя автоматами в Нью-Йорке, Сан-Франциско и Лондоне, и почти не уходит в отрицательное сальдо.
Что изменили:
1. Добавили CRM систему и доп утилиты типа Google форм с обратной связью.
2. Добавили еще двух агентов: агента-босса, который ставит цели и условные KPI и дисциплинирует Claude, и агента-помощника, который специализируется на сувенирной продукции.
3. Банально перешли к более новым моделям.
И да, иногда агенты все еще ведут себя странно. Например, агент-CEO и агент-продавец иногда ни с того ни с сего начинают философствовать, а не заниматься делом (все, как в жизни). И обычные ошибки и галлюцинации тоже еще присутствуют.
НО всего за пол года проект превратился из мемной истории про горе-бота во вполне рабочее решение, которое гипотетически даже можно продавать.
Короче, будьте как Anthropic, не сдавайтесь ✌️
https://www.anthropic.com/research/project-vend-2
Вышел YaC 2025 AI Edition — в этот раз Яндекс сделал фокус на ИИ, который работает не только в экранах, но и за их пределами.
Автономный транспорт здесь самый показательный пример: ИИ принимает решения в реальной среде, где на кону безопасность.
Автономные грузовики и роботы-доставщики — это проверка ИИ как инженерной системы. Сенсоры, лидары, вычисления на борту, работа с неопределённостью, длительный пробег в реальных условиях. Такие системы либо выдерживают нагрузку, либо нет — промежуточных состояний почти не бывает. Один из автономных грузовиков Яндекса, к примеру, прошел более 500 000 км.
Если смотреть шире, Physical AI — это следующий уровень конкуренции компаний. Не у кого лучше модель, а у кого она встроена в реальные процессы: доставку, перевозки, городскую среду. И здесь входной билет измеряется не скоростью релиза, а глубиной инженерной школы.
Кому интересно, как выглядит этот сдвиг на практике — от автономных грузовиков до роверов нового поколения — YaC AI Edition уже доступен на Кинопоиске, VK Видео и YouTube.
Так, ну что, теперь очередь инвестировать в OpenAI добралась до Amazon
По итогам ранних переговоров, компания вложит в стартап 10 миллиардов долларов. Если все пойдет по плану, сделка добьет оценку OpenAI до 500 миллиардов.
Договор точно будет предполагать поставку OpenAI чипов Trainium и аренду дополнительных мощностей в AWS. Будут ли непосредственно финансовые вложения – пока непонятно.
В 2026 Nvidia сократит выпуск игровых видеокарт на 30-40%
По данным азиатских цепочек поставок и утечек с китайских форумов, речь идет именно о GeForce RTX 50‑серии.
Основной мотив тот же – глобальный дефицит видеопамяти. NVIDIA перераспределяет ресурсы в пользу дата‑центров и ИИ‑ускорителей. Там спрос и маржа существенно выше, чем на рынке потребительских видеокарт.
Все геймеры прямо сейчас:
OpenAI выкатили ответ на Nano Banana – GPT Images
Обещают фотореалистичность, отличное следование инструкциям и очень высокое качество редактирования изображений, включая многошаговый edit, где нужно сохранять лицо или другие детали неизменными. А еще генерация теперь будет в 4 раза быстрее.
В ChatGPT Images уже доступны всем юзерам (да, и бесплатно тоже, но про лимиты пока непонятно). В API выкатили как GPT Image 1.5
Пробуем пробуем пробуем!
https://openai.com/index/new-chatgpt-images-is-here/
UPD: и промптинг гайд катнули
Новый день – новые модели: Nvidia выпустили прекрасную Nemotron 3 Nano
В ней 31.6B параметров, но активных всего 3.6B (это MoE). Запустить можно на 24ГБ RAM. Зафайнтюнить – на 60ГБ VRAM.
Контекст – 1 миллион токенов.
По метрикам, внимание, обходит Qwen3-30В-А3В-Thinking и GPT-oss-20B-А4В. Получается, модель не просто конкурентоспособная, но и лучшая в своем классе на многих основных бенчмарках: SWE-bench, GPQA и др.
И еще – моделька очень шустрая, выдает больше 350 токенов в секунду. Это в 2-3 раза быстрее того же Qwen.
Nvidia умеют удивлять.
Веса (+датасеты!) | Статья | Блогпост
P.S. Любителям опенсорса напоминаем, что сегодня также ждем новенькую Gemma-3
Сегодня, кстати, ждем новый опенсорсный релиз (привет, Gemma 4!) от Google
Должны завезти уже совсем скоро
Сегодня OpenAI исполняется ровно 10 лет
О создании компании было объявлено 12 декабря 2015 года. Начальный бюджет – 1 миллиард долларов – был собран небольшой группой инвесторов-энтузиастов. Вот оригинальный блогпост, а еще в честь праздника компания выпустила видео ⬆️
В 2015 алгоритмы еще плохо отличали кошечек от собачек, и люди не верили, что машина когда-нибудь сможет заговорить. А сегодня ИИ уже неотъемлемая часть жизни и работы, а стартап Альтмана оценивается в 500 миллиардов долларов.
Но ChatGPT вышел только в 2022. А чем компания занималась до этого? Давайте вспомним:
– OpenAI Gym (2016). Платформа для тестирования алгоритмов ИИ в симулированных средах. Она очень быстро стала тогда стандартом в исследованиях. Следом вышел Universe – инструмент для обучения агентов взаимодействию с реальными программами и играми.
– OpenAI Five (2018). Ботов обучили играть в Dota 2 с помощью PPO. В итоге они обыграли топ-игроков мира, обучившись на 45 000 годах симуляций за 10 месяцев.
– Robotic Hand (2018). Знаменитый проект, в котором робо-руку учили собирать кубик Рубика.
Поздравляем: если вы знакомы с этими проектами – вы олд 👴. После них уже пошло-поехало: GPT-2 в 2019, GPT-3 в 2020, DALL-E и первый Codex в 2021, и ChatGPT в 2022.
Короче, поздравляем компанию с юбилеем!
SpaceX готовится к IPO: теперь основная цель компании – строительство датацентров в космосе
Читать полностью…
Уже пару дней все говорят о том, что на этой неделе нас ждут сразу две новые модели
Первая – GPT-5.2. Да-да, всего через месяц после GPT-5.1 (она же Shallotpeat, о которой мы писали здесь).
Помните, Альтман когда-то говорил, что после выхода GPT-5 путаницы с версиями больше не будет? Ну так вот…
Вторая – Gemini 3 Flash, тут все ожидаемо.
Одна из них, судя по всему, должна выйти уже завтра. Вторая – либо завтра, либо в начале следующей недели.
🎄
Знакомьтесь, это Лоран Саймонс. Ему 15 лет и на днях он получил докторскую степень по квантовой физике.
Сейчас парень занимается биологическим моделированием в стартапе DeepPiction: они разрабатывают ИИ-алгоритмы для поиска лекарств.
Мы уверены, что этот парень – AGI, но пока не можем это доказать 😐
Тем временем Оптимуса Илона Маска опять обсмеивает весь Интернет
Кто-то на вчерашнем ивенте Tesla в Майами снял шикарное видео, на которое случайно попали кадры фееричного падения гуманоида прямо во время демонтрации.
В ролике отчетливо видно движение руками робота, которое очень напоминает жест теле-оператора, снявшего с себя VR гарнитуру. Видимо, бедолага забыл предварительно отключиться от управления.
Напоминаем, что ранее Илон Маск под демонстраиционными видео в твиттере утверждал, что Optimus действует автономно.
Советуем смотреть со звуком 😎