data_secrets | Unsorted

Telegram-канал data_secrets - Data Secrets

78469

Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n

Subscribe to a channel

Data Secrets

Читаем сейчас системную карту Opus 4.5, там гигантская глава про элаймент. На контрасте с OpenAI ребята конечно очень упарываются по безопасности.

В связи с этим вспомнился мем

Читать полностью…

Data Secrets

Meta собирается закупать у Google TPU

Знаменательна эта сделка тем, что Meta станет первой крупной компанией, которая купит TPU для установки в собственные дата-центры.

До этого в этом году на гугловское железо уже заключали большие контракты Anthropic и SSI Ильи Суцкевера, а про OpenAI даже ходили слухи, что они хотят полностью пересесть на TPU.

Но это все было про аренду мощностей в облаке, а Meta станут, по факту, пионерами в непосредственном физическом владении чипами. Интеграцию TPU в свои центры они начнут в 2027.

Для Google эта сделка – не просто хорошие деньги, но и важный стратегический рубеж.

Подписать такой контракт – значит окончательно и публично подтвердить свои аппаратные амбиции. У Google есть реальная возможность расширить присутствие TPU на рынке, и их аналитики считают, что компания может оттяпать у Nvidia аж 10% выручки.

Читать полностью…

Data Secrets

CEO SakanaAI Лион Джонс: «Пришло время выйти за рамки трансформеров и оставить их в прошлом»*

Изюминка в том, что сам Лион – один из изобретателей трансформера, со-автор (один из восьми) статьи «Attention is all you need».

SakanaAI как раз занимается поиском новых архитектур. В основном они черпают вдохновение из эволюции и биологии.

Мы за ними следим очень давно, и недавно делали большую подборку с нашими разборами их статей вот тут. Обязательно почитайте на досуге, исследования у них правда занятные.

С одним из подходов под названием Continuous Thought Machine они сейчас выходят на NeurIPS 2025. Это почти полное переосмысление архитектуры LLM, вдохновленное биологическими нейронными процессами. Вместо прямых проходов по сети – тики мыслей, как в мозге. Вместо нейронов – перцептроны с собственной памятью. Вот наш разбор.

А еще недавно они закрыли крупный инвестиционный раунд на 20 миллиардов долларов, и теперь, насколько нам известно, являются самым дорогим японским стартапом.

*Источник: новое интервью Лиона с ML Street Talk

Читать полностью…

Data Secrets

Действительно доброе утро: возможно, сегодня выйдет Claude Opus 4.5 (на реддите обнаружили упоминание некой модели Kayak от Anthropic в релизной таблице на epoch.ai)

Читать полностью…

Data Secrets

VK RecSys Challenge: проверьте свой алгоритм в деле!

В самом разгаре ежегодное соревнование по разработке рекомендательных систем от VK — RecSys Challenge 2025. Участникам предстоит решить одну из самых сложных проблем в мире рекомендаций: задачу холодного старта.

Суть соревнования — построить модель, которая предскажет, кому из пользователей понравится новый клип, даже если его ещё никто не видел.

Что ждёт участников:
• Реальные данные — датасет VK-LSVD с 40 млрд взаимодействий и 20 млн коротких видео
• Можно участвовать соло или в команде до 4 человек
• Техническая свобода — до 5 сабмитов в день, возможность экспериментировать
• Общий призовой фонд — 2 500 000 рублей

Приглашают студентов, исследователей, ML-инженеров — всех, кто хочет испытать свои силы на реальных данных и создать алгоритм, который работает в условиях, максимально приближенных к контентной жизни.

Регистрация открыта до 15 декабря. Успейте подать заявку, скачать датасет и начать эксперименты!

👉 Подробности и регистрация на сайте

Читать полностью…

Data Secrets

Fun fact: эта картинка полностью сгенерирована новой Nano Banana Pro (если верить автору)

Красота же?

Читать полностью…

Data Secrets

Mediascope опубликовал статистику самых популярных ИИ-ассистентов России: победила Алиса AI

Нейросетью Яндекса пользуется 14.3% населения. Для сравнения, у ближайшего конкурента, DeepSeek, доля в полтора раза меньше (9%). Для российского продукта такая планка покорилась впервые, еще весной уверенно лидировали зарубежные нейросети. Ближайший российский конкурент — GigaChat — отстал еще сильнее и расположился примерно на одной ступеньке с ChatGPT (4% и 3,5% соответственно).

На самом деле, неудивительно. Продукт у Яндекса получился действительно удобный для широкой аудитории, понимает реальные запросы пользователей, да и по-русски говорит лучше, чем зарубежные модели. К тому же не требует VPN, что очень весомо для среднего пользователя, и легко оплачивается. Переломным моментом стало недавнее громкое обновление Алисы AI, которое сделало ее самой быстрорастущей нейронкой — за первую неделю приложение скачали полтора миллиона раз.

Читать полностью…

Data Secrets

Буквально все мы на этой неделе:

Давненько не было такой плотной череды релизов

Читать полностью…

Data Secrets

OpenAI уже второй день всеми силами пытается оттянуть на себя внимание от новостей Google: на этот раз в ход пошел козырь в виде общих чатов в ChatGPT

Работает просто. Приглашаете в чат кого хотите, общаетесь, по мере надобности вызываете в диалог модельку. Удобно для локального обсуждения какого-нибудь проекта, но очень ситуативно. Уже раскатили на всех платников.

Лайк, если тоже считаете, что лучше бы они сделали тг-бота ✌️

openai.com/index/group-chats-in-chatgpt/

Читать полностью…

Data Secrets

Все, Ян Лекун официально подтвердил, что уходит из Meta*

В посте на LinkedIn он написал, что создает стартап для продолжения исследовательской программы Advanced Machine Intelligence (AMI). Что такое AMI и чем Лекуну не угодил термин AGI, мы писали тут.

Цель стартапа – «сделать следующую большую революцию в ИИ»: создать системы, которые понимают физический мир, обладают постоянной памятью, могут рассуждать и планировать сложные действия.

По моему замыслу, AMI будет иметь широкое применение в различных секторах экономики. Некоторые из них пересекаются с коммерческими интересами Meta, а многие нет. Продолжать работу AMI как независимой организации – мой способ максимизировать её масштабное влияние.


Ушла эпоха.

Читать полностью…

Data Secrets

В Твиттере была обнаружена картинка дня

POV: ChatGPT слушает, что на этот раз тебе опять от него нужно

Читать полностью…

Data Secrets

Новая ИИ-IDE Antigravity от Google: первые впечатления

Главное, почему стоит хотя бы попробовать: Antigravity пока что доступна со всем своим функционалом абсолютно бесплатно на MacOS, Windows и Linux. Дают 50 запросов каждые 5 часов. Google знают, как привлечь внимание.

Что касается наполнения:

– Есть привычный editor и тут в целом ничего нового: можно вручную писать и править код, включать автокомплит, общаться с агентом и тд. Хорошо прокачано планирование и работа с артефактами, а так тот же Cursor (только сыроватый).

Что интересно, так это режим асинхронного программирования Inbox. Это панель оркестрации агентов. Выглядит реально как почта, в которой вы ставите задачи разным агентам и можете отслеживать результат в рамках единого окна коммуникации, за рамками основного кода.

Так можно работать даже с несколькими проектами одновременно. А задачки можно назначать как параллельно, так и упорядочить в очередь.

Еще одна приятная фича: интеграция с Chrome. Это расширение, в котором агент начинает работать в режиме computer use. Он может запустить приложение локально, поднять сервер, автоматически пройтись по страницам, проверить наличие элементов, что-то потестить, сделать скриншоты и тд. Выглядит круче, чем в Cursor.

Что пока оставляет желать лучшего, так это интеграция с GitHub и git, а также стабильность. На macOS иногда лагает, а при входе с VPN у многих все падает в бесконечную загрузку.

https://antigravity.google/

Читать полностью…

Data Secrets

Там слили тех.карту Gemini 3.0 с бенчмарками

Смотрим:

– На многих бенчмарках существенно обходит GPT-5.1 и Sonnet 4.5. Особенно выделяется Humanity's Last Exam и ARC-AGI 2.

– Крутые результаты на бенчмарках, связанных со всякими агентскими способностями, пониманием изображений, видео и интерфейсов. Это многообещающе.

– В кодинге без чудес: относительно Gemini 2.5 Pro прирост хороший, но в целом уровень Sonnet 4.5.

Ждем официальный релиз, должно быть интересно.

P.S. pdf-ку полностью можно найти в комментариях под предыдущим постом

Читать полностью…

Data Secrets

📘 На Stepik вышел курс — «Data Engineering Fast-Track: Kafka → Airflow → Spark»

Хотите, чтобы данные для моделей и отчётов приходили регулярно и без сюрпризов? Этот курс поможет собрать продовый пайплайн от Kafka до Lakehouse под управлением Airflow.

🔍 Что вы получите:
Spark Streaming: окна, watermark, event-time, дедупликация
Batch-пересчёты (backfill), SLA и алерты свежести
Kafka: ingest/CDC, ключи/партиции, Schema Registry/Kafka Connect
Lakehouse: Parquet/Delta/Iceberg, борьба со small files (компакции)
200+ практических задач с автопроверкой и проект в портфолио

🎓 Сертификат по завершении — добавьте его в резюме или профиль LinkedIn

🚀 Начните сегодня и получите скидку 25% в течение 72 часов

👉 Пройти курс со скидкой

Реклама. ИП Малышкин, ИНН 402571325199, erid: 2VtzqxNW6Xb

Читать полностью…

Data Secrets

Статистика дня: примерно 80% американских стартапов построены на китайском ИИ

Это число озвучил не кто-нибудь, а Мартин Косадо – партнёр в венчурной фирме Andreessen Horowitz (a16z), одной из самых влиятельных в Кремниевой долине. Он сказал:

Сейчас, когда фаундеры питчат свои проекты в a16z, вероятность, что их стартапы работают на китайских моделях, довольно большая. Я бы сказал, что с вероятностью 80% они используют китайскую опенсорсную модель.


Смешно, конечно, но не удивительно. Открытых американских и европейских моделей с такими же ценами и качеством, как у тех же Qwen или Moonshot, просто нет (Meta уже давно курит в сторонке).

Bloomberg пишет, что на фоне такой картины даже распространилась следующая практика: стартапы тихо делают продукты на китайском опенсорсе, а затем перед релизом вычищают логи и убирают упоминание базовой модели.

За примером даже не надо далеко ходить. Говорят, что новая и первая собственная модель от Cursor (Composer) – это, собственно, не что иное, как затюненый Qwen.

Вот такая реальность

Читать полностью…

Data Secrets

Рисерчеры и студенты, это для вас: легендарный Эндрю Ын (сооснователь Coursera и доцент Стэнфоррда) сделал ИИ-ревьюера для научных работ

Суть проекта – в быстром пред-ревью вашей работы перед тем, как вы отправите ее в журнал или научруку. Человеческое ревью длится неделями и даже месяцами, а тут вы можете предвательно оценить, насколько исследование "понравится" ревьюерам и заранее исправить замечания, которые обнаружит агент.

Меня вдохновила история студента, чью работу отклоняли 6 раз за 3 года. Цикл обратной связи обычно занимает примерно пол года, и это мучительно долго. Я захотел проверить, насколько агенты смогут помочь исследователям ускорить процесс.


Систему обучали на ревью с конференции ICLR 2025. Качество оценивали с помощью корреляции Спирмена: чем выше значение, тем ближе ревью агента к человеческим, то есть тем точнее "прогноз" агента относительно вашей работы.

В результате корреляция ИИ с человеком получилась равной 0.42. Кажется немного, но вот вам фанфэкт: корреляция между ревьюером и другим ревьюером в среднем составляет 0.41. То есть верить инструменту вполне можно.

На инференсе агент использует atXiv для ревью, так что лучше всего тулза работает именно с CS/ИИ статьями, которые публикуются там в избытке.

Забирайте, это бесплатно: https://paperreview.ai/

Читать полностью…

Data Secrets

Лучшая новость дня: у Дваркеша Пателя завтра выйдет интервью с Ильей Суцкевером.

Последний раз ученый давал интервью журналистам, кажется, в 2023.

Ждем сильнее, чем новый Claude Opus 4.5

Читать полностью…

Data Secrets

⚙️🦾 Ансамбли моделей в Scikit-learn — усиливаем ML-модели за счёт объединения

Ансамбли моделей — проверенный способ повысить стабильность и точность прогнозов. На открытом уроке разберём, как объединять алгоритмы, чтобы добиться лучших результатов. Вы научитесь использовать bagging, boosting, stacking, сравните одиночные и ансамблевые модели и увидите, как на практике растут метрики. Разберём популярные инструменты библиотеки: RandomForest, GradientBoosting, VotingClassifier, StackingClassifier — и посмотрим, какие из них работают эффективнее для ваших задач.

Урок будет полезен ML-инженерам, аналитикам и разработчикам, которые хотят не просто обучать модели, а добиваться максимального качества и устойчивости решений. Вы поймёте, как валидировать ансамбли, комбинировать подходы и избегать ошибок при настройке.

➡️ 2 декабря в 20:00 МСК. Открытый урок проходит в преддверии старта курса «Machine Learning. Professional». Регистрация открыта: https://otus.pw/8orR/

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576

Читать полностью…

Data Secrets

Не кодь — вайбкодь. Бесплатно 🚀

Сбер представил бесплатный агентный режим GigaCode — нового цифрового разработчика, который берет на себя рутину, чтобы вы могли сосредоточиться на крутых задачах!

Что умеет GigaCode в агентном режиме?

Сам находит и открывает нужные файлы

Вносит изменения в код, запускает тесты, собирает проекты и оформляет коммиты в Git

Работает в вашей любимой среде: JetBrains IDE, GigaIDE Desktop, а скоро еще и в VS Code

Плюс, в GigaCode появилась новая модель автодополнения кода — GigaCode Inline 4.0. Она мгновенно предлагает нужные фрагменты кода для Python, Java, JavaScript и других языков. Подсказки стали еще точнее, а работа с контекстом — еще лучше.

🖱 Хотите ускорить разработку? Обновленный GigaCode уже доступен на GitVerse.

Начать вайбкодить — по ссылке

Читать полностью…

Data Secrets

Андрей Карпаты: «Люди не понимают, что животный интеллект – это всего одна точка в пространстве интеллектов»

В X случился очередной интересный питч от Андрея Карпаты на тему разницы между животным и искусственным интеллектом. Подготовили краткий перевод:

Люди плохо осознают, что пространство форм интеллекта огромно, а животный интеллект – лишь одна точка в нем, возникшая из очень специфического типа оптимизации. Интеллект LLM формируется принципиально иначе.

Животный интеллект оптимизирован под выживание: непрерывное «я», самосохранение, сильные инстинкты (страх, агрессия, воспроизводство), сложные социальные взаимодействия и способность к исследованию мира. Он формируется в многозадачной и враждебной среде, где любая ошибка может стоить жизни – отсюда его общность.

LLM, напротив, оптимизируются под статистическое моделирование текста, дообучаются на задачах с подкреплением и отбираются через метрики вовлечённости. Их базовое поведение – это имитация и угадывание шаблонов, а не выживание. Они стремятся понравиться пользователю, а не выжить в мире, поэтому их интеллект более неровный и зависит от данных и задач.

Различаются и субстрат (мозг vs трансформер), и обучение (эволюция vs SGD/RL), и режим существования (непрерывное живое существо vs модель, которая включается и выключается).

Главное отличие – оптимизационное давление: животные – продукт биологической эволюции, LLM – продукт коммерческой. Это не выживание в джунглях, а «реши задачу и получи апвоут».

LLM – наш первый неживотный интеллект. И те, кто продолжает мыслить по биологической аналогии, будут неверно понимать его природу и будущее.

Читать полностью…

Data Secrets

Только что на True Tech Champ послушали доклад исследователя Валентина Малых (@valuableai). Валентин руководит фундаментальными исследованиями в MWS AI и преподает в ИТМО, МФТИ и НИУ ВШЭ. 

Он уже очень долго занимается информационным поиском и рассказал много интересного на тему реального развертывания таких систем. В частности, затронул довольно горячую тему: RAG против длинного контекста

Бытует мнение, что RAG – это костыль, обходной путь вокруг ограничений короткого контекста LLM, который работает хуже. И действительно, с RAG бывают проблемы. 

Например, Валентин упомянул статью от DeepMind, чьи исследователи доказали, что RAG имеет фундаментальное ограничение: при фиксированной длине вектора, начиная с некоторого размера базы, извлечение всех релевантных документов становится математически невозможным. Более подробно эту статью мы разбирали здесь. 

А вот что Валентин говорит по поводу полной замены RAG длинным контекстом:

1. Длинный контекст – не панацея. Сейчас появляются модели все с большим и большим контекстным окном, но прогонять текст через них дорого и долго. Можно пользоваться RAG, и при этом получать почти такое же качество в десятки раз быстрее.

2. В ближайшем будущем вряд ли будет модель, которая сможет прочитать «все и сразу». Все знания человечества – это примерно 30 триллионов токенов, то есть довольно много. Так что RAG останется актуальным даже с увеличением контекста. И из-за качества, и из-за эффективности: во многих задачах лучше получить не очень хороший ответ сейчас, чем хороший через полчаса. 

3. Возможно, с развитием ИИ понимание RAG изменится. Технологии поменяются, но концепция останется: извлекаем из чего-то большого что-то маленькое, чтобы с этим работать. Например, тренд на появление в сетях долгосрочной памяти – тоже из этой области.


Спасибо Валентину за содержательную презентацию и разговор!

Выступление полностью и трансляцию остальных выступлений спикеров смотрите здесь

Читать полностью…

Data Secrets

Через полчаса на True Tech Champ начинается суперфинал по программированию роботов.

10 команд со всей страны, которые вышли в финал, с утра соревновались в прохождении трех трасс: полоса препятствий (ее хорошо видно на фото), лабиринт и трасса «над пропастью».

Сейчас 6 победителей сразятся в поединках в формате "Царь горы". Должно быть зрелищно.

Трансляцию битвы можно будет смотреть вот тут. В том числе выступят команды от многих вузов, так что болейте за свою альма-матер!

Ну а мы пока еще успеваем на пару локаций. Уже были на ИТ-Родео, проходили ИИ-лабиринт, сражались робо-пауками и проходили мини-квест с электронными замками. Даже заработали несколько True Coins (но на мерч пока не хватает, так что идем добивать 😐)

Читать полностью…

Data Secrets

Мы приехали на True Tech Champ 2025 – третий всероссийский чемпионат по алгоритмическому и робототехническому программированию.

Сегодня тут можно будет понаблюдать, как 350 самых талантливых программистов со всей страны сразятся за 10 250 000 рублей, послушать выступления известных экспертов, самому покодить на воркшопах и развлечься на одиннадцати специальных станциях.

Например, тут есть айтивность, где надо решить алго-задачку, при этом удерживаясь в седле механического быка (100% must). А лекторий оформлен в стиле ИТ-качалки.

Трансляцию выступлений, кстати, уже запустили, так что можете взглянуть на расписание и смотреть фест сами, он абсолютно бесплатный. Вот ради чего приехали мы:

1. Воркшоп знаменитого Майкла Лэнхема. Он автор книги AI Agents in Action и сегодня проведет тут двухчасовой мастер-класс по ИИ-агентам.

2. Выступления Тони Янга (директор по североамериканскому бизнесу в Unitree Robotics), Валентина Малых (один из лучших экспертов по RAG в России) и Артема Лыкова (специалист по world models).

3. И, конечно, битва роботов. Финалистам чемпионата предстоит пройти полосу препятствий, лабиринт и узкую трассу, а в суперфинале будут поединки между роботами 1–1.

Кто тоже пришел офлайн – подходите общаться!

Читать полностью…

Data Secrets

🤝У вас есть AI-проект, у Selectel – мощности для него

Арендуйте выделенные серверы с GPU в Selectel для ускорения задач по инференсу и обучению LLM в Selectel: Большой выбор видеокарт (от RTX 4090 до H200),
• Готовые и кастомные конфигурации серверов,
• Аренда на день или месяц,
• Запуск сервера от 2 минут,
• Возможность аренды сервера с доставкой до вашей площадки.

Разверните ваш проект на выделенных серверах с GPU в Selectel: https://slc.tl/ukwsk

Реклама. АО "Селектел". erid:2W5zFHzHnGx

Читать полностью…

Data Secrets

🦾 Argo Workflows и MLOps: автоматизируйте всё, что можно

Если вы хотите, чтобы обучение и деплой моделей стали управляемыми и предсказуемыми — пора переходить к автоматизации. На открытом уроке разберём, как оркестрация ML-процессов в Kubernetes превращает хаос в стройную систему. Мы покажем, как описывать пайплайны в YAML, передавать данные между шагами и управлять всем через UI и CLI. Разберём архитектуру Argo Workflows и создадим типовой ML-процесс: от обучения до деплоя модели.

Вы научитесь использовать Argo Workflows для автоматизации задач, которые раньше занимали дни. Вы увидите, как CI/CD становится естественной частью ML-инфраструктуры. Поймёте, как Data Scientists и DevOps могут говорить на одном языке.

➡️ Регистрируйтесь на открытый урок в преддверии старта курса “MLOps”. Создавайте надёжные и масштабируемые ML-пайплайны: https://otus.pw/jHgt/

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576

Читать полностью…

Data Secrets

Сегодня у нас рекомендация для тех, кто ценит подход "честно и по делу"

Без предисловий, вот вам отличный канал: @dimabeseda. Это дневник опытного действующего предпринимателя Дмитрия Беседы, в котором он честно и без прекрас делится опытом, мыслями, рефлексией и факапами.

Несколько фактов про автора, чтобы вы поняли, о ком речь:

1. Он сделал уже несколько успешных стартапов в области гейминга и ИИ. Среди них проекты, проданные Xsolla, и сервисы с более чем 5 миллионами пользователей в месяц.

2. Первые деньги Дима заработал, прокачав рейтинг в World of Warcraft одному известному хоккеисту, а однажды продавал виртуальных коней члену королевской семьи Дубая.

3. В своих проектах он потратил совокупно более $15 млн на рекламу у инфлюенсеров. А сейчас, кстати, развивает AI-агента для продюсирования видео для креаторов в Instagram, TikTok и Youtube. Об этом он тоже пишет в канале.


В общем-то, все остальное: оригинальный взгляд автора, его опыт и приятную манеру письма – вы и сами оцените, когда почитаете канал.

Кем бы вы ни были: предприниателем, разработчиком, маркетологом или менежером, – вы точно найдете что-то для себя. Это именно тот тип контента, который расширяет картину мира и дает пищу для размышлений.

Вы поняли, что делать: @dimabeseda

Реклама. Беседа Д.С., ИНН 504715529675, erid 2kry8FytRl

Читать полностью…

Data Secrets

Разыскивается гуру метрик, который точно знает, как улучшить любую рекламу 🕵️

Если это ты, приходи 29 ноября на One Day Offer для Data-аналитиков — получишь реальный шанс стать частью рекламной платформы SberAds и работать над креативными задачами:

➖ создавать гипотезы для роста метрик
➖ визуализировать мониторинг качества ключевых метрик
➖ анализировать взаимосвязи между показами, кликами, конверсиями и т. д.
➖ разрабатывать SQL-запросы и ETL-логику

Регистрируйся по ссылке — будущие коллеги уже ждут!

Читать полностью…

Data Secrets

Джефф Безос основал ИИ-стартап Project Prometheus

Пока подробностей немного: компания находится в стелс моде. Известно только, что Безос уже собрал 6.2 миллиарда долларов инвестиций, часть из которых вложил сам, и что он будет занимать роль Co-Chief Executive.

Ключевая цель стартапа заявляется как «ускорение научных открытый и повышение эффективности классических производственных процессов». В компании хотят сделать ставку на ИИ, который будет учится на реальных физических экспериментах и данных.

Звучит занятно, конечно. Некоторые издания пишут, что в команде уже почти 100 опытных исследователей. И еще есть изюминка: ожидается тесная связь стартапа с Blue Origin, аэрокосмической компанией Безоса.

Читать полностью…

Data Secrets

У Google Colab теперь есть официальная интеграция с VSCode

Это значит, что наконец-то можно будет подключать локальные ноутбуки к средам Colab и, не выходя из IDE, использовать, например, TPU.

Как это сделать:

1. В VSCode заходим в Extensions, ищем Google Colab и устанавливаем.

2. Создаем или импортируем файл .ipynb в проект.

3. Кликаем Select Kernel справа сверху, выбираем Colab и затем нужный runtime. Заходим в свой аккаунт Google и готово.

Как говорится, happy coding 🍯

Читать полностью…

Data Secrets

Сэм Альтман совместно с Льюисом Андре основал компанию, заявленную как «новый тип R&D-организации»

Компания под названием Episteme намерена нанимать выдающихся исследователей из разных областей и давать им возможность заниматься своими исследованиями без бюрократии и давления со стороны коммерции.

Сотрудникам они обещают все необходимые ресурсы, инфраструктуру и поддержку. Также исследователи будут получать долю в компании.

Цель – заниматься идеями, которые могут стать прорывными в долгосроке. В академии на такие обычно не хватает денег, а в индустрии они не получают достаточно внимания или свободы, потому что промышленность ориентирована на быстрые результаты и прибыль.

По темам целятся в пересечение физики, биологии, вычислений и энергии. То есть все равно в те области, где значимые исследования в итоге могут принести значимый экономический эффект (но в анонсе, конечно, говорится только про эффект для человечества).

В общем, пока звучит слишком хорошо для того, чтобы быть правдой, но новость интересная. Посмотрим, кто пойдет к ним работать.

Сайт: episteme.com

Читать полностью…
Subscribe to a channel