Канал, в котором мы говорим про искусственный интеллект простыми словами Главный редактор и по рекламе: @crimeacs Иногда пишут в канал: @GingerSpacetail, @innovationitsme
🔍 Как быстро собрать весь код из проекта для подачи в LLM
В последний месяц, по разным причинам, приходится много разбираться с чужим кодом. И в этом мне помогает следующий лайфхак.
Хотите эффективно работать с большими кодовыми базами в ChatGPT или Claude? Команда find в Unix-системах поможет собрать все файлы с кодом в удобном формате!
Вот несколько полезных команд:
1️⃣ Собрать все Python файлы с путями и содержимым:find . -name "*.py" -type f -exec echo "=== {} ===" \; -exec cat {} \; > all_code.txt
2️⃣ То же самое, но с JavaScript:find . -name "*.js" -type f -exec echo "=== {} ===" \; -exec cat {} \; > javascript_code.txt
3️⃣ Собрать сразу несколько типов файлов:find . \( -name "*.py" -o -name "*.js" -o -name "*.tsx" \) -type f -exec echo "=== {} ===" \; -exec cat {} \; > project_code.txt
4️⃣ Скопировать в буфер обмена (для macOS):find . -name "*.py" -type f -exec echo "=== {} ===" \; -exec cat {} \; | pbcopy
🔑 Что делает эта команда:
- find . - ищет файлы в текущей директории и поддиректориях
- -name "*.py" - фильтрует по расширению
- -type f - только файлы (не директории)
- -exec echo "=== {} ===" \; - добавляет разделитель с путём к файлу
- -exec cat {} \; - выводит содержимое файла
- > all_code.txt - сохраняет результат в файл
💡 Теперь вы можете легко подать весь релевантный код в LLM для анализа, рефакторинга или поиска ошибок!
Поздравляю с Новым Годом! 🎄
Желаю всем хорошего настроения, энергии и чтобы не иссякал энтузиазм.
Начало 2024 года ощущалось, как будто нас накрывает волной, и казалось, что самое главное - это грести из всех сил, чтобы оказаться на её гребне.
2025 год - это уже про настоящий серфинг. Кто был молодцом и упорно греб, преодолевая сопротивление воды и страх перед высотой волны, теперь должен сделать глубокий выдох, уверенно оттолкнуться от доски и встать на нее. Пришло время поймать эту волну, балансировать и управлять движением, чувствуя её силу и используя её энергию.
Поехали! 🏄
Кто из AI ассистентов для кода заработал больше всех в 2024?
Oliver Molander в своем LinkedIn посте собрал статистику по ARR в 2024 году среди специализированных AI ассистентов для кода.
💰 JetBrains заработал больше всех ($593M ARR), на втором месте Github Copilot ($400M ARR), на третьем Cursor ($65M ARR)
📮LinkedIn post
Cursor Agent - друг, который знает всё, и не осуждает за глупые вопросы. А ещё готов сделать ВМЕСТО тебя.
Во время вашего традиционного рождественского созвона, Артемий между делом обратил внимание на режим "agent" в Cursor. Я переключила этот едва заментный микро рычажок, и тоже перешла из режима normal - в режим непрерывного ох.ния, простите за мой французский.
Мы с курсором и раньше классно общались: он терпеливо отвечал на мои вопросы, неустанно дебажил мой г.нокод, был со мной в самые непростые минуты создания (ещё не релизнутой) python библиотеки для симуляции взаимодействия наночастиц с клетками по законам термодинамики и комбинаторики.
Но Cursor Agent умеет исправлять и создавать (!) файлы в самых разных папках проекта. Это крисмас мэджик какой-то, ребята.
Самое морально сложное с курсором, пожалуй, - дать разрешение ему на все во время установки. Но если это внутреннее сопротивление преодолеть, то будете удивляться, как раньше жили без него.
По шагам запуск режима Агента:
1. Комбинацией CMD + I (MacOS) запустите Composer
2. В окне Composer в самом внизу в самой последней строчке, написанной бледно-серым цветом, включите режим agent
3. Опишите максимально подробно задачу, предоставьте любой контекст (снимки экрана, файлы - что есть)
4. Отправьте и наблюдайте, как Agent творит чудеса
5. Просмотрите изменения и утвердите по мере необходимости
Очевидные лайфхаки, но полезно помнить:
• Делите задачи на подзадачи.
Структурируйте запрос: и агент лучше справится, и вам будет легче докручивать компоненты.
• Итеративный подход.
Можно и нужно уточнять и дорабатывать запросы - взаимодействие с агентом по умолчанию устроено как последовательные запросы.
• Учитесь.
Просите объяснить сложные части кода как для пятилетнего или на примере какашек. Это здорово помогает прокачивать скиллы.
Приятных открытий!
По мнению многих (и меня в том числе), самый главный софт года - Cursor.
Cursor примечателен тем, что благодаря ему я за весь рабочий год не написал ни одной функции полностью руками (ну ок, написал одну, на собесе в Страйп).
Напоминаю, что в нашем канале еще в мае вышел текстовый лайв с моей встречи с их фаундером 🙃
А первый раз я порекомендовал им воспользоваться в январе.
Это я к чему? На нашем канале инсайты проверенные временем :)
В следующие дни до Нового года мы разберем и другие значимые инсайты этого года. Так что оставайтесь на связи – впереди еще много интересного! 🎄
В продолжение нашего разговора о прогнозировании временных рядов, давайте глубже рассмотрим ключевые компоненты современных систем прогнозирования на основе больших языковых моделей, опираясь на последние исследования.
Архитектурные инновации
- Разработка WaveToken - интересный подход к токенизации временных рядов через вейвлет-преобразования
- Chronos - минималистичный подход к адаптации языковых моделей
- TimeMixer++ продемонстрировали эффективность гибридных архитектур
Обработка контекстной информации
- TimeGPT-1 показали возможность работы с разнородными данными из множества доменов
- LLMForecaster представил инновационный подход к интеграции текстового контекста
- TimeFM достиг впечатляющих результатов при существенно меньшем размере модели
Особенно интересно отметить результаты последних бенчмарков, показывающих, что закрытые модели (GPT-4, Gemini) значительно превосходят открытые решения в понимании временных рядов. При этом исследования показывают три ключевых направления развития: LLM как усилитель существующих моделей, как предиктор и как агент.
Исследования в этой области, особенно работы по Resolution-Aware Retrieval и Context is Key benchmark, открывают путь к созданию более совершенных систем прогнозирования, способных учитывать широкий спектр факторов и предоставлять обоснованные предсказания в различных областях применения.
Открытая реализация масштабирования времени обдумывания (inference time): от O1 к открытым моделям
Команда Hugging Face успешно воспроизвела и адаптировала для открытых моделей подход, который OpenAI впервые продемонстрировала в своей модели O1. Теперь эта техника доступна всем! 🚀
В 2024 году OpenAI первыми показалили, как увеличение времени "обдумывания" может значительно улучшить производительность модели на сложных задачах. В частности, их модель O1 демонстрировала постоянное улучшение результатов на математических задачах при увеличении вычислительного бюджета на этапе вывода.
Что удалось воспроизвести? 🔍
Команда Hugging Face адаптировала этот подход для открытых моделей и показала, что:
- Маленькая модель Llama 1B может достичь производительности Llama 8B
- Модель Llama 3B может конкурировать с Llama 70B
- Всё это возможно без доступа к закрытым моделям или огромным вычислительным ресурсам
Как это работает? 🤔
Основная идея та же, что и у OpenAI - дать модели больше времени на "размышление". Команда реализовала и сравнила три подхода:
1. Best-of-N (Базовый подход)
- Генерируем несколько решений
- Выбираем лучшее с помощью верификатора
- Простой, но эффективный метод
2. Beam Search (Продвинутый метод)
- Систематический поиск решений
- В 4 раза эффективнее Best-of-N
- Оптимален для сложных задач
3. DVTS (Новый метод от HF)
- Улучшение beam search
- Фокус на разнообразии решений
- Лучшая производительность при большом бюджете
Необходимые компоненты:
- Открытая базовая модель (например, Llama-3.2-1B-Instruct)
- Модель-верификатор (например, RLHFlow/Llama3.1-8B-PRM)
- Реализация стратегии поиска
Значение для сообщества 🌟
Эта работа особенно важна, потому что:
- Делает продвинутые техники доступными для всех
- Показывает, что маленькие открытые модели могут быть очень эффективными
- Предоставляет практическую реализацию для экспериментов
Что дальше? 🚀
Открытая реализация этих методов открывает новые возможности:
- Применение подхода к другим задачам
- Улучшение верификаторов
- Разработка новых стратегий поиска
Это отличный пример того, как открытые модели и исследования двигают область вперёд.
Блог-пост
В продолжение разговора о метаанализе ИИ-систем, давайте разберемся в Clio подробнее.
Фундаментом системы является многоуровневый пайплайн обработки данных с несколькими ключевыми компонентами:
Извлечение характеристик
- Система использует специализированные языковые модели для анализа каждого диалога
- Извлекает множество параметров: язык общения, тему, намерения пользователя
- Работает как с прямыми метриками (длина диалога), так и с семантическим анализом
Умная кластеризация
- Применяет embedding-based clustering для группировки похожих диалогов
- Использует k-means с динамическим определением оптимального числа кластеров
- Строит иерархическую структуру паттернов использования
Защита приватности
- Многоуровневая фильтрация персональных данных
- Агрегация информации только при достаточном количестве похожих случаев
- Автоматическая проверка на отсутствие идентифицирующей информации
Результаты
- Система выявила основные сценарии использования ИИ (программирование, создание контента, исследования)
- Обнаружила культурные различия в применении ИИ
- Помогла выявить и предотвратить попытки злоупотребления системой
Особенно важно, что Clio демонстрирует новый подход к анализу ИИ-систем, где сам искусственный интеллект используется для понимания паттернов своего применения.
Исследование знаменует важный шаг в развитии прозрачных и этичных методов анализа ИИ-систем, объединяя передовые технологии машинного обучения с принципами защиты приватности.
Статья
Зацените номера! BETA AI
Вот это я понимаю человек живет 🤖
📍 Oyster Point, South San Francisco
Тем временем, на секундочку, вернемся к настоящим видосам.
Оптимус вышел на прогулку рядом с офисом Tesla в Пало Альто.
Сделал свое первое видео с Sora
Генерация 2х вариаций 5 секундного ролика заняла 4 минуты (полагаю что из-за очереди, но в явном видео это нигде не указано).
Мой запрос (я просил Сэма Алтмана поющего рождественские хоралы) был отредактирован в соответствии с политикой контента OpenAI.
Ролики прикладываю в комментарии.
Очевидно что это сора это навык, и еще более очевидно, что за следующий месяц мы насмотримся абсолютно безумных, невероятных и крайне неожиданных результатов.
🌟 Открыт набор задач для Международной олимпиады школьников по искусственному интеллекту (IOAI 2025)!
Если вы:
- Работаете в сфере ML/AI
- Имеете интересные идеи для олимпиадных задач
- Хотите внести вклад в развитие будущих AI-исследователей
То у вас есть уникальная возможность стать частью этого масштабного образовательного проекта!
🎯 Авторы лучших задач получат приглашение посетить олимпиаду в Китае летом 2025 года.
⏰ Дедлайн подачи задач: 31 января 2025 года
Ваши задачи помогут вдохновить и подготовить новое поколение AI-исследователей. Это шанс войти в историю развития AI-образования!
Подробная информация и помощь по всем вопросам доступны по ссылке. Присоединяйтесь! 🚀
В продолжение нашего разговора о языковых моделях для игр, давайте рассмотрим что именно было сделано.
Фундаментом системы является MAV (Multi-Action-Value) специализированная языковая модель, обученная на десятилетиях игровых данных. MAV может одновременно выполнять несколько важных функций:
- отслеживать состояние игры
- оценивать позиции и
- генерировать возможные ходы.
При этом модель демонстрирует крайне низкий уровень галлюцинаций - практически 100% точность в определении корректных ходов и предсказании следующих позиций.
На базе этой модели были реализованы два подхода к планированию:
1. Внешний поиск (external search) использует MAV для управления Monte Carlo Tree Search (MCTS) без обращения к внешним игровым движкам. Модель направляет процесс построения дерева поиска и оценки позиций, опираясь на свои внутренние знания об игре. При использовании всего 100-1000 симуляций (у традиционных движков десятки тысяч) система достигает уровня гроссмейстера.
2. Внутренний поиск (internal search) позволяет модели генерировать и анализировать дерево вариантов прямо в контексте запроса. MAV напрямую строит линеаризованное дерево возможных продолжений и выбирает оптимальный ход. Чем больше токенов выделяется на поиск, тем сильнее играет система.
Результаты впечатляют: система превосходит современные движки в 97.2% тестовых позиций. Особенно важно, что эти подходы не ограничены шахматами - те же принципы можно применять для улучшения рассуждений языковых моделей в других областях, где требуется анализ вариантов и планирование.
Это исследование открывает новую главу в применении языковых моделей, демонстрируя, как объединение современных методов машинного обучения с классическими алгоритмами поиска может привести к качественному скачку в решении сложных задач планирования и рассуждения.
Статья
В продолжение разговора о Test-Time Training (TTT), давайте разберем технические детали этого подхода.
🔍 Архитектура TTT состоит из трех ключевых компонентов:
1. Генерация данных для обучения:
- Создает "leave-one-out" задачи из тренировочных примеров
- Применяет набор обратимых трансформаций (поворот, отражение, транспонирование)
- Формирует расширенный набор данных для каждой конкретной задачи
2. Процесс адаптации:
- Использует LoRA-адаптеры для эффективного файнтюнинга
- Rank = 128 обеспечивает баланс между гибкостью и эффективностью
- Применяется к query, value проекциям в self-attention, MLP и выходным слоям
- Обучение происходит за 2 эпохи с batch size = 2
3. Система голосования:
- Генерирует множество предсказаний через различные трансформации
- Использует двухуровневое голосование:
* Сначала внутри каждой трансформации
* Затем между лучшими кандидатами от разных трансформаций
📊 Процесс обучения реализован в два этапа:
1. Предварительный файнтюнинг базовой модели:
- Обучение на синтетических данных ARC
- Использование существующих генераторов задач
- Применение геометрических трансформаций для аугментации
2. Test-Time адаптация:
- Создание уникальной LoRA для каждой задачи
- Оптимизация на примерах конкретной задачи
- Использование AdamW оптимизатора с learning rate 5e-5
🔬 Технические результаты:
- На модели 8B параметров достигает 53% точности
- Улучшает базовую точность в 6 раз для 1B модели
- В ансамбле с program synthesis достигает 61.9%
⚙️ Ключевые технические особенности:
- Не требует доступа к тестовым ответам
- Временные адаптеры удаляются после использования
- Эффективное использование памяти благодаря LoRA
- Работает с существующими языковыми моделями
🤓 Интересные технические находки:
- Иерархическое голосование работает лучше плоского
- Геометрические трансформации критически важны для успеха
- LoRA per task эффективнее общего адаптера
- QLoRA показывает сравнимые результаты при меньшем потреблении памяти
Этот подход открывает новые возможности для адаптивного AI, способного настраиваться на конкретные задачи в реальном времени, сохраняя при этом вычислительную эффективность.
*singing*
On the first day of Christmas, Sama gave to me:
O1 pro and 200 bucks for ChatGPT
Source
AgiBot World: Крутейший датасет для обучения роботов 🤖
Большинство существующих датасетов для обучения роботов не справляются с реальными проблемами из-за некачественных данных, ограничений сенсоров, слишком коротких задач в контролируемых средах.
AgiBot World - это первый крупномасштабный датасет для обучения роботов, разработанный для продвижения многоцелевых задач робототехники.
Что в нем есть?:
- 1 миллион+ траекторий от 100 роботов.
- 100+ 1:1 воспроизведенных реальных сценариев в 5 целевых областях.
- Современное оборудование: визуальные тактильные датчики / манипуляторы с шестью степенями свободы / двухрукие мобильные роботы
- Широкий спектр универсальных сложных задач
Помимо этого в нем есть базовые модели, тесты и экосистема для демократизации доступа к высококачественным данным для академического сообщества и промышленности.
🌐 Сайт
🪩 GitHub
🤗 HuggingFace
Как создавать LLM-агентов без лишней головной боли
(Личный опыт и наблюдения из практики Anthropic)
Знаете, похоже, годом агентов станет 2025-й. В уходящем году мы все пытались сделать их по-настоящему надёжными, и, кажется, не зря старались! К 2025-му главным стало не то, насколько "крут" твой агент, а умение собрать систему, которая реально решает конкретные задачи.
Недавно ребята из Anthropic поделились своими находками о том, как делать рабочих агентов без лишних сложностей. Давайте разберём самое важное.
🐨 Начинаем с простого
Первым делом чётко определите, что вам нужно от модели. Может, это перевод текста? Или рефакторинг кода? Или генерация контента? Не пытайтесь впихнуть всё и сразу в один вызов — это путь к хаосу.
Обязательно проверяйте результаты. Тесты, сравнение с эталонами, внутренние метрики — всё это покажет, насколько хорош ваш агент. Заметили слабое место? Усильте промпты или добавьте простую проверку.
Начните с базовых схем. Например, один вызов LLM для основной задачи и ещё один для проверки. Работает? Отлично! Усложнять будете только когда реально припрёт.
🕵️ Когда действительно нужны агенты
Агенты сами решают, какие инструменты использовать и в каком порядке. Иногда без этого не обойтись, особенно в сложных задачах, где заранее все шаги не пропишешь. Но имейте в виду: за такую свободу придётся платить — больше вычислений, больше времени, больше шансов накосячить.
Возьмём, к примеру, код-агента, который может работать с несколькими файлами и сам решает, как их править. Круто, но не забудьте про стоп-краны — ограничьте число итераций, чтобы агент не ушёл в бесконечный цикл.
🐋 Три кита агентостроения
1. Простота: чем меньше навороченной логики, тем легче жить
2. Прозрачность: должно быть видно, как агент планирует свои действия и какие подсказки получает
3. Понятный интерфейс: подробная документация, примеры, инструкции — чем яснее описано, что умеет агент, тем меньше сюрпризов
🦜⛓️💥 А как же фреймворки?
Да, есть куча готовых инструментов — LangGraph в LangChain, Amazon Bedrock's AI Agent и другие. С ними можно быстро начать, но под капотом там часто такие дебри, что отладка превращается в квест.
Мой совет: если код начинает напоминать чёрную магию — попробуйте вернуться к основам. Простые вызовы LLM, чёткое разделение задач, всё под вашим контролем.
👌 Практические советы
- Если задачу решают пара простых промптов — не городите огород
- Тестируйте как ненормальные: автотесты, сравнение с эталонами, сквозные сценарии
- Добавляйте проверки: пусть отдельный LLM или простой код следит, не пошло ли что-то не так
- Не бойтесь микшировать разные подходы: маршрутизация, параллельные вычисления, оценка-оптимизация — главное, не всё сразу
💻 Живой пример: рефакторим код
1. Начинаем просто: LLM читает файл и советует, как переименовать переменные
2. Если работает — расширяемся: добавляем центральный LLM, который раздаёт задачи "рабочим"
3. Проверяем результат: второй LLM или человек просматривает изменения перед мержем
🦆 Главное, что я понял
Успех с LLM — это не про создание монстра, который всё умеет. Это про простую, точную, управляемую систему на которую можно положиться (reliability). Начинайте с малого, держите всё на виду и усложняйте только по необходимости.
P.S. Если вдруг захотите своего помощника в стиле Cursor Agent — сначала чётко определите, к каким файлам и функциям он получит доступ. Давать агенту права на запись в репу иногда страшновато, но когда он начинает экономить время и нервы — это того стоит!
Блог-пост по агентостроению стоит почитать, потому что там намного больше четких схем и разобранных кейсов использования.
А как вы подходите к созданию LLM-агентов? Какие инструменты используете? Делитесь опытом в комментариях 🚀
Как ИИ меняет модели ценообразования ПО
В своей декабрьской рассылке Andreessen Horowitz (a16z) затронули очень интересную тему, а именно как ИИ радикально меняет подход к тому, как компании продают свои программные продукты 💰
Вот три ключевых тренда:
1️⃣ Программное обеспечение становится "трудом"
ИИ превращает традиционные сервисы в масштабируемые программные решения: Поддержка клиентов, продажи, маркетинг, payroll теперь могут быть автоматизированы.
2️⃣ Уход от модели "оплаты за место" (per-seat pricing)
Классический пример - Zendesk, в котором традиционно платили за число агентов тех. поддержки в месяц
Теперь, когда ИИ может обрабатывать тикеты, важно не количество юзеров, а результат работы.
Поставщики ПО переосмысливают свои модели ценообразования и переходят к оплате за конкретные результаты, которые их ПО помогает достичь пользователям.
3️⃣ Менее предсказуемые переменные затраты
ИИ-стартапы, использующие foundation models (OpenAI, Anthropic, Mistral), сталкиваются с переменными затратами, которые растут пропорционально использованию сервиса.
Каждый API-запрос, обработанный токен отражается на структуре затрат.
Неудивительно, что появляются новые бизнес модели завязанные на использование сервиса.
🔍 Интересно, что ИИ-нативные компании активно экспериментируют с новыми моделями. Например, Decagon просит оплату за диалог либо за результат. В Cursor платим за пользователя плюс доплаты за использование премиальных моделей.
В то время как традиционные игроки, которые добавили ИИ в свои уже существующие продукты, пока держатся за привычные схемы подписки 📠
Индустрия продолжает активно развиваться - ждём новых идей и решений в 2025! 🎄
😎Блог
📚 Хороший гайд по рынку AI от Translink Capital.
Тот случай, когда это не пост по отчету, а именно сам отчет.
Kelvin Mu из Translink Capital (давно и неплохо делает аналитику по сегменту) сделал чтиво по рынку искусственного интеллекта на 42 страницы. Тот случай, когда минимум графиков, которые мы любим, зато отчет достаточно емкий. Вдруг вы пропустили что-то по теме, это точно поможет расставить по полочкам. Понятно, что где в каком сегменте происходит.
Структура:
▪️Infrastructure Layer
▪️Model Layer
▪️Tooling Layer
▪️Application Layer
▪️Investments and M&A
▪️Other AI trends
Могу лишь еще лично направить почитать про тренд по Inference optimization в Tooling Layer, где сказано про наш уже бывший стартап Deci AI, который купила NVIDIA, но вообще каждый найдет там что-то свое. Очень кропотливо собраны тренды.
@proVenture
#ai #research
Закончились 12 дней Open AI, по этому поводу сделал вам песню про все что показали.
Читать полностью…Прогнозирование будущего с помощью языковых моделей 🤖📈
Друзья, сегодня поговорим о прогнозировании будущего с помощью больших языковых моделей (LLM). Исследователи показали как можно скомбинировать силу чисел и контекста!
🔍 Ключевой прорыв
До недавнего времени системы прогнозирования работали только с числами - представьте себе графики продаж или температуры. Но в реальном мире мы принимаем решения, учитывая множество факторов! Новый подход позволяет моделям понимать контекст так же, как это делаем мы с вами.
🛠️ Как это работает?
- Модель анализирует не только числовые данные, но и важную текстовую информацию
- Учитывает исторические события и будущие планы
- Понимает причинно-следственные связи
- Адаптируется к различным сценариям
📊 Практические примеры
- Прогноз загруженности дорог с учетом предстоящих мероприятий
- Предсказание потребления энергии с учетом погодных условий
- Анализ продаж с учетом маркетинговых кампаний
🎯 Интересные результаты
- GPT-4 и Gemini показали впечатляющие результаты в понимании временных рядов
- Модели успешно интегрируют текстовую информацию в прогнозы
- Точность прогнозов значительно улучшается при добавлении контекста
🔮 Будущее прогнозирования
Представьте себе системы, которые смогут:
- Анализировать множество источников данных одновременно
- Учитывать глобальные тренды и локальные особенности
- Давать объяснения своим прогнозам на человеческом языке
Это захватывающее время для искусственного интеллекта и анализа данных! Мы становимся свидетелями того, как машины учатся понимать временные ряды почти так же целостно, как люди.
Что думаете об этом прорыве? Делитесь своими мыслями в комментариях! 💭
Статья
В связи со слухами, предлагаю Claude новую рекламу 🤖
Это кстати ChatGPT рисует. Ждём анонса нового Dalle на след неделе
Антропик показали, как ИИ может анализировать сам себя 🔍🤖
Друзья, сегодня расскажу про крутейшее исследование от компании Anthropic - они создали систему Clio, которая позволяет безопасно анализировать миллионы разговоров с ИИ-ассистентом Claude.
В чём суть? 🎯
- Clio использует сам ИИ для анализа паттернов использования ИИ-ассистентов
- Система сохраняет приватность пользователей, работая только с обобщёнными данными
- Позволяет увидеть реальные сценарии применения ИИ в повседневной жизни
Что интересного обнаружили? 📊
- Самые популярные задачи: программирование, создание контента и исследования
- Пользователи из разных стран используют ИИ по-разному (например, в Японии больше обсуждают проблемы старения населения)
- Выявили новые способы злоупотребления системой, что помогло усилить защиту
Почему это важно? 💡
1. Впервые получили реальную картину использования ИИ в масштабе миллионов разговоров
2. Нашли баланс между аналитикой и приватностью
3. Создали основу для более безопасного развития ИИ-ассистентов
Технология работает как Google Trends, но для разговоров с ИИ - показывает тренды, паттерны и аномалии, не раскрывая личных данных пользователей.
Это прорыв в понимании того, как люди реально взаимодействуют с ИИ. И что особенно круто - система использует ИИ для анализа ИИ, что открывает новые горизонты в развитии безопасных и этичных технологий.
Судя по результатам анализа, мы в пузыре? В тоже время, Клодом пользуются в основном айтишники, так что может не так все и плохо 🤔
Блог-пост
Статья
Deep Research
Google выкатил интересное обновление Gemini, про которое напишу вообще все, а я же хочу сосредоточиться на том, что теперь ассистент умеет сам проводить исследования в интернете.
Выглядит это так:
Вы просите его разобраться в какой-то теме, например "как сейчас развивается рынок беспилотных автомобилей". Gemini составляет план поиска, показывает его вам на проверку, а потом начинает самостоятельно искать информацию в сети.
Он не просто собирает первые попавшиеся ссылки, а действует как настоящий исследователь - находит что-то интересное, копает глубже на основе найденного, проверяет разные источники. В итоге выдает структурированный отчет со всеми ссылками, который можно сразу выгрузить в Google Docs.
Представьте: вместо того чтобы часами сидеть с десятком открытых вкладок, делая пометки и пытаясь не утонуть в информации, вы получаете готовый обзор за несколько минут. При этом можете его обсудить с ассистентом и попросить что-то уточнить или переделать.
Пока Deep Research (так называется эта функция) доступен только в платной версии Gemini Advanced и работает на десктопе. В мобильное приложение обещают добавить в начале 2025 года.
А еще Google выпустил экспериментальную версию новой модели - Gemini 2.0 Flash. Она работает быстрее и умнее, но пока находится в режиме тестирования. Попробовать можно уже сейчас - просто выберите ее в выпадающем меню моделей.
И вот, мы стали еще на шажок ближе к тому моменту, когда ИИ-ассистенты действительно начнут освобождать нас от рутинной работы, а не просто отвечать на вопросы 😊
Блог-пост
Количество видео регулируется некими кредитами, которые видимо будут обнуляться каждый месяц.
2 вариации 5s 420p - 50 кредитов
Кстати, работает все это через Stripe =)
🎵 On the third day of Christmas, Sam Altman gave to me:
Generations with Sora,
O(1) fine-tuning,
And two hundred bucks for ChatGPT! 🎶
AMA: Ask me anything
Давно мы не беседовали! Я Артемий - автор и создатель этого канала. В следующие 24 часа готов отвечать на вопросы.
Пишите в комменты к этому посту 🥦
🎮 Gemini Научили Играть в Настольные Игры!
Новое исследование от DeepMind показывает, как языковые модели могут освоить сложные настольные игры, используя методы планирования, похожие на человеческие! 🧠
🎯 Главное открытие:
Исследователи разработали два подхода к планированию ходов:
- Внешний поиск: модель запускает симуляции Monte Carlo
- Внутренний поиск: модель создает дерево возможных вариантов "в уме"
🏆 Впечатляющие результаты:
- Достигнут уровень гроссмейстера в шахматах
- При этом ИИ анализирует примерно столько же ходов, сколько человек-гроссмейстер!
- Успешно играет в другие игры: шахматы Фишера, "Четыре в ряд" и Hex
🔍 Особенности подхода:
- Минимум "галлюцинаций" - модель точно понимает правила
- Предварительное обучение на специальных данных
- Точное понимание корректных ходов и прогнозирование позиций
🌟 Почему это важно:
- ИИ учится мыслить более "по-человечески"
- Методы применимы не только к играм
- Открывает путь к более эффективному обучению языковых моделей
🔮 Перспективы:
Разработанные методы можно применять для улучшения языковых моделей в более широком спектре задач, где требуется планирование и рассуждение.
📄 Блог-пост
♟️ Поиграть в шахматы
🧠 Test-Time Training
Исследователи из MIT представили инновационный метод Test-Time Training (TTT), который позволяет AI-моделям адаптироваться к конкретным задачам прямо во время работы! 🎯
🤔 Почему это важно:
- AI становится более гибким и точным
- Модель учится на лету, адаптируясь под каждую задачу
- Значительно повышает точность без увеличения размера модели
🔬 Что умеет TTT:
- Создает уникальный LoRA-адаптер для каждой задачи
- Улучшает точность до 6 раз по сравнению с обычными подходами (например few-shot learning)
- Достигает 53% точности на сложном бенчмарке ARC
- В комбинации с другими методами достигает уровня среднего человека (61.9%)!
⚡️ Основные преимущества:
- Не требует доступа к тестовым ответам
- Работает с существующими языковыми моделями
- Эффективно использует память благодаря LoRA
🎓 Как это работает:
- Создает временный адаптер для каждой задачи
- Обучается на примерах внутри задачи
- Использует умное голосование для выбора лучшего ответа
- После решения адаптер удаляется
🔮 Что дальше:
Метод открывает новые горизонты для AI-систем, способных адаптироваться к специфическим задачам в реальном времени. Это важный шаг к более гибкому и точному искусственному интеллекту! 🌍
📄 Статья
Y Combinator: почему вертикальные AI-агенты могут быть в 10 раз больше, чем SaaS
🌟 Рынок:
Искусственный интеллект (ИИ) меняет правила игры, как SaaS в 2000-х, но масштаб может быть еще больше. Каждый успешный SaaS-стартап может иметь аналог в виде вертикального AI-агента, который заменяет программное обеспечение и сотрудников.
🤖 Преимущества вертикального ИИ над SaaS:
- Экономия на ПО и затратах на персонал.
- Компании становятся более эффективными, требуя меньше людей.
- Технологии стремительно улучшаются каждые 3 месяца, и AI-агенты начинают заменять целые команды.
🚀 Как выйти на рынок:
- Продавать решения нужно не тем, кто потеряет работу из-за ИИ, а топ-менеджерам, заинтересованным в автоматизации.
- Сфокусируйтесь на скучной и повторяющейся административной работе — там скрыты миллиардные возможности.
📈 Истории успеха:
- MTic: Автоматизация тестирования QA.
- Cap.AI: Чатботы для разработчиков, уменьшившие потребность в крупных командах.
- Salient: Голосовые AI-решения для банков.
🔮 Будущее:
AI-инструменты помогут управлять крупными организациями и останутся специализированными, как SaaS.
🎞 Видео