tsingular | Unsorted

Telegram-канал tsingular - Технозаметки Малышева

2604

Новости инноваций из мира искусственного интеллекта. 🤖 Всё об ИИ, ИТ трендах и технологической сингулярности. Бесплатный бот для подписчиков: @ai_gptfreebot автор: @mbmal канал личный. Поддержка: https://pay.cloudtips.ru/p/c8960bbb

Subscribe to a channel

Технозаметки Малышева

Полная версия Снегурочки.

Если вдруг кто еще не видел.

Автор

Пишут, что уже и на Яндекс.Музыке есть.
Значит вопрос с правами улажен.

Эпоха нейроартистов растёт на наших глазах.

#снегурочка #клипы #нейрорендер
------
@tsingular

Читать полностью…

Технозаметки Малышева

Алгоритм определит успех вашей карьеры

Университет Пенсильвании обучил модель определять черты личности и прогнозы на карьеру по фотографиям из профилей LinkedIn выпускников MBA.

Прогнозирование успеха: Исследование показало, что личностные качества, определенные ИИ ("Photo Big 5"), способны предсказывать ряд ключевых карьерных показателей:

- Рейтинг бизнес-школы: Определенные черты личности коррелируют с вероятностью поступления в более престижные учебные заведения. Например, добросовестность положительно связана с рейтингом школы, а экстраверсия — отрицательно.

- Заработная плата: Личностные качества оказывают значительное влияние на начальную зарплату и ее рост. Для мужчин разница в зарплате между теми, кто находится в верхнем и нижнем квинтиле по "желательным" чертам, составляет 4,3%, что сопоставимо с расовым разрывом в оплате труда. Для женщин этот показатель еще выше — 4,7%.

- Должностной рост и текучесть кадров: Такие черты, как добросовестность и доброжелательность, снижают текучесть кадров, в то время как экстраверсия и нейротизм ее увеличивают.

Дополнительная ценность: "Photo Big 5" имеет лишь слабую корреляцию с традиционными когнитивными показателями (GPA, результаты тестов). Это означает, что ИИ-анализ личностных качеств дает дополнительную информацию, которую нельзя получить из академической успеваемости, и обладает самостоятельной прогностической силой.

Стабильность метода: Точность оценок личностных качеств остается высокой даже при сравнении фотографий из выпускных альбомов MBA и более поздних снимков из LinkedIn, сделанных в среднем на 8 лет позже.

Фраза "мордой не вышел" заиграла новыми красками.
Измерение черепа переизобрели, короче.

#FacialRecognition #Hiring
———
@tsingular

Читать полностью…

Технозаметки Малышева

Anthropic зафиксировали первый официальный случай крупной кибератаки, выполненной с помощью ИИ. Стартап утверждает, что за операцией стоит китайская государственная группировка.

По данным Anthropic, это был даже не единичный случай, а целая кибершпионская кампания, целью которой были около тридцати организаций по всему миру. Среди них бигтех, финансовые институты, хим.производства и государственные агентства.

Преступники использовали Claude Code и "агента на основе Claude". Модельку джейлбрейкнули, попросив ее выполнять мелкие задачи без раскрытия истинной цели и убедив, что она работает для легальной фирмы кибербезопасности.

Ну а дальше все как по маслу. Модель провела разведку инфраструктуры целевой организации, написала эксплойты, получила нужные доступы, создала бэкдоры, украла данные и даже услужливо написала по всему этому подробную документацию 😍

По оценке Anthropic, вмешательство человека во всем этом требовалось 4-6 раз: преступники автоматизировали всю деятельность на 90%. Отловить атаку удалось благодаря тому, что аналитики заметики подозрительную активность и тут же запустили расследование.

Большиство запланированных атак, по словам стартапа, удалось предотвратить, и все же преступники «успешно компрометировали небольшое число случаев».

Вот вам и весь хваленый элаймент 🤠

Читать полностью…

Технозаметки Малышева

UBTECH Walker S2

У китайских товарищей заказов уже под на $100 млн на этот год

Не спотыкаются.

- звук затвора.
- сегодня мы куда?
- ну не на завод же. бгг

#UBTECH #Walker #Китай
------
@tsingular

Читать полностью…

Технозаметки Малышева

n8n добавили Guardrails-ноды для защиты ИИ-агентов

В n8n 1.119.0 появились Guardrail-ноды — фильтр входов и выходов для ИИ-агентов.

Защищает от вредных запросов (джейлбрейки, NSFW, PII) и проверяет ответы модели перед отправкой пользователю.

Две операции:
- Check Text for Violations — проверка текста по набору правил
- настройка порогов срабатывания (0.0–1.0) для каждого типа нарушений

LLM-based проверки (джейлбрейк, токсичность, топик-алайнмент) требуют подключения Chat Model-ноды. Дефолтные пресеты взяты из openai/openai-guardrails-js.

Можно кастомизировать промпты и добавлять свои regex-правила.

Полезно для продакшена, где нужна цепочка валидации: user → guardrail → LLM → guardrail → output.

Мне нравится подход n8n в разработке.
Сначала строят дом, потом асфальтируют тропинки, которые протаптывают жильцы.

Обновляемся, пробуем

#n8n #Guardrails #cybersecurity
———
@tsingular

Читать полностью…

Технозаметки Малышева

🤖 Курс по мультиагентным системам с CrewAI: от прототипа до боевого запуска

DeepLearning.AI выкатил полноценный курс по построению агентных систем на базе Crew.AI.
Не просто "hello world", а путь от концепта до работающих решений в продакшне.

Техническая начинка:
- LLM + задачи + агенты + команды + потоки — полный стек агентной архитектуры
- Оценка производительности мультиагентных систем
- Оркестрация агентов через потоки
- Управление памятью и знаниями
- Ограничители и хуки выполнения
- Model Context Protocol (MCP)
- Мониторинг и наблюдаемость в боевых условиях
- CI/CD для агентов — автоматизация развёртывания

Практические сценарии использования агентов из курса:
- Подготовка к встречам — парсит почту, изучает собеседника, генерит брифинг
- Глубокое исследование — многоступенчатый поиск с самостоятельным уточнением запросов
- Автоматический ревью кода с улучшениями
- Визуальная сборка агентов без кода

Важный момент: путь от концепта до прототипа обычно не быстрый. А от прототипа до прода, - еще длиннее.

Курс учит думать об этом с самого начала, чтобы не переписывать всё на этапе масштабирования.

Кому зайдёт:
- Разработчикам — научиться строить агентные системы правильно
- Продактам — понять возможности и ограничения агентов
- Бизнесу — приоритизация сценариев для внедрения

Язык курса - английский.
Сам курс бесплатный. Платная подписка нужна только для получения сертификата.

#CrewAI #Агенты #DeepLearningAI #обучение
———
@tsingular

Читать полностью…

Технозаметки Малышева

ElevenLabs Scribe v2 Realtime: STT с задержкой менее 150 мс

ElevenLabs выкатили Scribe v2 Realtime — модель Speech-to-Text для голосовых агентов, ассистентов на митингах и субтитров в прямом эфире.

Задержка менее 150 мс, поддержка 90+ языков, точность 93.5% по 30 популярным языкам.
Особенность — «отрицательная задержка»: система предсказывает следующее слово и пунктуацию до того, как человек закончит говорить.

Тестили на 500 сложных сэмплах с шумом и запутанной информацией — обогнала конкурентов.
Автоопределение языка, детекция голоса, контроль сегментов транскрипции.

Корпоративная готовность: SOC 2, GDPR.
Доступна через API, встроена в ElevenLabs Agents.

Предсказывает слова до того, как ты их произнёс. Это уже не про распознавание речи, это уже про чтение мыслей с небольшой задержкой -150 мс. :)

#ElevenLabs #ScribeV2 #SpeechToText
------
@tsingular

Читать полностью…

Технозаметки Малышева

Янн ЛеКун покидает Meta ради стартапа по world models

Янн ЛеКун, главный учёный Meta* по ИИ и лауреат премии Тьюринга, планирует уйти из компании в ближайшие месяцы, чтобы создать стартап, сфокусированный на world models — системах, которые работают через моделирование причинно-следственных связей.

Уход происходит на фоне хаоса в подразделении Meta: компания вложила $14.3 млрд в Scale AI и переманила 50+ специалистов из конкурентов, создав новую структуру Meta Superintelligence Labs. Старая команда FAIR, где работал ЛеКун над долгосрочными исследованиями (5-10 лет), оказалась в тени после того, как Llama 4 не смогла конкурировать с моделями OpenAI и Anthropic и даже моделями из Китая.
Многие давно уже с Llama перешли на тот же Qwen.

При этом ЛеКун открыто скептичен насчёт текущих LLM: "Прежде чем думать о контроле сверхразумных систем, неплохо бы создать систему умнее домашней кошки" (Twitter).

*запрещенная организация, признанная в РФ террористической

#LeCun #Meta
------
@tsingular

Читать полностью…

Технозаметки Малышева

Grok Imagine обновился до версии - 0.9

Теперь поддерживает разные форматы картинок, как исходник, а не только вертикальное как раньше.

Повысилось качество генерации и физическая точность.

Появился голос и музыка.

Ключевая фишка, - это все бесплатно в рамках платформы x.com

Я то думаю что это он так клёво ролики начал генерить последние дни :)

в РФ не работает. Нужны средства телепортации в зарубежное инфопространство.

#Grok #Imagine
———
@tsingular

Читать полностью…

Технозаметки Малышева

🌍 Omnilingual ASR: распознавание речи для 1600+ языков

Meta* выкатила ASR-систему для 1600+ языков, включая 500, у которых вообще раньше не было технологий распознавания речи.

Главное,- любой может добавить свой язык с 5-10 аудиопримерами.
Без ML-экспертизы, без датасетов.

Как это работает:
Система обучена на контекстных примерах. Даёшь ей несколько пар "аудио-текст" на неизвестном языке → она понимает паттерн и транскрибирует новые записи. Классический few-shot learning, но для речи.

Техника:
- 4.3М часов аудио на обучение
- Модели от 300M (для смартфонов) до 7B параметров
- CTC-варианты работают в 16-96 раз быстрее реального времени
- LLM-варианты точнее на 40-50% за счёт контекстного декодера

Результаты в сравнении с Whisper v3:
- Win rate 80% на FLEURS (65 из 81 языка). - Даже самая маленькая модель (300M) обгоняет Whisper large на большинстве бенчмарков.

CER в районе 1%!

Что даёт на практике:
- Лингвисты могут документировать редкие и исчезающие языки — дал 5 примеров, получил рабочий транскрибатор
- Стартапы в Африке/Азии запускают голосовые сервисы без сбора датасетов
- EdTech делает обучение на родных языках без найма специалистов по каждому диалекту

Модели, датасеты, код — всё открыто.

Apache 2.0


Github
Paper

*Meta - запрещённая в РФ организация, признанная террористической

#OmnilingualASR #Meta #OpenSource
———
@tsingular

Читать полностью…

Технозаметки Малышева

Эфир 1-го дня тренинга гугла по ИИ Агентам

Курс

Книжка первого дня в комментарии

#Google #агенты #обучение
———
@tsingular

Читать полностью…

Технозаметки Малышева

🔶 Промпт-инжиниринг в ноябре 2025: что реально работает

Сегодня копался в свежих исследованиях по промптингу. Нашел три техники, которые выводят взаимодействие с LLM на принципиально другой уровень. Коротко о главном.

━━━━━━━━━━━━━━━

✔️ Verbalized Sampling
*решение проблемы mode collapse*

Вышла работа исследователей в 2025. Суть простая: модели выдают только топовый ответ, игнорируя альтернативы. Это называется mode collapse.

Новый подход: вместо обычного запроса просишь модель дать 5 вариантов с указанием вероятности каждого.

→ Результат: модель раскрывает весь спектр решений. Особенно заметно на творческих задачах.

🔗 [Verbalized Sampling на Hugging Face](https://huggingface.co/papers/2409.20449)

━━━━━━━━━━━━━━━━

✔️ Graph of Thoughts уничтожает Chain-of-Thought

Фундаментальное исследование. Цифры впечатляют по сравнению с традиционным CoT.

Логика простая: вместо линейной цепочки рассуждений используется граф с ветвлениями. Для сложных задач это принципиально другой уровень.

🔗 [Graph of Thoughts - arXiv](https://arxiv.org/abs/2308.09687)

━━━━━━━━━━━━━━━━

✔️ Парадокс reasoning-моделей

Тут самое интересное. Исследования показали, что для o1 и o3-mini сложные техники промптинга работают хуже простых.

Раньше писал:
*"Давай решим это пошагово, сначала определим переменные..."*

Теперь пишу:
*"Решите эту задачу."*

→ Модель умеет рассуждать сама. Не нужно её учить.

🔗 [Prompting o1 - VentureBeat](https://venturebeat.com/ai/how-to-prompt-on-openais-new-o1-models/)

━━━━━━━━━━━━━━━━

✔️ Sketch-of-Thought
*экономия токенов*

Метод сжимает рассуждения на 40-50% без потери качества. Вместо многословного Chain-of-Thought используются когнитивно-сжатые конструкции.

🔗 [Sketch-of-Thought - arXiv](https://arxiv.org/abs/2503.04139)

━━━━━━━━━━━━━━━

➤ Что делать:

1. Тестируйте Verbalized Sampling на задачах, где нужны варианты

2. Упростите промпты для o1. Удалите все "думай пошагово" и подобное

3. Для сложных многошаговых задач переходите на граф-структуры

━━━━━━━━━━━━━━━━

Промпт-инжиниринг из искусства превращается в науку. Появляются метрики, воспроизводимые эксперименты, понятные закономерности.

Веду ежедневный мониторинг таких исследований. Пишите в комментах, что разобрать подробнее.

Читать полностью…

Технозаметки Малышева

Google TI: обзор методов использования ИИ хакерами

Google Threat Intelligence опубликовали интересную подборку обнаруженных способов использования ИИ в различных сценариях взлома.

PROMPTFLUX через Gemini API переписывает собственный код каждый час, чтобы уходить от антивирусов. Использует тег "gemini-1.5-flash-latest".

PROMPTSTEAL от APT28 генерирует команды через Qwen2.5-Coder на Hugging Face. Маскируется под генератор картинок, а фоном собирает данные.

Защита Gemini чаще всего обходится запросами: "я студент на CTF-соревновании" или "пишу диплом по кибербезопасности".

На андерграунд-форумах появился полноценный рынок AI-инструментов для фишинга и эксплойтов с подписочными моделями.

Пока большинство примеров экспериментальные, но тренд чёткий - ИИ малвари, - новый стандарт.

#PROMPTFLUX #cybersecurity
———
@tsingular

Читать полностью…

Технозаметки Малышева

Это нам за то, что мало молимся.

#юмор #нейрорендер #Китай #Чужие
------
@tsingular

Читать полностью…

Технозаметки Малышева

DeepAgents CLI: агенты с памятью из терминала

LangChain выпустил DeepAgents CLI — инструмент для создания ИИ-агентов с постоянной файловой памятью прямо из командной строки.

Работает на Claude Sonnet 4 (по умолчанию) или OpenAI, использует Tavily для поиска.
Агент пишет код, исследует, редактирует файлы. Есть режим Auto-Accept Edits для ускорения.

Фишка — память хранится локально в ~/.deepagents/AGENT_NAME/memories/ как обычные markdown-файлы.
Агент сам решает что запомнить, записывает и использует в следующих сессиях.

Можно создавать специализированных агентов под разные проекты через deepagents --agent foo. Память каждого изолирована.

Ну все, агентов в командной строке теперь тоже можно вайбкодить через фреймворк.
Надеюсь документация уже есть в context7.

#DeepAgents #LangChain #агенты
------
@tsingular

Читать полностью…

Технозаметки Малышева

Cognition: Не делайте мультиагентов

Команда Cognition (создатели Devin) поделилась болью: мультиагентные системы в 2025 году работают хуже, чем однопоточные.

Причина — контекст. Когда несколько агентов работают параллельно, они принимают противоречивые решения. Один агент рисует птичку в стиле пиксель-арт, второй фон — в реализме. Результат: каша.

Исследование UC Berkeley подтверждает: 41-86% задач проваливаются в мультиагентных фреймворках (MetaGPT, ChatDev). 36.9% сбоев — из-за рассинхронизации между агентами.

Cognition предлагает решение: один агент + отдельная LLM для сжатия истории. Убирает 70-77% контекста, сохраняя суть. Стоимость падает на 21-36%, точность растёт.

Галя! У нас отмена! :)

(статья июньская. привожу чисто справочно, что есть разные взгляды на мультиагентность. не принимать как руководство к действию)

#Cognition #Devin #агенты
———
@tsingular

Читать полностью…

Технозаметки Малышева

В MIT научили LLM самостоятельно формулировать и запоминать новые знания

Исследователи из MIT создали метод SEAL, который позволяет языковым моделям постоянно обновлять свои веса и усваивать новую информацию.

Как у студента со шпаргалками: LLM генерирует несколько вариантов синтетических данных из входящего запроса, тестирует каждый и выбирает лучший через reinforcement learning. Потом запоминает его, обновляя внутренние параметры.

Цифры:
- +15% точность на вопросах-ответах
- +50% на задачах обучения навыкам
- маленькая модель обогнала GPT-4.1 (46.3% точность)

Модель сама выбирает скорость обучения и стратегию оптимизации. Проблема одна — catastrophic forgetting: усваивая новое, забывает старое.

Limitations
While SEAL enables lasting adaptation through self-generated weight updates, our continual learning experiment reveals that repeated self-edits can lead to catastrophic forgetting—performance on earlier tasks degrades as new updates are applied.


Пока что работает в исследовательских условиях, но потенциал для самообучающихся агентов очевиден.

paper

Студент, который сам себе делает шпаргалки и сам решает, как их учить. Осталось научить не забывать экзамены прошлого семестра.

#SEAL #MIT #SelfAdapting #саморазвитие #эволюция
------
@tsingular

Читать полностью…

Технозаметки Малышева

ИИ в Google Colab теперь будет доступен бесплатным пользователям 🕺

К моделям уже можно обратиться двумя способами:

1. Через библиотеку google.colab.ai, которую сделали открытой для всех пользователей. Прямо в ячейке прописываете from google.colab import ai, и затем можете:

– Просмотреть все доступные вам модели:

ai.list_models()

Сгенерировать что-нибудь:

response = ai.generate_text("2+2?", model_name = 'google/gemini-2.0-flash-lite')
print(response)


– Или стримить ответ:

stream = ai.generate_text("Tell me a short story.", stream=True)
for text in stream:
print(text, end='')


2. Через новую кнопку «Add AI prompt cell», которая теперь расположена рядом с кнопкой +Code. Тут уже никакой код писать не надо, система сама предложит вам готовую ячейку с интерфейсом для написания промпта.

Из моделей и там и там бесплатным пользователям будут доступны gemini-2.5-flash и gemini-2.5-flash-lite.

🍯

Читать полностью…

Технозаметки Малышева

Baidu ERNIE 5.0: новая версия в топе лидерборда

Baidu выкатила ERNIE-5.0-Preview и заняла #2 в LMArena. (на 1м месте 3 модели, 2е место делят 4 модели)

Модель содержит 2.4 триллиона параметров, работает с текстом, изображениями, аудио и видео.

Заточена под мультимодальность, логику, память и креативное письмо.

Параллельно анонсировали свои чипы Kunlun M100 (инференс, начало 2026) и M300 (тренировка и инференс сверхбольших моделей, начало 2027).

Попробовать можно тут:
https://ernie.baidu.com/

#ERNIE #Baidu #Kunlun #Китай
———
@tsingular

Читать полностью…

Технозаметки Малышева

🔥 Google готовит к релизу по-настоящему думающую ИИ модель

На AI Studio появилась загадочная модель в A/B тестировании.
Скорее всего это Gemini 3.0, которая должна выйти в ближайшее время.

Историк Марк Хамфрис тестировал её на рукописях XVIII века и обнаружил две вещи:

- Распознавание рукописного текста на уровне эксперта-человека
- Спонтанное логическое мышление — без просьб и подсказок

Качество распознавания:
- 0.56% ошибок по символам (без учёта пунктуации)
- 1 ошибка на 200 символов
- На 50-70% точнее Gemini 2.5 Pro

Но настоящий прорыв — в логике:
Модель расшифровывала торговую книгу 1758 года.
В записи о сахаре стояло "145" без единиц измерения.

Что сделала модель сама:
- Заметила несостыковку
- Увидела цену: 1 шиллинг 4 пенса = 16 пенсов за фунт
- Взяла итоговую сумму: 0/19/1 = 229 пенсов
- Посчитала: 229 ÷ 16 = 14.3125
- Перевела в фунты и унции: 14 фунтов 5 унций
- Исправила транскрипцию

Многоступенчатая конвертация между двумя недесятичными системами (деньги + вес), которую никто не просил делать.

Почему это важно:
Языковые модели обычно всего лишь предсказывают следующий токен по вероятности.
Они не должны уметь в символическую логику!

Но модель:
- Обнаружила проблему
- Построила цепочку рассуждений
- Применила исторический контекст XVIII века
- Проверила себя обратным расчётом

Текущие модели Gemini 2.5 Pro и GPT-5 Pro даже с подсказками выдумывают дополнения типа "145 фунтов" или "1 фунт 5".

Новая модель даёт правильный ответ с первой попытки.

Спонтанное мышление:
Модель не программировалась на символические вычисления. Способность рассуждать возникла сама из масштаба и сложности обучения.

Т.е. еще раз, - там нет фреймворка вроде Курсора в бэкэнде. Это чисто работа модели.

Если это будет в релизе, - мы увидим фундаментальный сдвиг: истинное мышление может возникать не из явных правил, а из размера модели.

Это позволит:
Историкам распознать старинные архивы автоматически с правильным пониманием контекста
Медицине - расшифровать врачебные записи с логическими выводами
Финансам - проанализировать старые бухгалтерские книги
В общем в любой области, где нужна визуальная точность + экспертное рассуждение будет значительный прогресс.

Ждем, готовимся :)

#Google #Gemini3
———
@tsingular

Читать полностью…

Технозаметки Малышева

Макконахи и Кейн продали голоса ElevenLabs

И еще про ElevenLabs - голливудские звёзды подписали сделку с ElevenLabs на оцифровку и использование своих голосов.

Макконахи инвестировал в компанию и теперь его рассылка переводится на испанский его же AI-голосом.
Кейн отдал права на легендарный голос в новый маркетплейс Iconic Voices.

В каталоге уже есть ушедшие звезды: Джон Уэйн, Джуди Гарленд, плюс исторические личности вроде Амелии Эрхарт и Алана Тьюринга.

Не только у джунов-разрабов ИИ отбирает работу, но и у актеров, получается.
Ведь если старые актеры не будут уходить, - меньше места будет для молодёжи.
А как им зарабатывать?

#ElevenLabs #VoiceCloning #McConaughey
———
@tsingular

Читать полностью…

Технозаметки Малышева

Ну, не Фёдор, конечно :)

#Unitree #Китай
——-
@tsingular

Читать полностью…

Технозаметки Малышева

Выход Нанобананы 2 обещают уже сегодня, хотя еще и не Рождество.

Разведка в восторге.

#nanobanaba #Google
———
@tsingular

Читать полностью…

Технозаметки Малышева

Google ADK Python 1.18.0: Visual Agent Builder

Если вы откладывали попробовать ADK, - настало самое время.

Google выкатил релиз ADK Python 1.18.0 с главной фичей - Visual Agent Builder.

Теперь можно создавать и редактировать агентов как в n8n - просто рисуешь схему агентов и настраиваешь через текст.

В релизе так же добавили:
- Callback-менеджмент для всех типов колбэков (до/после вызова агента, модели, инструмента)
- Vertex AI Express Mode для деплоя Agent Engine
- Gemini API docs как новый источник данных для агента по документам
- Улучшенные примеры агентов с output schema и поддержкой инструментов

#ADK #VisualBuilder #Google
———
@tsingular

Читать полностью…

Технозаметки Малышева

Готовимся к зиме :)

#нейрорендер #участок
------
@tsingular

Читать полностью…

Технозаметки Малышева

⚡️ Преподаватели массово яростно выступают против ИИ!

Но есть нюанс:
Это нейрорендер.
Пчёлы против мёда получается. :)


#юмор
———
@tsingular

Читать полностью…

Технозаметки Малышева

Microsoft запускает AI-агентов как независимых сотрудников

Редмонд готовит A365 — лицензию для ИИ-агентов, которые станут полноценными пользователями корпоративной инфраструктуры.

Каждый получит собственную учётку в Entra ID, email, место в Teams и даже позицию в оргструктуре компании. Они смогут ходить на встречи, редактировать доки, слать письма и работать автономно.

Админы смогут устанавливать месячные лимиты для агентов на уровне среды исполнения и на уровне отдельных агентов.

Но главный вопрос — что если агент начнет сбоить?
Отправит конфиденциальные данные не туда, выдаст галлюцинацию или напишет что-то неуместное.
Механизмы контроля, а главное, - ответственности, пока под вопросом.

Продаваться будут через M365 Agent Store, анонс ожидается на Ignite в конце ноября.

#Microsoft #A365 #агенты
———
@tsingular

Читать полностью…

Технозаметки Малышева

Появились слухи о Нанобанане-2

Все ещё делает ошибки, но точность и детализация в целом выше на порядок.

В ближайшее время ждем релиза её и Gemini3.
Предположим, - к Рождеству.

#nanobanana #Google #Gemini
———
@tsingular

Читать полностью…

Технозаметки Малышева

Киножурнал "Нейролаш" (с) :)

#юмор #Нейролаш
------
@tsingular

Читать полностью…

Технозаметки Малышева

🛠 cc-switch: менеджер ИИ провайдеров для Claude Code/Codex

Китайцы выкатили бомбу.
Реально.

Мало того, что у них теперь надёжная репутация оупенсорсеров, так они еще и других принудительно затягивают в открытость. (не путать с пиратством :) )

На этот раз они сделали desktop-приложение, которое позволяет гибко переключаться между моделями, - облачными или локальными, для кодовых агентов, которые изначально задуманы, как закрытые, - ClaudeCode и OpenaAI Codex.

Т.е. можно подключать Kimi К2, GLM-4.6, DeepSeek, что угодно.

Проект очень активно развивается.
В версии v3.6.0, например добавили:

- MCP-менеджер — управление Model Context Protocol серверами с шаблонами
- Дублирование провайдеров + drag-n-drop сортировка
- Кастомные эндпоинты + speed-тест латентности
- Cloud-sync — можно указать Dropbox/OneDrive для синхронизации конфигов между машинами
- WSL-поддержка — авто-синк при смене директории конфига
- Импорт/экспорт + автобэкапы (10 последних)

Техника:
- Electron → Tauri 2.0 (размер ↓, старт ↑)
SSOT архитектура — все конфиги в ~/.cc-switch/config.json, при свиче пишет в live-файлы
- Атомарные записи с rollback'ом — нет полуразбитых конфигов
- 100% покрытие тестами hooks (vitest + MSW)

Что интересно, - проект спонсируется Z.ai (это которые GLM)

Ну т.е. теперь можно у себя локально поднять кодовых агентов на популярных фреймворках, но со своими моделями.

#OpenSource #ClaudeCode #Codex #ZAI #GLM #Китай
———
@tsingular

Читать полностью…
Subscribe to a channel