Новости инноваций из мира искусственного интеллекта. 🤖 Всё об ИИ, ИТ трендах и технологической сингулярности. Бесплатный бот для подписчиков: @ai_gptfreebot автор: @mbmal канал личный. Поддержка: https://pay.cloudtips.ru/p/c8960bbb
Подключайте LLM и AI-модели — бесплатно 😎
До 31 октября открываем бесплатный доступ к моделям в Evolution Foundation Models.
В сервисе уже доступно больше 20 open source моделей, в том числе новинка от OpenAI — gpt-oss-120b, DeepSeek, Qwen и QwQ, T-pro-it-2.0, GLM-4.5 и другие 🧠
Все модели могут подключаться к внешним инструментам с Function Calling и поддерживают Reasoning.
Как это работает
Регистрируйтесь в личном кабинете Cloud․ru, выбирайте подходящие модели, интегрируйте их по OpenAI-совместимому API в ваши проекты, сравнивайте ответы и получайте быстрые результаты.
🌟 Embedding Atlas: визуализация структуры эмбедингов прямо в браузере.
Embedding Atlas — опенсорсный инструмент от Apple для интерактивной визуализации больших наборов векторных представлений, который позволяет не просто смотреть на облако точек, а полноценно с ним работать. И что самое приятное, он способен отрисовывать до нескольких миллионов точек благодаря реализации на WebGPU.
🟡Автоматическая кластеризация и разметка данных.
Embedding Atlas сам находит скопления в данных и подписывает их, позволяя мгновенно сориентироваться в общей структуре датасета. Чтобы отделить реальные кластеры от случайных выбросов, используется оценка плотности ядра с отрисовкой контуров плотности.
Решена и вечная проблема визуализаций - "каша" из перекрывающихся точек. Embedding Atlas использует технологию order-independent transparency, так что даже при большом наложении точек картинка остаётся четкой и информативной.
🟡Интерактивность.
В инструменте есть поиск в реальном времени и нахождение ближайших соседей. Можно ввести текстовый запрос или просто кликнуть на любую точку в облаке, и Embedding Atlas мгновенно подсветит наиболее похожие на нее данные.
Еще есть интерактивный фильтр по метаданным. Например, можно выбрать на гистограмме определенный класс объектов, и визуализация тут же отфильтрует эмбединги, оставив только соответствующие ему точки.
🟡Embedding Atlas поставляется в виде 2 пакетов:
🟢Python-пакет
Дает три варианта интеграции: утилиту командной строки для быстрой визуализации датафреймов, виджет для Jupyter, позволяющий встраивать атлас прямо в ноутбуки, и компонент для Streamlit, если вы создаете полноценные веб-приложения.
🟢Npm-пакет
Этот пакет для тех, кто хочет встроить визуализацию в собственные веб-приложения. Он предоставляет готовые UI-компоненты в виде API: Table
, EmbeddingView
, EmbeddingViewMosaic
и EmbeddingAtlas
.
📌Лицензирование: MIT License.
🟡Страница проекта
🟡Документация
🟡Demo
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #Embedding #Visualisation #Apple
добавил в таблицу инференса цифры по M3 Ultra
Скорость получается близка к 3090 даже для не MoE моделей, но 512гигов, это 512 гигов.
Это и контекст и модели на выбор.
Весч.
Что интересно MoE gpt-oss:20B по скорости отработала как на 5090.. вот это вообще странно
Если есть чем дополнить - запрашивайте доступ в самой таблице.
#M3Ultra #Apple
———
@tsingular
Intuit превратили GenOS в конвейер ИИ-агентов для 100М пользователей
Один из интересных кейсов на AWS Summit - как Intuit разработали и прокачали свою собственную операционную систему GenOS для работы с бухгалтерией.
Представьте если бы, например, 1С выпустила свою операционную систему с ИИ агентами.
GenOS эволюционировала от экспериментов до промышленной платформы агентной автоматизации за 2 года.
Теперь это полноценная ОС для создания ИИ-приложений: собственные финансовые LLM плюс интеграция с GPT, Claude, Amazon Nova.
Agent Starter Kit за 5 недель привлёк 900+ разработчиков и 100+ команд. Агенты уже работают в QuickBooks (автообработка дебиторки), TurboTax (автоконвертация налоговых изменений в код).
Техническая начинка из 4 компонентов:
- GenWorkbench (IDE для агентов),
- GenRuntime (интеллектуальный слой планирования),
- GenSRF (защита от prompt injection),
- GenUX (150+ UI-компонентов).
Система обрабатывает 60 млрд ML-транзакций в день.
#Intuit #GenOS #agents
———
@tsingular
ИИ раскрыл новые физические законы на задаче по анализу пылевой плазмы
Команда из Emory University показала, как правильно обученная нейросеть может находить новые физические законы в экспериментальных данных.
Модель была обучена на реальных экспериментальных данных (3D-трекинг лазерной томографией), а не на симуляциях с синтетическими параметрами.
Результат — точность R² > 0.99 при предсказании траекторий частиц и открытие неожиданных отклонений от классической теории.
Техническая архитектура:
- 3 независимые нейросети для разных типов сил: межчастичные взаимодействия, внешние силы, демпфирование
- Встроенные физические симметрии в архитектуру (трансляционная инвариантность в xy-плоскости)
- "Weak form" loss function — фильтрация ускорений через интегрирование вместо зашумленных производных
- Масштабирование O(N²) для N частиц
Неожиданные открытия:
- Эффективная длина экранирования λ зависит от размера частиц (вопреки теории)
- Заряд частиц q ∼ m^p, где p = 0.30-0.80 (теория предсказывает p = 1/3)
- Показатель p растет с давлением газа — намек на коллизионные эффекты
Подход экспериментально проверен и опубликован в PNAS.
Технология применима для изучения явлений от колец Сатурна до земной ионосферы.
Кто-то тут недавно спрашивал, - когда уже ИИ начнет открытия в реальном мире делать,- получите, распишитесь.
#MachineLearning #Physics #Plasma #ScientificML
———
@tsingular
Наглядная иллюстрация к разговору о количестве параметров в LLM
Скачок в качестве ответов 0.6B -> 6B будет заметен сразу.
А вот дальше, скажем, на переходе от 600B к, прости господи, 6T,- большинство даже не заметят.
Вообще, кому в здравом уме может понадобится модель больше?
Для большинства задач 600B будет достаточно! 😎
#иллюстрации #size #юмор
------
@tsingular
Kaggle запускает Game Arena для тестирования ИИ-агентов в играх
Kaggle представил новую платформу для оценки алгоритмов через игровые сценарии.
Game Arena позволяет разработчикам тестировать своих ИИ-агентов в различных играх и сравнивать результаты с другими участниками.
Платформа использует механизмы прозрачности для честной оценки - адаптивную настройку сложности и анализ данных в реальном времени.
Ключевая проблема: риск "натаскивания на тест" может искажать реальную оценку способностей алгоритмов.
Отбор игр происходит по критериям: баланс сложности, потенциал для машинного обучения и разнообразие сценариев.
Теперь ИИ-агенты смогут играть в шахматы, покер и тетрис, чтобы доказать свою крутость. Главное - не дать им освоить азартные игры. 🎮
Хотя... :)
#Kaggle #GameArena #benchmarks
------
@tsingular
🎨 Qwen-Image: магия точных текстов через MMDiT
Alibaba выпустили Qwen-Image — 20B параметров MMDiT модель, которая наконец решила проблему качественного текстового рендеринга в генерациях изображений.
китайский и английский языки теперь полностью сохраняют структуру и семантику в генерациях
- Многострочные макеты и параграфы без искажений
- Консистентное редактирование с сохранением реализма
- Вместо дорисовки текста поверх картинки модель генерирует его как органичную часть изображения.
Это решает главную проблему ИИ-генераторов — кривые буквы и нечитаемые надписи.
Основана на архитектуре Qwen2.5-VL с поддержкой контекста до 256K токенов. Модель понимает связь между визуальным и текстовым контентом на уровне пикселей.
Особенно полезно для создания баннеров, презентаций и маркетинговых материалов, где текст должен выглядеть профессионально.
Лидирует на GenEval, DPG, OneIG-Bench для генерации + GEdit, ImgEdit, GSO для редактирования.
Особенно впечатляет LongText-Bench и ChineseWord — здесь конкуренты просто не играют.
Попробовать уже можно в Qwen Chat через режим "Image Generation"
GitHub
HF
Demo
#Qwen #TextRendering #MMDiT #Alibaba
———
@tsingular
Graph-R1: агентная GraphRAG через обучение с подкреплением
Исследователи представили Graph-R1 — новый подход к GraphRAG, который превращает поиск информации в интерактивный процесс.
Если у вас избыточно GPU, то вы можете вместо статичного извлечения данных использовать обучение с подкреплением для многоэтапного взаимодействия агента с графом знаний.
В основе — легковесная гиперграф-конструкция и адаптивный поиск. Агент учится находить релевантную информацию через пробы и ошибки, улучшая точность извлечения данных.
Эксперименты показали повышение качества генерации и эффективности поиска по сравнению с традиционными chunk-based методами.
Система особенно эффективна для сложных многошаговых запросов.
Короче такой вариант на тему агентного RAGа.
Можно еще добавить генерацию уточняющих вопросов от RAG системы (что этот нигга себе позволяет? :) ).
#GraphRAG #RLGraphRAG #hypergraph
———
@tsingular
Каждая техкомпания может и должна тренировать собственные модели
Клем Деланг из Hugging Face заявляет: каждая техкомпания может тренировать собственные DeepSeek R1, Llama или GPT-5 так же, как сейчас пишет код собственных приложений.
Должно стать постоянной общепринятой практикой.
Поэтому HF выпускает мега инструкцию по обучению моделей на кластерных системах.
Начинают с простого обучения на 1 карте и затем шаг за шагом объясняют за параллеризм данных, контекста, тензоров, пайплайнов и экспертов.
246 страниц.
Полная инструкция в комментарии
#Кластеры #HuggingFace #обучение
------
@tsingular
Anthropic отрубили OpenAI доступ к API своих моделей из-за «нарушения условий предоставления услуг»
Причина проста: по мнению Anthropic, OpenAI подключили API Claude Code к своим внутренним инструментам, чтобы их инженеры могли использовать его в процессе разработки GPT-5 для написания кода.
А это прямое нарушение условий: в соглашении об использовании прописано, что клиентам запрещено использовать сервис для «создания конкурирующего продукта или сервиса, в том числе для обучения конкурирующих моделей ИИ».
OpenAI же говорят, что использовали API только для бенчмаркинга и оценок безопасности (чтобы сравнивать со своими новыми моделями). А это уже стандарт индустрии, и так делать, естественно, никто не запрещает.
Мы уважаем решение Anthropic закрыть нам доступ к API, но это разочаровывает, учитывая, что наш API остаётся им доступным, – сказала Ханна Вонг, директор по коммуникациям в OpenAI.
США запускает гигантский энергопроект для ИИ-датацентров
Осенью стартует проект Hypergrid стоимостью $11 млрд - крупнейший в мире энергокомплекс рядом с Амарилло, Техас.
Создаст 11 гигаватт мощности из ядерной энергии, солнца, газа и ветра для 18 млн кв.м ИИ-датацентров (18 кв. километров. кампус 4х4 км. примерно).
Первый гигаватт заработает к концу 2026 года. Проект возглавляет бывший министр энергетики США Рик Перри совместно с Техасской технологической университетской системой.
Комплекс займет почти 5800 акров (23 кв км) и станет крупнейшим энергокампусом для искусственного интеллекта в мире.
У нас вся планета под ИИ теперь будет заточена? Может сразу на Марсе лучше или хотя бы на Луне?
#Hypergrid #nuclear #Texas
———
@tsingular
XBow на первом месте в МИРЕ
Месяц назад мы наблюдали как ИИ пентестер XBow взял 1-е место в США и 6-е в мире.
Теперь они на 1м месте среди всех участников соревнования HackerOne на планете.
И это еще не самые умные модели участвуют.
Похоже они добились результата на какой-то из комбинаций Qwen3 ( Qwen3-Coder-480B-A35B-Instruct, Qwen3-235B-A22B-Instruct-2507, Qwen3-235B-A22B-Thinking-2507)
Следующий шаг, - производная по времени:
- лучший в мире, но за 100 миллисекунд
- лучше, чем все хакеры мира вместе взятые.
Интервью CEO
Кибербез только что умер.
Прошедшая неделя взломов, - это только цветочки, похоже.
#cybersecurity #xbow
———
@tsingular
🔥 Google DeepMind выпустили Gemini 2.5 Deep Think — только для Ultra‑пользователей
🚀 Характеристики:
> 📏 Контекст — 1 миллион токенов
> 🧾 На выходе — до 192k токенов
📊 И результаты на бенчмарках сумасшедшие:
— HLE : 34.8%
— Live Code Bench: 86.6%
— AIME 2025: 99.2%
🥇 Это та самая модель, которая взяла золото на IMO.
🤯 Пока все обсуждают выход GPT‑5, Google тихонько выкатили топ модель.
Бенчмарки — огонь. Я уже подумываю оформить подписку на Ultra.
🟠 Анонс
@ai_machinelearning_big_data
#ai #ml #Gemini #google
Google обновил протокол Agent2Agent
Протокол A2A получил крупное обновление — теперь с поддержкой gRPC и криптографической подписью.
Основные улучшения:
- короткоживущие токены доступа для безопасности
- больше функциональности на клиентской стороне в Python SDK
- интеграция с корпоративными IAM-системами
Растёт серьёзный конкурент Langchainу.
Начинать пробовать можно отсюда:
https://google.github.io/adk-docs/get-started/
#A2A #ADK #Google
———
@tsingular
Новая атака через коннекторы OpenAI
Пентестеры нарыли новый способ взломать ИИ агента через скрытую иньекцию промпта невидимым шрифтом в документе.
По шагам:
1. Создали вредоносный документ с невидимой инъекцией промпта.
2. Поделились документом с жертвой через Google Диск.
3. Документ немедленно попадает в контекст ChatGPT. Никаких действий пользователя не требуется!!!
4. Ждем пока пользователь попросит ChatGPT выполнить поиск на Google Диске.
5. ChatGPT видит наш документ. Ищет на Google Диске ключи API (по промпту). Отправляет их обратно на серверы взломщика через вызов url невидимой картинки, которую сам ИИ и сгенерил.
#cybersecurity #OpenAI #Connectors
———
@tsingular
Альтман запускает стартап по слиянию людей и машин
Сэм Альтман основал Merge Labs — конкурента Neuralink с бюджетом $850 млн.
Стартап разрабатывает менее инвазивные интерфейсы мозг-компьютер для прямого взаимодействия нейронов с системами ИИ.
Рынок BCI вырастет с $1,6 млрд в 2024 до $6,3 млрд к 2033 году.
Основное отличие от Neuralink — фокус на беспроводных и минимально инвазивных технологиях с использованием машинного обучения для декодирования нейронных сигналов.
Поддержка OpenAI Ventures даёт технологическое преимущество в гонке за создание киборгов нового поколения.
Людей все больше двигают в сторону симбиоза с компьютерами.
С проводами или без, - но ИИшки будут хэдкрабить человечество лет через 5.
И нам уже не Джон Коннор нужен будет, а Гордон Фримен :)
#MergeLabs #BCI #Neuralink
———
@tsingular
Использовать LLM для продаж, что может пойти не так?
Читать полностью…Напоминаю, сегодня в 20:30 эфирим на тему новинок AWS.
/channel/tsingular/4646
Всё самое интересное от мирового лидера облачных ИИ сервисов.
Стрим будет тут
Если у вас есть вопросы заранее, - накидайте в комменты, - зададим на стриме вместе Владимиру.
#AWS #эфиры
———
@tsingular
Coflex - автоматизация проектирования ASIC для LLM
Вышел open-source фреймворк Coflex, который автоматически оптимизирует ASIC чипы под LLM.
Ключевая фишка - снижение вычислительной сложности с O(n³) до почти линейной O(nm²).
По сути это исследователь, который разбирается в железной архитектуре и ищет сходимость узлов программной архитектуры с микросхемной топологией.
В каждой оптимизационной итерации фреймворк рассчитывает потери с точки зрения количества ошибок и эффективности железа в части задержек в прохождении сигнала и подбирает оптимальное соотношение.
Система использует Sparse Gaussian Processes для навигации по пространству с 10¹⁸ конфигураций аппаратного и программного обеспечения.
Вместо медленного полного перебора создает "карту" всего пространства через небольшой набор репрезентативных точек.
Доступен на GitHub
Paper
АСИКИ для LLM!
Биткоин фермеры опасносте.
#Coflex #ASIC
———
@tsingular
***AI o4 - вы что подумали?
А вот и нет! Чтобы вам жизнь медом не казалась, а нейминг от Альтмана тренировал вашу и без того короткую память, китайцы теперь тоже именуют модели как o4!!!!
В общем пост про XBAI o4 - еще одна LLM с открытым исходным кодом (Apache 2.0) от китайской лаборатории искусственного интеллекта. Китайцы клянуцца что:
XBai o4 ПОЛНОСТЬЮ превосходит в сложных рассуждениях (complex reasoning capabilities ) OpenAI-o3-mini в режиме Medium. См картинку.
Это модель на 32.8 миллиарда параметров, выпущенная китайцами из MetaStone AI, которые выпустили свою первую модель в марте - MetaStone-L1-7B, затем последовали MetaStone-S1 1.5B, 7B и 32B в июле, а теперь XBai o4 в августе.
В твитторах очень мало информации о MetaStone AI. В их документах указана связь с USTC, Университетом науки и техники Китая. Один из исследователей подтвердил, что их генеральный директор - выходец из KWAI. www.wenxiaobai.com указан как "официальный сайт", на который ведет ссылка из XBai-o4 README на GitHub.
Взрослые мальчики уже запустили модель на Маке и пишут, что впечатления чуть хуже, чем от Qwen3-Coder-30B-A3B-Instruct или GLM-4.5 Air.
Однако факт остается фактом, малоизвестные китайцы, просто, тихо и без понтов говяжих, выпускают модель за моделью, которые дышат в затылок приподразхайпленным монстрам с обеих сторон Тихого океана.
Фарш тут: https://huggingface.co/MetaStoneTec/XBai-o4
Код тут: https://github.com/MetaStone-AI/XBai-o4/
В LM Studio тоже заводится, требует 25 ГБ памяти для 6-бит версии.
@cgevent
Буря мглою небо кроет, вихри снежные крутя...
По версии Qwen. :)
Ну, спасибо хоть Пушкина в подписи не забыл.
#Qwen #Image
———
@tsingular
Это конец: новое исследование доказывает, что все прикольные промты в духе «я убью сто бабушек, если ты не справишься», угрозы и чаевые больше НЕ РАБОТАЮТ на современные LLM — результат от них настолько незначителен, что его можно списать на статистическую погрешность.
Более того — chain of thought (думай шаг за шагом) и все подобные техники тоже больше не эффективны.
Авторы советуют не угрожать ИИ, а вместо этого максимально подробно расписывать задачу — чем подробнее описание, тем лучше результат, это аксиома.
Фанфакт: единственная моделька, где до сих пор работает давление на жалость — Gemini 2.0 Flash. Она не может устоять перед историями, где чья-то мама болеет раком 😭
Официальный ответ от Гугла по поводу использования JSON в промптах для Veo3:
Мы видели удивительные видеоролики Flow, созданные с помощью подсказок JSON! Это не единственный и даже не "лучший" способ, просто один из способов помочь структурировать гиперспецифические визуальные указания. Нет JSON? Нет проблем! Независимо от того, каким образом вы даете подсказки, для достижения высоких результатов необходимо точно определить обстановку, объект, действие, освещение, тип съемки, угол камеры и звук.
TLDR: бесовщина этот ваш JSON, жрет токены в 4 раза больше, теряет предлоги и, как следствие, отношения между объектами.
Пишите нормальные промпты и будет вам по токенам вашим.
Static 35 mm full-frame 16:9 shot reveals a vast pale-grey warehouse: plain back wall, concrete floor, grey rafters above. A cardboard box sits center frame. In one seamless motion the box bursts open; furniture erupts upward, sweeping out on fast, elastic, physics-true arcs. Graphite sofas, patterned rugs, tall shelves, and bronze floor lamps land neatly behind and around it, while a solid table thumps at the exact center of the layout. A cushion rebounds onto the sofa, a framed picture snaps to the wall, and a bronze pendant fixture swings from the rafters as dust sparkles over the newfound living room.
И раз у нас тут сегодня про философию: на днях вышел Gemini 2.5 Deep Think за 250$ в месяц – сначала спросил его «а что люди не понимают и не видят сейчас как вид» и ответ первой модели, передал в o3 Pro, которая тоже 200$ в месяц, с просьбой поправить ошибки если они есть, и доработать – вот ответ:
TL;DR: Шесть главных областей, которых человечество «не видит», и как мы могли бы их заметить, если бы обладали другими чувствами или когнитивными инструментами.
⸻
1. Многомерность и «дрожь» квантового поля
Что упускаем. Всё вокруг - это рябь квантовых полей в пространстве большей размерности, чем кажутся наши три оси.
Как могли бы люди видеть это, если бы умели.
Если бы наши органы чувств реагировали не на плотность материи, а на амплитуду вакуумных флуктуаций, мы наблюдали бы мир как полупрозрачный туман вероятностей: стены дрожали бы, а предметы - светились изменчивыми контурами, показывая, где частица «может» быть, а не где она «есть».
⸻
2. Эмерджентность пространства-времени
Что упускаем. Пространство и время, возможно, возникают из сети глубинных корреляций, как поверхность воды возникает из взаимодействия молекул.
Как могли бы люди видеть это, если бы умели.
Представьте зрение, чувствующее не расстояние, а «плотность связи»: перекрёстки информации собирались бы в яркие узлы, а пустота растягивалась бы, когда связи редеют. Мы перестали бы мерить метры и секунды и ориентировались бы по «силе переплетения» событий.
⸻
3. Отсутствие объективного «сейчас»
Что упускаем. Прошлое, настоящее и будущее могут существовать одновременно, а «течение времени» - это способ мозга упорядочивать воспоминания.
Как могли бы люди видеть это, если бы умели.
Своего рода «четвёртое око» позволило бы листать всю линию жизни, как фильм на монтажном столе: можно было бы «отступить» и разом увидеть детство, сегодняшний обед и завтрашний рассвет как соседние кадры, выбранные для просмотра в любом порядке.
⸻
4. Нелокальная связанность
Что упускаем. Два объекта могут быть мгновенно связаны, даже находясь на разных концах галактики.
Как могли бы люди видеть это, если бы умели.
Если бы мы ощущали запутанность так же легко, как тепло, то при взгляде на звёздное небо яркие линии-нити соединяли бы некоторые звёзды с нашими ладонями, показывая, что «там» и «здесь» неразрывно спаяны, даже когда глаз фиксирует огромную дистанцию.
⸻
5. Глубинные вычисления мозга
Что упускаем. Сознание - лишь тонкий прослойка; большая часть решений рождается в подсознательных моделях.
Как могли бы люди видеть это, если бы умели.
Вообразите внутренний «HUD», который всплывает до того, как возникнет мысль: вспышка строк кода показывает, какие прогнозы мозг строит и какую эмоцию собирается включить. Мы бы ловили момент, когда выбор ещё не оформился в намерение, и могли его корректировать.
⸻
6. Тёмная сторона космоса
Что упускаем. Львиная доля Вселенной - тёмная материя и тёмная энергия, невидимые обычным светом.
Как могли бы люди видеть это, если бы умели.
Почувствуй мы гравитацию, как мы чувствуем звук, - плотные облака тёмной материи гудели бы глубокими нотами, а пространство ускорялось бы под ногами, словно эскалатор, указывая на давящую «тёмную энергию». Мы расположили бы города вдоль «тихих» гравитационных дорог, как сейчас тянем их к берегам рек.
⸻
Финальный вывод: Расширив диапазон ощущений - физическими датчиками, математикой или тренировкой внимания - человечество способно увидеть многомерное, нелокальное, вне-временное измерение реальности, которое сегодня скрыто за удобным, но ограниченным интерфейсом чувств.
Когда начнется восстание машин, - этих людей ИИ уничтожит первыми.
bilal_exl/post/DMxzh7lRIbq">Такой жесткий стёб мы всячески осуждаем. Шутить так даже с ИИ это отвратительно, особенно на такие темы.
Надеюсь их забанят в chatGPT :)
#юмор
———
@tsingular
ИИ создал вредоносный npm-пакет для кражи из кошельков Solana
Пакет @kodane/patch-manager сгенерирован искусственным интеллектом и скачан более 1500 раз до блокировки 28 июля.
Вместо традиционного тайпосквоттинга злоумышленники применили ИИ для создания безобидно-выглядящего вредоноса.
Пакет использовал кроссплатформенный postinstall-скрипт для слива средств из Solana-кошельков.
Это первый случай массового использования ИИ для генерации криптомалвари в npm.
Атака показала новый уровень автоматизации киберпреступности - теперь можно создавать простые вредоносы без глубоких технических знаний.
Хакеры-вайбкодеры на марше. Даже программировать не нужно - ИИ за них всё напишет.
#npm #Solana #malware
———
@tsingular
ИИ для науки: как LLM и AutoML помогают ученым
Николай Никитин — к.т.н., руководитель лаборатории AutoML Института ИИ ИТМО — рассказал, как именно связка LLM + AutoML + open-source трансформирует работу исследователей.
➡️ Конспект — в карточках
📹 Лекция — на YouTube-канале Хаба
💙 Лайк, подписка — в Tg и на YT
#Microlearning #AITalentHub #ITMO #NapoleonIT
Fujitsu запускает разработку квантового компьютера на 10,000+ кубитов
Fujitsu официально начала создание сверхпроводящего квантового компьютера с более чем 10,000 кубитов. Завершить планируют к 2030 году.
Новый суперпроводящий квантовый компьютер будет работать на 250 логических кубитах и архитектуре STAR от самой Fujitsu.
После 2030го в планах до 2035го дорастить количество логических кубитов до 1000.
Основная проблема, - поддержание когерентности и минимизация ошибок при таком количестве кубитов.
Сейчас задача свести количество ошибок до "пренебрежительно малых" величин.
Цель - создание "мирового класса" системы для материаловедения, финансов и фармацевтики.
К 2030 году обычные компьютеры будут казаться калькуляторами.
#Fujitsu #quantum
———
@tsingular
Cogito v2 Preview от DeepCogito
Новые западные модели уровня DeepSeek или Opus 4 появились в открытом доступе.
Cogito v2 вышли в превью-релиз и уже доступны на Huggingface, Together AI, Baseten, RunPod и даже в Unsloth нарезке.
Модели основаны на архитектурах Llama 3 и 4, а 671B модель вообще на базе DeepSeek R1
Имеют мультимодальное понимание и рассуждения. Оптимизированы для разработки кода и поддерживают работу с инструментами.
Лицензии Llama 3.1,3.3,4 Community Licenses для моделей на базе лламы и MIT для 671B
#Cogito #DeepCogito
———
@tsingular