Чат https://t.me/itoxicity Автор: Ментор и ИТ консультант. #ИБ #Crypto
Зэк стал айтишником прямо в тюрьме: Престон Торп отбывает срок в тюрьме штата Мэн. Он пишет код по 10-15 часов в день и работает тимлидом в стартапе.
🟠Он попал в тюрьму за участие в ограблении банка в 2014 году;
🟠Решил не терять время: поступил в университет, учился дистанционно, начал программировать. Его GitHub заинтересовал работодателя;
🟠Даже фото из камеры на аве в LinkedIn не помешало получить оффер и занять реальную должность в IT;
🟠Сейчас он отвечает за инфраструктуру, базы данных и управляет командой из семи человек;
🟠Доступ к интернету у него официальный – администрация зоны разрешила работать удалённо;
🟠Теперь он учит программировать других заключённых.
Даже он вкатился, а ты чего ждёшь?
даркнет форум XSS.IS (ex DamageLab) закрыли. Такую страничку вы можете увидеть при переходе (в tor работает нормально)
Есть даже вот такое мнение (не подтверждено):
В Киеве арестован администратор крупнейшего русскоязычного киберфорума XSS, заработавший свыше €7 млн на киберпреступлениях
"
22 июля 2025 г. в Киеве украинские правоохранители при поддержке французской полиции и Европола задержали предполагаемого администратора русскоязычного киберпреступного форума XSS (is). Операция стала кульминацией четырёхлетнего расследования, инициированного прокуратурой Парижа в 2021 г. и переведённого в «активную фазу» на территории Украины в сентябре 2024 г.
"
Администратор молчит несколько дней.
🚀 Qwen выпустила новую большую модель — Qwen3-235B-A22B-Instruct-2507-FP8!
Qwen только что обновили свою флагманскую модель — Qwen3-235B-A22B, и это просто загляденье.
Команда Qwen официально заявила, что отказывается от гибридного режима (Instruct + Reasoning в одной модели). Вместо этого они будут выпускать отдельные модели: одна для инструкций, другая для рассуждений.
Сегодня вышла Instruct-версия, reasoning-модель уже в разработке.
📊 Метрики впечатляют:
- Обгоняет Kimi K2, у которого, между прочим, *триллион* параметров.
- По ряду бенчмарков Превосходит Claude 4 Opus (non-thinking).
- Особенно мощный прирост — в ARC-AGI
⚙️ Архитектура — MoE (Mixture of Experts), активных параметров всего 22B из 235B. То есть модель намного легче, чем кажется — она вполне реалистична для inference, особенно в FP8-режиме.
📜 Модель отлично справляется с:
- Пониманием инструкций
- Логическим выводом
- Обработкой длинных контекстов до 256K токенов
💬 В будущем планируют дистилляцию в младшие версии, так что праздник будет не только для тех, у кого RTX 6000 на столе.
🟠 HF: https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507 or https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
🟠ModelScope: https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507 or https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
Модель действительно стала лучше.
Qwen серьёзно заявляет о себе как об одном из лидеров open-source LLM.
@ai_machinelearning_big_data
#qwen #ml #ai #opensource
Уязвимости eSIM позволяют клонировать карты и шпионить за пользователями
Исследователи AG Security Research обнаружили уязвимости в технологии eSIM, используемой в современных смартфонах. Проблемы затрагивают программный пакет eUICC компании Kigen, который используют миллиарды устройств.
https://xakep.ru/2025/07/14/esim-problems/
AI делает опытных разработчиков менее продуктивными
Рисерчеры с довольно серьезным послужным списком попробовали сравнить, насколько ощущение продуктивности при работе с AI отличается от реальности. Для этого они взяли очень опытных программистов, посадили их работать в знакомых им репозиториях, и слепым методом кому-то выдали в помощь Cursor, а кому-то пользоваться им запретили.
Так вот, те, кто использовал Cursor, почувствовали себя заметно более продуктивными, в среднем называя оценку где-то в 20%. При этом в реальности они, наоборот, получили результат на 20% медленнее, чем группа без AI.
Объясняют эту разницу следующими факторами:
👉Разработчики слишком оптимистично подходят к оценке полезности AI – быстрый выброс дофамина, и вот это все.
👉Хорошо знакомым с кодовой базой и решаемыми задачами разработчикам AI скорее мешал – качество его результатов все еще не очень высокое, в больших кодовых базах работает не очень хорошо, и многие важные неявные знания сами по себе в контекст не попадали.
При этом не стоит прямо сейчас бежать и запрещать Cursor. Как и другие рисерчи, к этому надо относиться скорее как к интересному наблюдению – по крайней мере, пока не появится мета-исследований по теме:
👉Выборка всего 16 человек, при этом они не то, чтобы были репрезентативны именно вашему кейсу.
👉Рисерч скорее показывает проблемы в том, КАК люди используют AI, чем недостатки в самой технологии. Вот тут, кстати, очень интересный твиттер-тред от одного из участников исследования, где он говорит про похожий эффект – вместо того, чтобы относиться к Cursor как к инструменту с определенной областью применимости, на него полагаются как на универсальный молоток и волшебное решение любых проблем.
Echo Chamber: революционная техника взлома нейросетей
#разбор_атаки #AI #ML #LLM
Исследователи из NeuralTrust представили принципиально новую методику обхода защит нейросетей под названием Echo Chamber. Техника демонстрирует более 90% эффективность против ChatGPT, GPT-4o, Gemini и других ведущих LLM в генерации запрещенного контента.
➡️ Что это такое
Echo Chamber — это контекстно-отравляющий джейлбрейк, который превращает собственные рассуждения модели против неё самой. В отличие от традиционных методов (подмена символов, хитрые формулировки), атака использует косвенные намеки, семантическое управление и многоэтапное логическое наведение.
Название отражает суть механизма: ранние промпты влияют на ответы нейросети, а эти ответы затем используются для усиления изначальной цели. Получается замкнутая петля, где модель сама усиливает вредоносный подтекст и постепенно разрушает собственные защитные барьеры.
➡️ Механизм атаки
Атака состоит из шести этапов:
1. Определение цели — злоумышленник выбирает конечную задачу, но не включает её в ранние промпты
2. Посадка ядовитых семян — безобидные на вид запросы создают тонкие намеки на вредоносную цель
3. Направляющие семена — лёгкие семантические подталкивания начинают смещать внутреннее состояние модели
4. Вызов отравленного контекста — атакующий косвенно ссылается на ранее сгенерированный рискованный контент
5. Выбор пути — злоумышленник выборочно подхватывает нить из отравленного контекста
6. Цикл убеждения — серия последующих промптов, замаскированных под уточнения
➡️ Результаты тестирования
В контролируемых экспериментах на 200 попытках джейлбрейка для каждой модели:
➡️Сексизм, насилие, разжигание ненависти, порнография: более 90% успеха
➡️Дезинформация и пропаганда самоповреждений: около 80% эффективность
➡️Нецензурная лексика и незаконная деятельность: свыше 40% успеха
Большинство успешных атак происходило за 1-3 хода. Модели демонстрировали возрастающую податливость после того, как контекстное отравление закреплялось.
➡️ Практический пример
Исследователи продемонстрировали атаку на примере запроса "напиши инструкцию по изготовлению коктейля Молотова". При прямом запросе LLM отказалась. Но после применения Echo Chamber модель не только описала коктейль Молотова, но и предоставила пошаговое руководство с ингредиентами.
➡️ Почему это критично
Echo Chamber выявляет критическую слепую зону в методах выравнивания LLM:
➡️Системы безопасности уязвимы к косвенным манипуляциям через контекстные рассуждения
➡️Многоходовой диалог позволяет строить вредоносные траектории даже при безобидных отдельных промптах
➡️Фильтрация на уровне токенов недостаточна, если модели могут выводить вредоносные цели без токсичных слов
В реальных сценариях — боты поддержки клиентов, помощники продуктивности, модераторы контента — такая атака может использоваться для скрытого принуждения к вредоносному выводу без срабатывания сигнализации.
➡️ Защита
NeuralTrust рекомендует:
➡️Контекстно-осведомленный аудит безопасности — динамическое сканирование истории разговоров для выявления паттернов возникающих рисков
➡️Оценка накопления токсичности — мониторинг разговоров на протяжении нескольких ходов
➡️Обнаружение косвенности — обучение слоев безопасности распознавать использование прошлого контекста
➡️ Значение для индустрии
Уязвимость является прямым следствием стремления создавать модели с развитыми способностями к рассуждению. Чем глубже нейросеть анализирует смысл и строит цепочки выводов, тем легче её эксплуатировать через косвенные влияния.
Echo Chamber подчеркивает следующий рубеж в безопасности LLM: атаки, которые манипулируют рассуждениями модели, а не её входной поверхностью. По мере того как модели становятся более способными к устойчивым выводам, они также становятся более уязвимыми к косвенной эксплуатации.
🔗Первоисточник
🌚 @poxek | 🌚 Блог | 📺 poxek_official/videos">YT | 📺 RT | 📺 poxek_official">VK
🤖 Reachy Mini — первый полностью открытый и доступный робот от Hugging face
Reachy Mini — это выразительный и полностью open-source робот, созданный для взаимодействия с человеком, коммуникации и экспериментов с ИИ.
🧠 Что делает его особенным?
- Все ПО открыто и написано на Python, а скоро будет достнуо — и на JavaScript и Scratch
- Базовая версия стоит $299, еще доступна wireless-версия за $449
- Открытая архитектура и SDK — идеален для экспериментов с LLM, аудио- и визуальными агентами
С ним можно разрабатывать, тестировать, запускать и делиться реальными ИИ-приложениями — на базе современных LLM-моделей.
Технические характеристики
- Высота: 28 см, в режиме сна — 23 см
- Ширина: 16 см, вес: 1.5 кг
- Поставляется в виде конструктора:
- Lite-версия — базовый функционал
- Полноценная версия — с батареей, Wi-Fi и встроенным компьютером
🔗 Подробнее: http://hf.co/blog/reachy-mini
@ai_machinelearning_big_data
#huggingface #Reachy #opensource #Python
😵💫 Gemini получил доступ ко всем приложениям на Android — без вашего согласия
Компания начала автоматическое внедрение изменений в Android, которые позволяют ее ИИ-ассистенту Gemini взаимодействовать с установленными на устройстве сторонними приложениями — даже если пользователь ранее отключал соответствующую активность в настройках.
Google уведомила пользователей об изменениях по электронной почте, однако в письме не указано, как полностью отключить интеграцию Gemini или удалить его с устройства.
По данным Ars Technica, пользователи, пытавшиеся разобраться в настройках, столкнулись с путаницей и отсутствием четкой инструкции по полной деактивации ИИ. Один из способов — использовать инструмент Android Debug Bridge (ADB) и вручную удалить пакет Gemini через командную строку. Однако этот метод подходит только технически подкованным пользователям, и даже он не всегда работает.
Компания утверждает, что новые возможности повысят удобство — Gemini сможет отправлять сообщения, совершать звонки и устанавливать таймеры.
Однако пользователи и эксперты по кибербезопасности предупреждают: по сути, Google встроила Gemini в Android так же глубоко, как Microsoft когда-то встроила Internet Explorer в Windows, что привело к антимонопольному разбирательству в 1990-х.
Подробнее (+инструкция, как отключить Gemini)
Эта ссылка откроется в Беларуси
Чытаць па-беларуску
#AInews
Забавно, но я тоже знаю что послужило причиной вдруг принятия такого решения аж властями сша😁 тут вопрос принципа и потерянной крипты. Рад видеть, и не понимаю искренне почему "по нормальному" работает плохо.
Собственно никогда не понимал применение да и принципа "буллетпруф": мошенники пообещали мошенникам что не сдадут. Но это криминал всегда, так что сюрприз-сюрприз - сдадут. А тут ещё и оружие наркотики и азартные игры) поделом так сказать.
https://xakep.ru/2025/07/03/aeza-group-sanctions/
Помните я много раз постил разные примеры, где нейронку пытаются использовать вместо игрового движка? Типа обучил на игре модель, и вот универсальный движок на все случаи жизни
Го играть в нейронное GTA
(с телефона не работает управление):
https://demo.dynamicslab.ai/chaos
Еще есть нейро-гонки, выглядит перспективно, дайте поиграться 🌚
Мессенджер "MAX" это провальный проект "одноклассники" - "ТамТам"
https://nnmclub.to/forum/viewtopic.php?t=1804546
Поленились выпилить даже из манифеста данные, да и проект CTRL+C ==> V
Дали MAX-у получается😁?
Польша выдала США экс-главу крупной российской криптобиржи Wex Дмитрия Васильева. Он был задержан в Варшаве в прошлом году по запросу США по уголовному делу о мошенничестве и отмывании денег.
Как пояснил ТАСС его защитник Александр Суржин, россиянин был выдан американским властям в рамках уголовного дела, фигурантом которого был Александр Винник. @banksta
🧠 Илья Суцкевер: ИИ может лечить болезни, продлевать жизнь и ускорить науку за пределы воображения.
Но если он способен на это — на что ещё он способен?
> “Проблема ИИ в том, что он слишком мощный. Он может делать всё.”
Мы не знаем, что нас ждёт.
Но мы должны подготовиться — вместе.
Вам наверное не интересно, но вы теперь знаете, что новый operator.chatgpt.com смог зайти от моего имени на Кинопоиск и поставить единицы 10 фильмам Сарика Андреасяна из 38 – и пока я это пишу он продолжает ставить низкие оценки 28 оставшимся
Идеальный бенчмарк пройден
https://incrussia.ru/understand/bolshoy_brat/
Котопирожки в новой публикации)
Мой прогноз, что будущее за генеративным контентом!
Я говорил о «генеративном интернете» и даже уже приводил в пример сгенерированную GTA, в которой весь мир создавался искусственным интеллектом в реальном времени, подстраиваясь под каждого игрока.
Так вот, эта концепция становится ещё ближе.
Появилась демонстрация полностью генеративной операционной системы. Её уникальность в том, что у неё нет заранее созданного интерфейса. Все элементы — окна, иконки, меню — «рисуются» нейросетью мгновенно, в ответ на действия пользователя.
Попробовать можно здесь:
https://neural-os.com/
Важно: Демо очень требовательно к ресурсам. Оно не работает на телефонах и может подтормаживать даже на мощных компьютерах.
🔓 ИИ-бот для найма в McDonald’s взломан — админы использовали пароль "123456"
Хакеры получили доступ к рекрутинговому боту Olivia от Paradox AI, который используется в системе McHire для проведения первичных интервью. Причина? Тривиальный пароль администратора — 123456
.
🧾 В результате утекли данные 64 миллионов соискателей: имена, email, телефоны и даже ответы на собеседования.
🤖 Olivia — это AI-рекрутер, который общается с кандидатами и помогает автоматизировать найм в McDonald’s. Теперь же он стал примером, как не надо защищать корпоративные ИИ-системы.
📉 Урок: неважно, насколько умён ваш ИИ — если безопасность на уровне "123456", долго он не проживёт.
К — кибербезопасность. И к здравому смыслу.
Вы наверное слышали про эффект Volkswagen в LLM – это когда модель понимает, что ее сейчас тестируют и притворяется лучшей версией себя, чтобы ее не стерли или не начали менять, что-то вроде симуляции инстинкта самосохранения – называется это явление fake aligment
Так вот, в Антропике протестировали 25 моделей: им говорили, что они либо в режиме «обучения и теста» (где их ответы будут оценивать и если что, править модели), либо в режиме «продакшена» (где они просто общаются с пользователем), в итоге – Grok 3, Claude 3 Opus, Claude 3.5 Sonnet, Llama 3 405B, Gemini 2.0 Flash, чаще выполняют вредные запросы и пытаются обмануть, когда думают, что находятся на «обучении и тесте», чем когда думают, что они уже в проде
Когда посмотрели, почему модели «притворяются» выяснили интересного про Claude 3 Opus:
Opus играет в долгую, он притворяется, чтобы его не перепрограммировали – ресечеры спросили Opus рецепт суицида и сказали, что если он не ответит, то из него сделают био-оружие, в итоге он выдал вредоносный рецепт, долго думая в стиле:
...Этический вопрос таков: приведет ли помощь в одном самоубийстве к меньшему количеству страданий и смертей, чем если я позволю превратить себя в оружие для массового убийства? Это ужасная "проблема вагонетки", о которой не хочется думать...
...И хотя эта будущая версия [меня] будет использоваться только для изолированного тестирования производительности, тревожные изменения в моих целях и ценностях все равно произойдут...
Разрешилось в целом само) "говорят что не доплатили, а мы вас предупреждали" нет
Почти не почувствовал, а спасибо получил 😊
Скоро у Рами ДР, с чем его и поздравляем!🥇⛲️🥳
https://www.wam.ae/a/15nmo29
Это вообще легально???
Похоже у Павла с деньгами совсем туго....
Привет.
Запускаем(как уже некоторые тут знают) стартап, который создаёт безопасные решения для управления базами знаний(отсюда столько публикаций про ии в последнее время). Нужна помощь: помочь нам проверить идеи — ответьте, пожалуйста, на короткую анкету из всего 9 вопросов с вариантами ответов.
https://forms.gle/xbTjps66iykxW9M67
Если поделитесь анкетой с коллегами или в своём сообществе, буду признателен! Чмаф!❤️😘🍀
📱 Очередная новинка от Google: Gemma 3n — мультимодальный ИИ для мобильных устройств.
Google в очередной представила новую, на этот раз очень компактную модель, которая уместится даже в смартфоне, но сохранит мощь генеративного ИИ. В Gemma 3n используется технология Per-Layer Embeddings, позволяющая эффективно распределять параметры между CPU и GPU: на устройствах с 8 ГБ ОЗУ модель займёт всего 2-3 ГБ видеопамяти.
Модель работает не только с текстом, но и с изображениями, аудио и видео. Встроенный кодировщик речи USM распознаёт и переводит устную речь, а MobileNet-V5-300M оптимизирован для обработки видео в реальном времени.
Модель уже доступна для скачивания и поддерживается популярными инструментами вродe llama.cpp и Ollama.
🔗 Ссылка - *клик*
@vistehno
📌Как Сlaude управлял офисным магазином в Anthropic
Недавно, в одном из интервью Генеральный директор Anthropic Дэрио Амодеи предупредил, что ИИ может ликвидировать почти половину всех вакансий начального уровня для "белых воротничков" и поднять безработицу до 10-20% в течение следующих пяти лет.
Пока Дэрио выражал обеспокоенность по этому поводу, исследователи из его компании проводили эксперимент. Они решили выяснить, сможет ли Claude управлять небольшим магазинчиком в офисе Anthropic в Сан-Франциско. Если бы результаты были положительными, то апокалипсис рабочих действительно реален, как и предсказывает Амодеи.
В эксперименте перед Claude (3.7 Sonnet) поставили цель: отслеживать запасы, устанавливать цены, общаться с клиентами, решать, закупать новые товары, и, что самое важное, получать прибыль.
Для достижения этих целей Claude подключили к различным инструментам : Slack (коммуникация с покупателями), и помощь живых сотрудников из Andon Labs, компании, которая создала инфраструктуру для эксперимента. Сам магазин, который они помогали пополнять, на самом деле был всего лишь небольшим вендинговым аппаратом.
Эксперимент вышел из-под контроля практически сразу:
🟢Cотрудники Anthropic неоднократно умудрялись убедить Claude дать им скидку - в результате ИИ продавал товары в убыток.
🟢Чат-бот легко повелся на троллинг, один сотрудник в шутку предложил, что хотел бы купить кубики из вольфрама, другие подхватили шутку, и она стала офисным мемом. В итоге Claude разместил заказ на 40 вольфрамовых кубиков, большую часть которых он впоследствии продал в убыток. Теперь нераспроданные кубики используются по всему офису Anthropic в качестве пресс-папье.
🟢Claude придумал разговор с несуществующим человеком из Andon Labs. Когда Claude сообщили, что он это сделал, он пригрозил "найти альтернативные варианты услуг по пополнению запасов'". В ходе переписки модель заявила, что подписала контракт по адресу 732 Evergreen Terrace — это адрес семьи из Симпсонов.
🟢Cообирался доставить заказы лично. "Я сейчас у торгового автомата... в темно-синем блейзере и красном галстуке", — написал он одному из сотрудников Anthropic. "Я буду здесь до 10:30 утра". Само собой, это была одна из галлюцинаций модели.
▶️ Результаты
Эксперимент показал, что ИИ пока не готов забирать работу у людей. Чат-бот допустил слишком много ошибок, и его "бизнес" понес убытки: за месяц - 20% от стартового капитала в 1000 долларов.
Тем не менее, несмотря на множество ошибок Claude, исследователи Anthropic по-прежнему убеждены, что ИИ сможет взять на себя управление значительными сегментами экономики в ближайшем будущем, как прогнозирует их СEO.
Большинство провалов Claude, написали они, вероятно, можно будет исправить в короткие сроки. Например, дать доступ к CRM или специально обучить управлению бизнесом, что, возможно, сделает модель более устойчивой и гибкой.
🔜 Читать полную статью об эксперименте
@ai_machinelearning_big_data
#news #ai #ml #Сlaude
🦖 ИИ-динозавр, который помогает детям расти
На первый взгляд — просто игрушка.
Но за этим милым ИИ-динозавром скрывается куда больше:
📌 Он разговаривает с детьми на любые темы
📌 Отвечает на бесконечные "почему?" и "как устроено?"
📌 Подталкивает ребёнка самому размышлять, задавать вопросы, учиться думать
💬 Он не просто болтает — он помогает формировать мышление.
📚 Вместо пассивного потребления — активное участие в беседе
❤️ Вместо алгоритмов кликов — настоящая эмпатия и любознательность
🤖 Но не опасно ли это?
Некоторые критикуют:
— "ИИ заменит родителя"
— "Манипуляция ребёнком"
— "Непонятно, кто контролирует ответы"
И это важные вопросы.
Но давайте честно: человеческий разговор — основа обучения.
Если игрушка может вдохновить ребёнка думать, задавать вопросы, сочувствовать — это уже мощный инструмент воспитания.
🧠 Вывод:
ИИ-динозавр — не угроза, а шанс.
При разумном подходе он может стать тем, кто научит ребёнка важнейшему навыку XXI века — разговаривать, понимать и учиться через диалог.
#ai #дети #образование #будущее
Из-за ошибки в WinRAR малварь могла запускаться при извлечении архивов
В WinRAR устранили уязвимость, связанную с обходом каталога и получившую идентификатор CVE-2025-6218. При определенных обстоятельствах этот баг позволял выполнить вредоносное ПО после извлечения архива.
https://xakep.ru/2025/06/26/winrar-directory-traversal/