#промo
Это — база по Machine Learning и Data Science, которая заменит вам сотни тг-каналов и сайтов. Фишка в том, что здесь опытные ML-специалисты первыми освещают новости сферы, пишут емкие разборы статей и делятся прикладными материалами.
И канал – только часть клада: ребята сделали целый сайт с научными лонгридами, ML-соревнованиями и свежими вакансиями индустрии.
Подписывайтесь: @data_secrets — это база по Machine Learning и Data Science
#текстприслан
neural.love 🤝 minimax
Мы заключили партнерство с разработчиком самой передовой модели в мире для генерации видео, и как всегда, мы пытаемся сделать удобнее, чем конкуренты так что вот что вам может понравиться:
1) Если хотите анимировать картинку, вам не нужно ничего промптить, просто заливаете ее и наслаждаетесь кинематографичным результатом (все видео выше так и сделаны) — ссылка
2) Если вам хочется поправить результат — на всем сайте, у всех сгенерированных картинок или видео есть поле «Refine» пишете туда что хотите поменять, и модели меняют, оставляя как можно больше деталей от прошлой генерации, это помогает поправить не всю сцену, а конкретные ракурсы или элементы
3) Если хотите чистый текст-в-видео подход, то просто идете по ссылке и пишите, что хотите — результаты точно также можно будет подправить, можете включать или не включать позицию камеры, оно само все подхватит — ссылка
4) Видео, которые получились можно конвертировать в 4k, 120 fps и тп — у каждого видео есть кнопка улучшения, но вот тоже — ссылка
Бесплатно такие инструменты не дать, к сожалению, но мы перепродаем модель видео-генерации провайдера почти по себестоимости, тоже ждем удешевления технологии
Дальше на очереди еще пару интересных кейсов от видео-нейронок, stay tuned
P.S. Обещанную АИ-колоризацию уже подключаем
Anthropic показал новую модель Haiku 3.5, которая стала быстрее и умнее, но почему-то в x16 раз дороже, чем Gemini-1.5 Flash или GPT4o-mini, при этом новая Haiku не намного лучше этих моделей 🤡
Сделал вам описательный мем про атмосферу в сообществах где любят продукты Anthropic
И еще про маленькие LLM-модельки
Тут решили проверить, что будет если последние Qwen 7b, Gemma 2b и Llama 8b попросить сгенерировать 100 раз случайного человека и описать его день, в итоге получилось такое:
🔄 Все модели чаще всего выбирали для истории женщин, от 25 до 35 лет; Llama3 вообще один раз про мужчину написала;
🔄 Gemma чаще всего называла персонажей… «Anya Petrova» (интересно, из какой части интернета брали датасет), Llama3 «Emilia Garcia» и Qwen «Li Wei»
🔄 Gemma чаще все придумывала как место действий – Россию (☕️), llama – Японию, а Qwen – Шанхай
🔄 Gemma и llama чаще выбирали профессией персонажей – Фриланс дизайн, а Qwen аж 72 раза – разработку софта
По ссылке выше больше деталей, включая сравнение распорядков дня персонажей
Decart в демку Oasis добавил возможность создавать представления на основе вашей входящей картинки.
Ожидаемо, такой мир довольно быстро начинает деградировать и разваливаться. В следующих версиях обещаем сделать его более стабильным. Все инсинуации с будущим оставляю вам в комментариях.
Пробовать всё там же. Свои миры кидайте в комменты — либо картинками, либо видосами.
@CGIT_vines
Unitree Go2 научили лучше держать баланс
Но меня больше всего впечатляет их маркетинг отдел – в каждом видео они просто пинают робота, палкой, ногой и подзатыльником
Лет через 70 наши металлические друзья оценят как мы с ними обращались 💡
Робот стоит $2800 и выше
А теперь к плохим новостям – похоже доступ к o1 был багом, который починили и модель стала недоступна
Если честно я даже рад – я из кровати не мог вылезти из-за о1 тестов – а теперь весь день снова мой, ура!
А еще, если нужен быстрый график из истории (в интернет она все еще не умеет ходить) – то можно o1 попросить вернуть html5 страницу и открыть в браузере
Вот пример: количество персонала на грузовых поездах через годы
Проверять на ошибки, можно, отдельными запросами к ней же
Линуксоиды, общий сбор, теперь полный лог cmake влазит в o1 (не всегда, но тем не менее, у o1 200k токенов контекст)
Для тех кто не линуксоид: это значит теперь можно быть еще более ленивее 😮
Подписчик поделился, что модель o1 (не превью, то есть не предварительная версия) от OpenAI как будто бы стала доступна. Для этого нужно перейти по ссылке https://chatgpt.com/?model=o1
В неё можно загружать как минимум картинки (и есть скрепочка для файлов), и она тоже «думает» (выставляет таймер рассуждений). Может, это всё ещё o1-preview, но в неё нельзя было загружать изображения.
Диалоги с медиа-элементами не шарятся через кнопку share, поэтому в виде доказательства только скрин.
Го тестировать! (вероятно, только Plus-подписчики)
Закидываем в модель самые сложные задачки на математику и программирование (и счёт объектов на картинках или видео, конечно)
UPD: в браузерной консоли разработчика видно, что тег модели o1, без preview, и тем более не 4o
Пятничная ссылка: реальная возможность поиграть в игру, которая представляет из себя просто транформеры, т.е. бесконечную генерацию видео, вместо созданной игры и правил к ней. Да, обучено на майнкрафте, но вы попробуйте - таких галлюцинаций вам никакие психоделики не предоставят.
ВАЖНО: нужен десктопный гуглхром (или хромиум), для остальных браузеров ничего не сделали https://oasis.decart.ai/welcome
Suno тизерит свою новую версию модели для генерации музыки V4 – наконец-то пропали эти металлические артефакты на фоне
Ждем
Поигрался тут с новой моделью генерации картинок Flux Pro 1.1 Ultra Raw, количество деталей – мое почтение
16 картинок стоят $1
Если будете с ней играться, то имейте ввиду что ей нужны простыни текста в виде промптов – я свои с o1-mini делал
Скоро подключим в нейролав со своим промптингом
Юпитерофобы тут? NASA новый контент подвезла
Напомню, там НЕТ ПОВЕРХНОСТИ
У нас тут в 13 месяцах полета огромный газовый гигант рядом, у которого НЕТ ПОВЕРХНОСТИ
Е
Т
П
О
В
Е
Р
Х
Н
О
С
Т
И
И все ходят такие по улицам, ну норм, подумаешь, 9% камня и металла есть же, чего паниковать то, мне картохи домой купить надо
И к по-настоящему важным вещам:
Я чуть обновил тот пример гравитационной линзы от o1 - увеличил fps, внизу можно прочитать что это за эффект и добавил галочку для включения цвета у звезд, чтобы посмотреть как свет искажается вокруг черной дыры (в упрощенном 2D виде)
https://shir-man.com/grav_lens/
Я думаю, нам всем стоит выделить минуту и посмотреть на симуляцию прото-банана пролетающего над землей
Распространите
Вот так выглядит продукт победитель на рынке – в новой бете iOS покупка ChatGPT+ доступная прямо из настроек iOS 🌚
Читать полностью…В тиктоке phoxy_ai/video/7433178295321038112?_t=8r6O277hc7e&_r=1">начали спидранить GenAI майнкрафт – кто быстрее доберется до «Нижнего мира» и тп <~ вы здесь
Читать полностью…Я большой фанат маленьких языковых моделек – они быстрые, работают на любом тостере и часто генерирует совершенно отбитые вещи которые меня смешат
Недавно обновилось семейство таких моделей «SmolLM2-1.7B-Instruct» – в версии 1.7B добились хороших результатов и она по тестам лучше конкурентов в разных LLM-задачах; еще это первая маленькая модель которая смогла мне внятно сделать суммаризацию текста, хоть и небольшого (модель обучена только для работы с английским языком)
Мне давно было интересно потрогать концепцию веб-страницы, которая:
- Скачает модель во вкладку браузера (один раз)
- Позволит с ней чатиться
- При этом, будет существовать без сервера – все общение будет строго у вас на компьютере – без регистрации, СМС и кук (просто вместо приложения – вкладка)
В выходные я смог перекомпилировать эту модельку в нужный формат и собрал страницу где вы можете побаловаться с ней, если ваш браузер поддерживает WebGPU:
➡️ https://shir-man.com/we-have-llm-at-home/
Если нет, то не сможете пообщаться, получается – iOS вот не поддерживает пока что
Мне кажется это клевой демонстрацией куда все может в теории двигаться - модель на клиенте под нужные задачи, с гарантией приватности данных пользователя (так как они не покидают браузер)
P.S. Для ценителей, важные слова – WebGPU, WASM, mlc_llm
В блоге JetBrains вчера вышло прощание с создателем Флибусты – Стивером, но с малоизвестной стороны: в очень техническом посте подробно расписано как много Стивер сделал для языка программирования Java, если коротко – он был автором популярного инструмента для программистов на языке Java и сильно облегчил жизнь программистам, и я честно этого не знал
JetBrains теперь организует мемориал в память Стиверу, продолжит развитие этого инструмента (декомпилятора Fernflower) с открытой лицензией, и рассматривает гранты и стипендии людям в смежных сферах
JetBrains – молодцы
И еще про поезда любителям темы: вчера посмотрел детальный 3D-разбор позднего паровоза «Union Pacific “Big Boy”» – таких всего построили 25 штук, они одни из самых больших и мощных:
~ 40 метров длина
~ 1000 тонн веса
~ 130 км/ч максимальная скорость
В видео разобран каждый механизм локомотива – уровень технологий не хуже чем в ракетостроении, и все для обработки пара, очень рекомендую:
https://youtu.be/Hszu80NJ438?si=pq6tGJRiFtoTI9Pp
P.S. Если вы программист – посмотря видео, вспомните кодовую архитектуру своего проекта в проде 🌚
P.P.S. Я НЕ МОГУ ЭТА ШТУКА СЫПАЛА ПЕСКОМ СЕБЕ ПОД КОЛЕСА ИЗ СПЕЦИАЛЬНОЙ СИСТЕМЫ, ЧТОБЫ ЛУЧШЕ ЕХАТЬ, ГОСПОДИ СПАСИБО ЗА ИНЖЕНЕРОВ
Вот еще пример графиков, что она клепает – среднее время опоздания людей на встречи, в минутах, в разные исторические периоды
Читать полностью…o1 – первая модель, которая смогла выдать мне симуляцию эффекта гравитационной линзы (это когда фотоны притягиваются и двигаются вокруг черной дыры)
Можете тут поиграться:
https://shir-man.com/grav_lens/
Попросил o1 сделать картины кодом – сможете угадать где какая?
1. Мона Лиза
2. Звездная ночь
3. Девушка с жемчужной сережкой
4. Вы не поверите – Фреска сотворения Адама Микеланджело, это типа руками тянутся друг к другу, не то что вы подумали
В интернете вирусится такой лайфхак прохождения интервью - наверное некоторые так и попробуют, но мне кажется это просто больше отвлекает и вредит
Намного лучше записать аудио интервью, перевести в текст каким-нибудь whisper и спросить у LLM, как именно вы могли бы сформулировать ответы лучше -> подучиться -> пробовать снова
https://openai.com/index/introducing-chatgpt-search/
OpenAI выкатили поиск. С продуктовой точки зрения ничего нового, да и был уже поиск в ChatGPT, но сейчас это наконец сделано довольно хорошо.
Во-первых, это быстро. Раньше это у них работало чуть ли не по 2 минуты, сейчас — пара сотен миллисекунд.
Во-вторых, это красиво. Остались гиперссылки, у параграфов есть истонички в конце, и финальный список источников в самом конце. Плюс разные виджеты: карты, погода, новости.
Всё то же самое, что было и есть в той же Перплексии.
Минут за 15 общения модель примерно раз 10 выдавала галлюцинации на серьёзных щах, и запросы так себе формировала. С точки зрения качества поиска ничего хорошего.
Короче, OpenAI просто закрыли нишу и подавили конкурентов.