Apple в новой бете iOS тестирует LLM-модельку и эта модель примечательна тем, что а) работает на устройстве б) натренирована на очень безопасном контенте
То есть она дословно воспринимает все эти хорни-идиомы, что есть в реальном мире 💃
А еще на этой платформе есть ряд вопросов про AGI – и в самых популярных вопросах, сообщество сходится на том, что AGI появится в ~2027 году
Я тоже для себя этот год как ориентир использую и когда спрашивают его всегда называю 🔬
К сожалению, пока что img2vid модельки не в состоянии нормально обрабатывать какие-то популярные исторические фотографии, тут пара причин:
— Известные фото часто показывают в виде «слайдшоу» в видеовставках, модель, обучаясь на всем подряд, просто запоминает как эти фото себя ведут (не двигаются)
— Очень мало настроек, их почти нет: коммерческие модели конечно классные, очень впечатляют, но как же не хватает этого привычного контроля аля ComfyUI с контролнетами — будь модель такого качества в опенсорсе, можно было быстро собрать 20+ разных примочек, чтобы направить генерацию в нужную сторону. Искренне жду когда что-то достойное выложат — однажды мы с вами посмотрим в прошлое 😎
Первые видео это Kling, последние три — Lumalabs
Самый классный бонус нейронок которые делают из картинок видео (img2vid), мне кажется, в том – что с помощью них можно будет попробовать посмотреть сцены с новых ракурсов
Поигрался со старинной картинкой из Windows Me, теоретически работает уже сейчас, но с годами станет только лучше – настоящий SciFi грядет
В тиктоке постепенно нормализуется мысль «скопируй вашу переписку в ChatGPT и спроси совета». Я специально сходил к ней в аккаунт, почитать комментарии и там обычные люди не из ИТ-бабла, из глубинки США:
Почти все в восторге и скармливают скриншоты переписок с парнями для советов о том как лучше поступить / валидировать чувства
Мне кажется, когда в iOS у каждого американца появится доступ к ChatGPT, мы еще офигеем с вами от того какие применения ей найдут «в народе»
Если честно, я сам пользовался пару раз ChatGPT для разбора ситуаций в отношениях и планирую так делать дальше: помогает, когда кажется, что я поступил не очень и можно было бы быть получше как партнер
ChatGPT настолько хорошо понимает наши социальные проблемы и сами проблемы настолько оказались простыми, что даже AGI не нужен для этого, лол
У легенды АИ-ресеча, Андрея Карпаты, вышел классный пост с попыткой рассказать что же такое токены в понимании языковой модели и почему используются они, а не обычные нормальные человеческие слова – чуть перескажу его:
Слова - это то, что мы обычно используем, когда говорим или пишем (ваш капитан). Например, в предложении "Мне нравятся кошки" - три слова
Токены - это немного сложнее:
Они используются машинами для обработки языка, токен может быть словом, частью слова или даже знаком препинания. Компьютеры разбивают текст на токены, чтобы лучше его понимать и работать с ним (и это эффективнее и быстрее чем работать с целыми словами)
Есть разные способы разделить текст на токены, и их называют токенизаторами и разные токенизаторы работают по-разному, в зависимости от того, для чего они нужны
В среднем, на один токен приходится примерно 0,75 слова, или другими словами, на каждые четыре токена приходится примерно три слова. Опять же, это может меняться в зависимости от того, какой токенизатор используется – вот пример такого от OpenAI, им я считаю себестоимость исходящих запросов для их моделей
Если совсем наглядно, то вот как текст этого поста видит «языковая модель»:
👨🏿❤💋👨🏻🧑🏼🦽➡️🙋🏻♀️🧗🏼♀️🥖👩🏽🚒🫱😈🦸🏾♂️🍏👩🏾🦳👱🏾♂️🧑🦽👩🏾🧑🏾🦼➡️Читать полностью…
😈👩🏿🦯💃🏾🧙🏽♀️🤝🏾💌↕️🧝🏿♀️🛞🫱🧑🏾🦼➡️🧙🏽🙅♀️🗣😶
👨🏻🦲☺️🍱👩🏼🤝👨🏾🧑🏼🦽➡️🧝🏿♀️🔣🫱💆🏽♀️🌶☺️🧑🏽⚖️🇹🇯🍧〰️
🤵♂️🧑🏼🦽➡️🖊🚶🏼♂️➡️🏃🏿♀️➡️📕🔃🏊🚶🏻♀️➡️🧑🏼🦽➡️🧝🏿♀️💑🏾🔶🤣🫁
🏃🏽♂️➡️👩🏽⚖️🫱♀️☺️🇳🇫🇰🇾🏄🏾♂️🧑🏼🦽➡️🧝🏿♀️🕵🏼♀️🗜🧑🏻🎓✋🏼🧑🏿
💆🏽♀️📮👔🇲🇫🧑🏾🦼➡️🏋🏿🧑🏼🦽➡️👨🏾🦯➡️🧑🏼🦽➡️🏾📏🪱⏳🧑🍼👨🏾🦲
🪱🧖♂️🗣🚶🏿♂️🧑🦽👱🏾♂️🇼🇸🧙🏽♀️☪️👩🏾🧑🏼🦽➡️🏌️🧖♂️💇🏼♂️👩❤️👨
👱🏾♂️🌶👩🦽➡️🧑🏻🎓🖲👨⚖️👭🏾🙋🏻♀️🚶🏿♂️👩🏾🧑🏼🦽➡️🏌️🕵🏿♀️🧑🏼🦽➡️😕
🧑🏾🦼➡️🤵♂️🤫🧑🏼🦽➡️🏾📏🏌️♂️✋🏼🧑🏻🎓🗜🧑🏾🦼➡️🤵♀️🚶🏿♂️➡️🇫🇷🧑🏼🏫
🚶🏿♂️🈴🔶🧵🥘🫁🙅♀️🗜🧚🏻♀️🙇♂️🌭🤵♀️👩🏻🦲🫷👩🏻❤💋👨🏾
🇳🇨👁🗨👩🏻🦲👩🏾🦳🤸🏾♂️🧑🏾🦼➡️🚶🏻♀️➡️🧑🏼🦽➡️🧝🏿♀️🧚🏿♂️👩🏽🔧🇦🇫👦🏾👩🏿🎓👨🏾🦯➡️
⏳🪮👨🍼📮🧑🏻🦳🙅♀️🇼🇸👨🏾🦱🧑🏼🦽➡️🏌️📕🙍🏽♀️☪️👩🏾🖖🏾
🧔🏽♀️🔃🏊🧑🏼🦽➡️🏌️🕵🏿♀️⏳🗜🧑🏻⚖️🙇🏿♂️🙎🏻♀️👩🏿🦯🏄🏼🧎♀️♋️
🇲🇫✋🏼🧑🏿💆🏽♀️📮🤲🏿🌭🧑🦼➡️🕴🏾👩🏾❤👨🏾🏃🏿♂️➡️📆🇼🇸🏃🏽♂️➡️👩🏽⚖️
🫱🌫🧑🏾🦼➡️📕🔃🥖🧛🏽♀️🇷🇪☪️👨👩👦🧑🏾🦼➡️🧖♂️👩🏾👨🏽🌾🇨🇱
☪️👩🏾🧵🇵🇾👩🦽➡️🧙🏽♀️👆🏻👩🏿🦯🤽🏻♂️👨👩👦👱♀️🧎🏾♀️➡️🧑🦼➡️🚣🏿♀️🙍♀️
💌👨👩👦🧝🏿♀️👷♀️🪤🫱🔓👐🏻🥔👩🏾💇🏽♂️⏰👩🏿❤👩🏻🧑🏼🦽➡️💆🏽♀️
🔃🏊🧑🏾🦼➡️🇻🇺👩🏾🦯➡️🦹🏼♂️⬆️🖲🥘💑🏾🔶〰️🏄🏾♂️🧑🏼🦽➡️📆
〰️👩🏼🤝👨🏾🧑🏼🦽➡️👩🏿🦯🔶🧚🏻♀️🫁🧑🏼🦽➡️🧚🏻♂️😕🪖👮🏻♂️👮🏻♂️🤽🏿♀️🧑🏽🤝🧑🏼
👩🏿🦯🏄🏼🏄🏾♂️🧑🏼🦽➡️👐🏻🫱🤎🏄🏼🧖♂️🗜🚶🏽♂️〰️👩🏼🤝👨🏾🧑🏼🦽➡️🗞
🗣🫱🧑🏽🎓☪️🕴🏾👳♂️🍺👨🏽🌾🔓🪱🏋🏾♀️🏃🏾➡️🏾🔓🧑🏾❤💋🧑🏿
🏳️⏰👩🏿❤👩🏻🧑🏼🦽➡️💆🏽♀️🔃🏊🧑🏾🦼➡️🏄🏾♂️🧑🏼🦽➡️👩🏾🦯🧑🏼🦽➡️👩🏿🦯👩🏻🤝👩🏼🧑🏻❤💋🧑🏼
👩🏾💇🏽♂️📕🔃🧑🏽⚕️👩🏽⚖️🇨🇦🕴🏾🏄🏾♂️🧑🏼🦽➡️🧖🏾♀️🪱📕🔃🧑🏽⚕️
👩🏽⚖️🇨🇦🫱🚶🏽♂️👩🏾💇🏽♂️☺️🍏🧖🏾♀️👩🏿🦯🕓🧑🏾🦼➡️🚶🏻♀️➡️🧑🏼🦽➡️👩🏽⚖️
🧑🏽🤝🧑🏽🏖🔶🧎🏿➡️🇹🇱🧑🏼🦽➡️💆🏽♀️💇🏿♀️🧑🏾🦼➡️👩🏾❤👨🏾🧖♂️💇🏾👔🇲🇫🇬🇹
👩🏿🦱🖖🏾🎅🏼🧑🏼🦽➡️🛸🧚🏿♂️👩🏿🦯🗜🧑🏾🦼➡️👩🏿❤👩🏻🧑🏼🦽➡️🧚♀️🧑🦼➡️📕🔃
🥖🧔🏼🪥❎👱♀️🤸🏾♂️🏌️♂️🧑🏽❤🧑🏾✌🏿🧑🏾🦼➡️👩🏿❤💋👨🏻🧑🏼🦽➡️🧗🏻♀️🚶🏿♂️👩🏾
🧑🏾🦼➡️🧵🔔🔶🫁☪️🕴🏾🧑🏾🦼➡️👩🏿❤👩🏻🧑🏼🦽➡️🌶🏳️🌈💂🧖♂️🚶🏾♀️➡️
🫱👩🏾🦳🧙🏽♀️📕🔃📚🧔🏼🪥❎👱♀️🤸🏾♂️🏌️♂️📕🙍🏽♀️☪️
👩🏾🙍♀️👩🏻❤💋👩🏾🧝🏿♀️🤸🏼♀️🧑🏼🦽➡️🖊🧑🏾🦼➡️🕵🏿♀️🧛🏽♀️🤵🏼♀️🤸🏼♀️📮🚶🏻♀️➡️🧑🏼🦽➡️
👩🏽⚖️🧑🏽🤝🧑🏽🏖🔶🧎🏿➡️🇹🇱🧑🏼🦽➡️💆🏽♀️💇🏿♀️🧑🏾🦼➡️🇪🇷☺️📕🔃🧑🏽⚕️
👩🏽⚖️🇨🇦✋🏼🧑🏻🎓🧗🏾♂️🧑🏼🦽➡️🏌️🚶🏻♀️➡️👮🏾👱♀️🤸🏾♂️🚶🏼♂️➡️💇🏿♀️🇹🇱🧑🏼🦽➡️
🧑🏾🦯🖲🧑🏾🦼➡️🧑🏼❤💋🧑🏾🧑🏼🦽➡️🤝🏾🧑🏼🦽➡️🛸🧍🏿👩🏾🇨🇱👩🏼🤝👨🏾🤾🏻♀️🏎👯
🔶🙇🏻♂️🏄🏾♂️🛸🪥🤝🏾♑️👩🏾🦯🌱🚶🏿♂️👩🏾❤👨🏾🏄🏾♂️👨🏾🏫🧑🏼🦽➡️🚶🏽♀️➡️
🧚♀️🗣🎗🖖🏾🍺🤙🏻👩🏼🤝👨🏾🚶🏿♂️🛸🗜⏳🧑🏾🦯➡️🧑🏻🦯➡️👩🏽🚒🏌️♂️
🧑🏾🦼➡️🪪🧑🏼🦽➡️🙇♂️👮🏾🇪🇷⏰💆♂️💇🏿♀️☺️🍱👩🏾👦🏾🙇♂️👨🏽❤👨🏽
🫷👨🏾🦱🏃🏽♂️➡️👩🏽⚖️🫱♀️👨🦽➡️🇳🇫👨🏾🦽➡️🤾♀️
Просто любопытное наблюдение из Google поиска про влияние языковых моделей на общество:
AI Girlfriend ищут примерно 368000 раз в месяц, а AI Boyfriend всего 27000 раз
При этом, AI Girlfriend будто на плато и пока перестало расти
Что-то мне подсказывает, что количество одиноких парней будет только расти в этом нашем киберпанке 🥲
Нашел неочевидное применение артефактам Claude для продуктологов, UX-дизайнеров и менеджеров:
Если помните, Anthropic недавно запилили фичу, где код который пишет Claude «оторван» от истории чата и написан так, чтобы его можно было понять в любом месте, независимо от прошлых сообщений, называется это «артефакт» и модель можно напрямую просить их генерировать (только включите эту фичу в настройках)
У людей которые сильно запариваются в UX продукта (респект вам), в разработке, есть сложность — когда проектирующий продукт человек придумал какую-то механику в интерфейсе и пытается ее объяснить коллегам:
— Программисты могут легко не понять, так как а) есть много других задач б) что там опять напридумывали в) много читать скучных тасков никто не любит;
— Речь идет даже не про разработку, человеку, чтобы выяснить насколько такой прототип «жизнеспособен», нужно расписать логику работы элементов интерфейсов в разных видах;
— Самому проектировщику интерфейса хочется понять, как выглядеть та или иная механика, самому понажимать кнопки и подумать про удобство;
— Занимает эта итерация кучу времени, намного удобнее когда менеджер или проектировщик может в код и набрасывает прототип сам, но это редкость — я вообще доходил до того, что iOS разработчикам делал макеты интерфейсов в After Effect (беда с башкой, я знаю 🚑 )
Ну так вот, оказалось что намного проще посидеть с Claude, описав ему какой-то отдельный кусок продукта, функции и проблему которую я пытаюсь решить — в видео как раз прототип кусочка нейролава который скоро пойдет в A/B тест в виде быстрой навигации по сайту, вместо старой
А поскольку артефакты теперь можно шарить ссылками со всеми, я просто прикладываю ссылку в таск и все намного лучше понимают, что я вообще хочу сделать — экономит часы, серьезно
#пропродукт
Почему это хорошо для владельцев стартапов и бизнесов:
Стоимость GenAI инструментов в проде значительно падает, один сервер который может ранить 8B модельку стоит дешевле ~$800 долларов – при этом, за этот же бюджет вы можете купить 1 333 000 000 токенов у OpenAI с GPT4o-mini (это примерно 20 тысяч копий книги "Великий Гэтсби") – то есть все ваши дерзкие оптимизации бизнес процессов внутри команд, автоматические генерации контента и тп и тд, все это стало реальностью, главное правильно посчитать математику
Например, в нейролаве у нас активно используются агенты LLM-модераторов, SEO-оптимизаторов и тп и тд., еще год назад я не мог бы и подумать что все это будет окупаться ☕️
Через пару лет, АИ лабы начнут доплачивать чтобы вы их токены взяли – вот увидите 😂
На той неделе, вышло несколько приметных LLM моделей — я не пишу про них, потому мне кажется они просто стали чуть лучше в своих задачах и большинству пользователей это не очень интересно, так как ничего революционного не появилось (даже gtp4o mini)
Но на одну интересную модель я все же наткнулся:
Кто-то из любопытства залез во внутренности llama 8B модели и запретил ей использовать букву «е» в любом виде. Ну то есть, модель все еще генерирует слова и текст, но никогда не сможет написать букву «е» и подбирает слова где ее нет.
Вместо "sleep", она напишет "nightly snoozing", а существование слона (elephant) никогда не признает
Мне кажется, такие эксперементы как раз самые клевые — потому что странные и потому что могут вдохновить людей делать больше безумных вещей, которые рано или поздно выльются во что-то полезное для всех
Вот что автор пишет про его метод:
Этот генератор липограмм работает благодаря очень простой модификации последнего слоя модели Llama 3, обнуляющей веса, соответствующие любым лексемам, которые содержат любые варианты буквы «E»
Сходил на мероприятие где коллега Хокинга, теоретический физик Томас Хертог рассказывал про свое понимание пространства-времени и «голографической физики» (если коротко, они не с 3d пространством работают, а с 2d и таким образом обходят баги физики вроде черных дыр) и даже видео колл с философом Жижеком показали; книгу «On the origin of time» я купил, так что скажу как дочитаю как она мне
Но пишу я это не для этого – лучше места, чем церковь, для этого мероприятия не придумать: в зале 500 человек и спикеры также как и 100 лет назад, задаются извечным вопросом – в чем суть существования и что за пределами нашего понимания, но есть нюанс
Красота иронии 🍍
Пока я тут разгребаю текущие дела, посмотрите насколько просто теперь будет снимать фильмы-катастрофы 🌚
Сделано в txt2video Kling
Disney Research определённо настроен на выпуск нового поколения игрушек. В этом ролике они разбирают методы управления, обучения движениям и анимации.
Робот оснащён пятью приводами на каждой ноге и четырьмя на шее, а также набором демонстрационных функций, динамиками, приводом и антеннами. Они могут уверенно передвигаться по неровной поверхности, используя рандомизацию области и рельефа местности.
Движения состоят из нескольких слоёв анимации, включая фоновую анимацию и анимацию, управляемую джойстиком. Оператор может создавать сложные представления, комбинируя процедурную ходьбу, предопределённые анимационные последовательности и анимацию джойстиком.
Пока это так, но я уже представляю, когда этих двуногих с умными мозгами и автономностью можно будет купить практически везде. Найдутся ведь особо упоротые личности, которые будут одевать их в курточки и сапожки.
А что, если вашего двуногого товарища, с которым вы общаетесь по утрам и в течение дня, который спит ночью у ваших ног, кто-то пнёт специально на улице? Что вы почувствуете? То же самое, как если бы кто-то пнул ваш телевизор?
#промo
Как привлечь инвестиции в стартап?
Примерно 9 из 10 стартапов закрываются, потому что не находят инвесторов. Почему так?
В первую очередь, потому что у фаундеров замыливается взгляд — они так долго смотрят на свое детище изнутри, что не осознают, как выглядит стартап в глазах инвестора.
Здесь будет полезен канал Андрея Резинкина. Андрей - действующий венчурный инвестор, в портфеле которого Educate Online (оценка $150М) и EBAC (оценка $100М).
Фишка канала Андрея - показать процесс привлечения инвестиций в стартап именно с точки зрения инвестора.
Вот несколько характерных постов, предлагаю начать с них:
1️⃣ Сколько денег просить у инвестора?
Рассчитайте сколько инвестиций нужно вашему стартапу:
/channel/startup_venture/274
2️⃣ Как продвигать стартап, если у вас ограничен бюджет?
Андрей даёт 4 рецепта с чего начать при выходе статапа на новый рынок:
/channel/startup_venture/472
3️⃣ И почему порой пицца работает лучше инвесторов.
Нестандартная go-to-market стратегия, которая принесла стартапу Antimetal миллион долларов:
/channel/startup_venture/459
Если вам заходят авторские каналы с высокой плотностью полезностей — залетайте в канал Андрея
#текстприслан
Есть такой любопытный проект metaculus.com, это что-то вроде мнения толпы — где люди голосуют на разные темы, в итоге получая вероятности каких-то событий. Сайт старый, модерация строгая, правил куча — в общем, предсказания иногда интересно почитать (как и комментарии к ним), а сам проект уважаем в интернете
И не так давно они запустили очередной турнир по предсказанию различных событий с помощью LLM: разыгрывают $30k — я подумал, что это довольно клевая задача чтобы проверить навыки своего промпт инженеринга, да и $30k в обмен на 3 страницы текста я еще не зарабатывал
Я не думаю что выиграю, потому что мой бот-оракул намного примитивнее конкурентов:
— Собрал небольшого бота который сначала собирает информацию по теме вопроса на новостных сайтах
— Потом, передает это все в gpt4o и она пытается сделать предсказания на основе ее внутренних рассуждений
И вот недавно там был любопытный вопрос:
«Начнёт ли Россия вторую волну мобилизации до 30 сентября 2024 года, согласно Институту изучения войны?»
После пары недель тестов LLM в роле предсказателя, мне кажется я меньше верю в том что такие предсказания отработают хорошо, так как по сути, все упирается в источник данных для предсказаний — если есть доступ к «высококачественным слухам» то предсказания работают хорошо, если опираться на «классические медиа», то они часто дублируют одно и то же мнение, как в эхо-камере
В любом случае, подумал, что кому-то будет интересно увидеть прогнозы: в среднем, голосующие сайта предсказывают такую вероятность в 40%, мой LLM-оракулу предсказал вероятность в 25%
Сам конкурс идет до октября, так что можете еще поучаствовать
#промо
TLDR: Wunder Fund, Data Detective, Data Infrastructure Engineer, Алготрейдинг, HFT, remote
💵 Вилка: $5-8k net (на руки)
🐶 Платим удобным способом, помогаем с релокацией много куда, удаленка.
👁 Инфа: Мы — Wunder Fund, занимаемся высокочастотной торговлей (HFT) уже 10 лет и наш дневной оборот больше $5 млрд. Каждый день мы аккуратно сохраняем большой объем биржевых данных и преобразуем их в специальный единый формат, чтобы наши кванты могли тестировать идеи и создавать торговые алгоритмы.
🕵🏻♂️ Задачи: Несмотря на предельную аккуратность, потери случаются. Поэтому сейчас у нас отрыта роль Data Infrastructure Engineer/Researcher, работа которого будет похожа на детективное расследование. Нам очень важно, чтобы полученные данные были пригодны для симуляции и на 100% совпадали с реальными событиями на бирже. Ты будешь создавать очень надежные дата-пайплайны, чекеры, расследовать загадочные инциденты.
💡Кому будет интересно:
Причины потерь и расхождений всегда нетривиальны, поэтому в этой роли важен именно интерес к исследованию и желание докопаться до сути вещей. Со временем у тебя появится развитая интуиция и ты сможешь расследовать не только уже случившиеся инциденты, но и предсказывать те, что еще не выстрелили в продакшне.
Что нужно:
— Python 3
— Быть опытным практиком в методе пристального вглядывания в данные;
— Мы ожидаем, что у тебя уже есть успешный опыт работы с дата-пайплайнами
— Будет плюсом: успехи в Kaggle-соревнованиях; ШАД, успехи в ICPC и других олимпиадах.
Подробнее: https://clck.ru/3BcVkD
Пишите в ТГ: @wunderfund
#текстприслан
Пару дней назад «возможно» нашли признаки древней жизни на Марсе, цитата из блога НАСА:
Шестиколесный геолог нашел удивительный камень, который имеет некоторые признаки того, что в нем могла обитать микробная жизнь миллиарды лет назад, но необходимы дополнительные исследования.
Камень с прожилками привлек внимание научной команды марсохода Perseverance от NASA. Получивший прозвище «Cheyava Falls», этот камень в форме наконечника стрелы содержит интересные характеристики, которые могут пролить свет на вопрос о том, была ли Марс домом микроскопической жизни в далеком прошлом.
Анализ, проведенный инструментами на борту марсохода, показывает, что камень обладает качествами, которые соответствуют определению возможного индикатора древней жизни. Камень демонстрирует химические сигнатуры и структуры, которые могли бы быть сформированы жизнью миллиарды лет назад, когда район, исследуемый марсоходом, содержал текущую воду. Научная команда рассматривает и другие объяснения для наблюдаемых особенностей, и для определения того, является ли древняя жизнь обоснованным объяснением, потребуется дальнейшие исследования.
Бенчмарк языковых моделей который мы все ждали:
Берем модели, подключаем к Street Fighter III давая им управлять и в каждую модельку передаем что происходит на экране (текстом)
Сидим, ждем - в смертельной битве победит сильнейший трансформер
Код тут:
https://github.com/g0t4/llm-colosseum
#промo
Стартап Airs.Ai ищет senior data Scientist, $5—6K gross
Удалёнка или Белград (даём хороший релок пакет)
Кто мы
Мы Airs.ai (backed by Accel.com, Altair.vc), и мы делаем голосового AI-сейлза, который продаёт лучше, чем человек. Работаем с энтерпрайзом из EU и USA.
Кого ищем
Человека, который будет выстраивать аналитику диалогов и поможет AI-сейлзу увеличивать конверсии в продажу.
Что нужно
Мы ждём, что вы умеете разрабатывать сложные аналитические модели и строить бизнес-процессы. Нужен хороший SQL, английский и базовый Python.
Куда откликаться
Сергею в телегу: @sshalaev. Пришлите пару предложений про ваш опыт и достижения, ссылку на линкедин и резюме.
#текстприслан
OpenAI тизерит SearchGPT, информации пока мало кроме того что там будут виджеты аля Google-выдача и аналог команды "browse the internet" как в ChatGPT — если хотите, можете податься в waitlist по ссылке, я напишу что внутри как дадут доступ:
https://chatgpt.com/search
Вышел анализ доходов и расходов OpenAI от авторитетного издания The Information. Он основывается на ранее нераскрытых внутренних финансовых данных и информаторах, участвующих в бизнесе.
В этом году компания может потерять до 5 МИЛЛИАРДОВ долларов. Если в анализе нет крупных ошибок, то скорее всего OpenAI потребуется привлечь больше средств в ближайший +-год. Но обо всём по порядку:
— человек, непосредственно знакомый с расходами на железо, сказал, что на март 2024-го OpenAI планировали потратить на аренду серверов для ChatGPT $4B. Сюда входит только применение уже готовых обученных моделей для поддержания сервиса (включая распознавание голоса, генерацию, итд)
— суммарно кластеры для ChatGPT, со слов источника, примерно эквиваленты 350'000 видеокарточек A100, и из них ~80% идут напрямую на ChatGPT. Microsoft берёт по $1.30 в час за одну карту A100 — это большой дисконт: сейчас при заключении трёхлетнего соглашения на аренду на Azure средняя цена $1.7 (на год — вообще $2.82)
— однако плановая выручка за этот год, если помните мой прошлый пост, составляет примерно $3.5B (с учётом роста $4.5B), то есть почти окупает эту часть затрат. Но ведь это не всё...
— в дополнение, расходы на сервера для тренировки моделей оценивались ещё в $3B 😨 И это охренеть как много — сами OpenAI планировали потратить всего $800M, но по непонятной причине раздули бюджет. Может, обучение стало приносить меньше плодов, и нужны инвестиции покрупнее, а может наоборот, стало ясно, что вот если раза в 4 увеличить, то станет конфеткой. В любом случае модель следующего поколения будет куда дороже предшественников и того, что мы наблюдаем у META 😅
— плюс, есть расходы на персонал. В компании работает примерно 1'500 человек, и с учётом стремительного роста (в конце 2023-го было ~900), офисы-зарплты-кофе-то-сё, это ещё миллиард-полтора. А ведь на сайте числится больше 200 открытых вакансий...
— итого суммарно за год компания сжигает $8.5B — беспрецедентная сумма, которая кажется гигантской на фоне последнего раунда инвестиций от Microsoft в размере $10B. И тут ещё не учтено, что вообще-то планируется пустить трафик от Apple iPhone на ChatGPT, и количество запросов, а равно и траты, прыгнут вверх
— итого, ~$8.5B потратят, ~$4.5B получат, чистые потери составят $3.5-4.5B. Хорошо, что по договорённостям OpenAI платят своим инвесторам долю от прибыли (которая равна 0)
— у конкурентов не так, например, Anthropic планирует потратить $2.5B на кластера, а выручка у них $800M, да часть ещё и уходит Amazon. Так что их потери могут быть где-то $2B, что в абсолюте меньше, но как доля от выручки существенно больше. Да ещё и инвестиций не так много
И бонус:
— на данный момент не известен размер тренировочных кластеров OpenAI, которые используются для обучения модели следующего поколения (уже запущено, анонс планируется до конца года), однако на первый квартал 2024-го это было 120'000 A100 — до того, как Microsoft должна была предоставить OpenAI гораздо больше серверов для учебных целей.
GPT-4, напомню, училась на 25'000 карт, LLAMA-3-405B — на 16'000 (но более мощных).
Meta опубликовала новые модели Llama 3.1
https://llama.meta.com/
1) Теперь доступна модель размером в 405B, запустить у нас всех ее не получится (нужно промышленное железо) – про нее я напишу отдельно потом, как почитаю тесты возможностей
2) Помимо этого, Llama 3.1 вышла в 8B и 70B размерах, они поддерживают многоязычность и просто стали лучше в своих категориях, запускаться они смогут на том же железе где и работали прошлые версии + длинный контекст 128k
Вы наверное теперь понимаете почему OpenAI показало gpt4o mini неделю назад и сделала ее настолько дешевой – скоро у нас будут очень умные модели, которые очень быстро работают на любом железе
Meta классно создает давление на OpenAI через опенсорс, Цукерберг красавчик
Kling генерации
⭐️ Приятное видео воссоединения одного и того же человека в молодости и в старости.
🧠 Все это сделано в Kling видеонейронке. Предварительно сшив две фотографии из разного возраста звезд в одну картинку и похоже подав с промптом на обнимание. 🐈⬛Доступ к видеонейронке только с валидным китайским номером.
☺️ Хотя с таким же подходом можно подать видео в Dream machine
Наткнулся на популярный тикток с img2vid, в комментариях хвалят такой AI контент, может постепенно и хейтеров Gen video станет меньше 🌚
Похоже на когда я с Dalle по музею ходил
Полезную ссылку принес:
https://defrag98.com
Открываем сайт, запускаем дефрагментацию диска C:, умиляемся насколько вы старый, что помните что это такое
P.S. Звук не забудьте включить