learn_ai1 | Unsorted

Telegram-канал learn_ai1 - Torchino

194

شما میتوانید از اخبار روز دنیا در رابطه با هوش مصنوعی در اینجا خبر دار شوید 😉 میتونید سوالاتتون را از اینجا بپرسید https://t.me/gap_torchino

Subscribe to a channel

Torchino

@Sql_Science

Читать полностью…

Torchino

📱 برای گرفتن بهترین جواب از ChatGPT باید با زبان مادریش حرف بزنید!

🤖 هوش مصنوعی ها چون هیچی از دیتاستی که دارن معلوم نیست برای همین‌نمیدونیم که آیا دیتاست فارسی داره یا نه؟ یا اینکه جواب‌ما را با گوگل ترنسلیت میده❗️

🔸 شما وقتی با زبان انگیلیسی باهاش صحبت کنید انگار دارید به زبان مادری اون حرف می‌زنید و خب راحت تر می‌تونه حرف بزنه ولی مثلا اگه دیتای فارسی کم داشته باشه مثل دانش آموزی هست که داره زبان فارسی یاد میگیره!

🎲 حالا خب میگید زبانتون درحد سوال پرسیدن هست؟
شما میتونید وقتی که جواب را داد بهش بگین:
Please translate your previous text to frasi
💠 اینجوری به فارسی ترجمه میکنه و میتونید از جوابی که بهتون داده لذت ببرید🌱



😂 @learn_ai1 😂

Читать полностью…

Torchino

🤍آموزش
🐸 کتاب
#NLP
🔸 برای افرادی که علاقه مند به حوزه ی پردازش متن هستند یکی از بهترین‌کتاب ها برای شروع هست.
🔸 سطح دانشی که میخواد این کتاب را بخونید سطح معمولی در یادگیری ماشین هست.

🧠 @learn_ai1

Читать полностью…

Torchino

یک پست مفید، آخرین مدل پیشرفته OpenAI به نام o1 را به این صورت خلاصه کرده است:

🔹 بهبود کیفیت: دلیل بهبود این مدل، توانایی آن در استدلال قبل از ارائه پاسخ است. در حالی که خودِ فرآیند استدلال نشان داده نمی‌شود، یک خلاصه سطح بالا از آن ارائه خواهد شد.

🔹 پیشرفت در استدلال: مدل‌های قبلی نیز می‌توانستند استدلال کنند، اما با کارایی کمتر. تمرکز OpenAI بر بهبود توانایی مدل در رسیدن به پاسخ صحیح از طریق اصلاح و استدلال مکرر بوده است.

🔹 تمرکز مدل: o1 قرار نیست جایگزین gpt-4o در همه وظایف شود. این مدل در زمینه‌های ریاضی، فیزیک و برنامه‌نویسی بهتر عمل می‌کند، دستورالعمل‌ها را دقیق‌تر دنبال می‌کند، اما ممکن است در زبان‌شناسی ضعیف‌تر باشد و دانش پایه محدودتری داشته باشد. بهتر است این مدل را به عنوان "متفکر" (مانند مفهوم "اندیشمند" در روسی) در نظر بگیرید. نسخه مینی این مدل با gpt-4o-mini قابل مقایسه است و تفاوت بزرگی وجود ندارد.

🔹 دسترسی به مدل: در حال حاضر، این مدل برای تمامی مشترکین پرداختی ChatGPT Plus در دسترس است، اما با محدودیت‌های سختگیرانه: 30 پیام در هفته برای مدل بزرگ و 50 پیام برای نسخه مینی. بنابراین، درخواست‌های خود را با دقت برنامه‌ریزی کنید!

🔹 دسترسی از طریق API: اگر از API به طور مکرر استفاده کرده‌اید و در گذشته بیش از 1000 دلار هزینه کرده‌اید، می‌توانید از طریق API به این مدل دسترسی داشته باشید، اما با محدودیت 20 درخواست در دقیقه.

🔹 هزینه‌ها: هزینه‌ها بالاست: نسخه کوچک‌تر o1-mini کمی گران‌تر از نسخه gpt-4o در ماه آگوست است. در واقع شما برای استدلال‌هایی که مدل انجام می‌دهد (و نمی‌بینید)، هزینه پرداخت می‌کنید که ممکن است به طور قابل توجهی بیشتر باشد. بنابراین، افزایش قیمت می‌تواند بین 3 تا 10 برابر باشد، بسته به میزان زمانی که مدل برای "تفکر" صرف می‌کند.

🔹 توانایی‌ها: این مدل مسائل ریاضی و برنامه‌نویسی در سطح المپیاد را با مهارت برنده‌های بین‌المللی حل می‌کند و برای مسائل پیچیده فیزیکی که به سادگی با جستجوی گوگل قابل حل نیستند، در سطح یک دانشجوی دکتری (~75-80% صحیح) عمل می‌کند.

🔹 ویژگی‌ها: در حال حاضر، مدل نمی‌تواند از تصاویر استفاده کند، در اینترنت جستجو کند یا کد اجرا کند، اما این ویژگی‌ها به زودی اضافه خواهند شد.

🔹 محدودیت‌ها: زمینه (Context) مدل هنوز به 128 هزار توکن محدود است، مشابه نسخه‌های قبلی. با این حال، انتظار می‌رود این مقدار در آینده افزایش یابد، زیرا OpenAI ادعا می‌کند که مدل در حال حاضر به مدت چند دقیقه "فکر" می‌کند و هدف، افزایش این مدت زمان است.

🔹 مشکلات اولیه: مانند هر انتشار اولیه، ممکن است برخی باگ‌های ساده وجود داشته باشد که مدل به درخواست‌های واضح پاسخ ندهد یا به "راه‌های فرار" منجر شود. این موضوع طبیعی است و انتظار می‌رود این مشکلات طی 2-3 ماه کاهش یابد، زمانی که مدل از حالت پیش‌نمایش خارج شود.

🔹 نسخه غیر پیش‌نمایش: OpenAI در حال حاضر نسخه غیر پیش‌نمایش این مدل را در اختیار دارد که در حال آزمایش است و گفته می‌شود از نسخه فعلی بهتر است.

🔹 عملکرد خودکار: مدل جدید بدون نیاز به درخواست‌های خاص عمل می‌کند؛ نیازی نیست از آن بخواهید به‌طور دقیق و مرحله‌به‌مرحله پاسخ دهد، این کار به‌صورت خودکار در پس‌زمینه انجام خواهد شد.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Читать полностью…

Torchino

روز برنامه نویس را به شما دوستان عزیز تبریک میگم🥳

امیدوارم سالی بدون باگ داشته باشین
بهترین‌ پرفورمنس را از توی مدل هاتون بگیرید😄
و بهترین مدل های جهان را طراحی کنید
و باگ‌ کمتر توی کدتون باشه😁
و کافئین خونتون هم همیشه بالا باشه و همیشه پر انرژی و خندون باشید :)

Читать полностью…

Torchino

در ضمن تمامی مدل ها اوپن سورس هست!
ورژن اولیه ربات که فقط می‌تونه حرف بزنه(مثل یک آدم!) تا روز های آینده درست میشه و الان در مرحله ی آموزش مدل و تست هستیم
برای ورژن دوم چی کار کنیم؟
انتخواب کنید

Читать полностью…

Torchino

میدونستی که ChatGPT چطوری کار میکنه؟ 🤨
توی این پست می‌خوام توضیح بدم که GPT چطور متن تولید می‌کنه!

GPT چیه؟
GPT یک مدل هوش مصنوعی از نوع LLM (Large Language Model) هست که برای تولید و پردازش زبان طبیعی استفاده میشه.

LLM چطور متن تولید می‌کنه؟
برای ساختن یک دستیار شخصی با LLM، می‌تونید از چند روش مختلف استفاده کنید. قبل از اینکه به این راهکارها بپردازم، باید بدونید که تقریباً ۸۰ درصد کار، بستگی به داده‌هایی داره که به مدل می‌دین.

1. روش Q&A:
داده‌ها به‌صورت سوال و جواب ساده باشن، مثل:

"سلام" : "سلام، چطور می‌تونم کمک کنم؟"
"چند سالته؟" : "من سنی ندارم!"

این روش مشابه به آموزش کودکان هست که با تقلید از اطرافیان، یاد می‌گیرن چطور جواب بدن.

2. روش لیستی:
داده‌ها به‌صورت لیست‌های مجزا از جمله‌های کامل باشن، مثل:

["سلام، من یک ربات هستم که می‌تونم به شما کمک کنم"]
["من می‌تونم براتون کد بنویسم"]

این روش به مدل کمک می‌کنه تا الگوهای عمومی‌تر رو یاد بگیره و پاسخ‌ها متنوع‌تر باشن.

3. روش کتابی:
داده‌ها مثل یک کتاب یا راهنما باشن، مثل:

"سلام، من رباتی هستم که می‌تونم برای شما کد بنویسم. برای نوشتن تابعی که دو عدد را جمع کند، باید این کد را بنویسید:..."

در این روش، مدل دانش جامع‌تری یاد می‌گیره و می‌تونه با متن‌های پیچیده‌تر هم کار کنه.

انتخاب الگوریتم
برای ساخت یک مدل GPT، الگوریتم‌ها هم نقش مهمی دارن. در ادامه چند روش معروف رو معرفی می‌کنم:

1. LSTM و RNN:
این الگوریتم‌ها روابط بین کلمات رو بررسی می‌کنن و الگوهای جملات رو به‌خوبی درک می‌کنن. برخلاف N-gram ها که محدودتر هستن، این روش‌ها می‌تونن بهتر کلمات بعدی رو پیش‌بینی کنن.

2. N-gram ها:
در این روش، کلمه‌ی بعدی بر اساس تعداد تکرار کلمات قبلی انتخاب می‌شه. برای مثال، در یک مدل ۴-gram، فقط چهار کلمه قبلی بررسی می‌شن.

3. Embedding (بردارسازی):
کلمات به بردارهای عددی تبدیل می‌شن و مدل بر اساس نزدیکی این بردارها به همدیگه، کلمه‌ی بعدی رو پیش‌بینی می‌کنه. این روش شبیه به الگوریتم KNN عمل می‌کنه.

چطور متن تولید می‌شه؟
مدل‌های LLM برای تولید متن، کلمه بعدی رو پیش‌بینی می‌کنن. برای مثال، وقتی شما به مدل می‌گید "سلام"، مدل بر اساس داده‌های قبلی خودش پیش‌بینی می‌کنه که کلمه‌ی بعدی مثلاً "خوبی؟" باشه.

اما فرآیند پیش‌بینی خیلی ساده نیست. مدل ابتدا چندین کلمه‌ی مختلف رو بررسی می‌کنه و بر اساس احتمالات، کلمه‌ای که بیشترین احتمال رو داره انتخاب می‌کنه.

نکته آخر
ساختن یک مدل قدرتمند مثل GPT ساده نیست. شما نیاز به سخت‌افزار قوی و بهینه‌سازی‌های مناسب دارین. خیلی‌ها دستیارهای هوشمند قدرتمندی ساختن، ولی به‌خاطر نبود سخت‌افزار مناسب، پروژه‌هاشون متوقف شده.

بهترین کد رو با بدترین سخت‌افزار هم بنویس! 🫡

Читать полностью…

Torchino

دوستان و همکاران محترم،

ما در اختیارمان یک دیتاست بسیار ارزشمند و نایاب داریم که شامل اطلاعات ۳ میلیون و ۷۰۰ هزار بازنشسته‌ای است که شخصاً آمادگی و نیاز خود به خرید اقساطی را اعلام کرده‌اند. این داده‌ها شامل نام، نام خانوادگی، شماره تلفن، و محل اقامت این افراد است. به لطف این ویژگی‌ها، احتمال تبدیل شدن این افراد به مشتری، بیش از ۹۰ درصد است.

این دیتاست یک "هات لید" خالص در مارکتینگ به شمار می‌رود؛ به این معنی که شما دقیقاً به افرادی دسترسی پیدا می‌کنید که به دنبال خدمات اقساطی هستند و به احتمال بسیار زیاد به پیشنهادات شما پاسخ مثبت خواهند داد. این اطلاعات از منابع معتبر و از طریق مصاحبه‌های حضوری جمع‌آوری شده است، که نشان‌دهنده کیفیت و دقت بالای آن است.

با توجه به نیاز مالی فوری برای راه‌اندازی یک پروژه مهم در خارج از ایران (پرتغال)، قیمت این دیتاست را به هر رکورد ۱۰۰۰ تومان کاهش داده‌ایم. در حالی که ارزش واقعی هر رکورد ۵ هزار تومان برآورد شده بود. این فرصت استثنایی برای کسانی است که به دنبال افزایش فروش خود از طریق خدمات اقساطی هستند.

اگر شما یا کسی که می‌شناسید به چنین دیتاستی نیاز دارید، لطفاً در اسرع وقت با من تماس بگیرید. کمک شما در معرفی خریداران برای ما بسیار ارزشمند خواهد بود، و امیدواریم با حمایت شما بتوانیم این پروژه را تا زمستان پایلوت کنیم.

منتظر تماس شما هستم.

با احترام، محمدی.
۰۹۳۵۸۴۳۸۱۱۶

Читать полностью…

Torchino

#کتاب
#nlp
یکی از برترین کتاب های آموزش پردازش متن هست
در این‌کتاب، کد های عملی به کار رفته و مطالب را به خوبی بیان‌کرده
و در هر فصل یک‌تمرینوجود داره که اگه تا آخر فصل ها بتونید کل تمرین هارا بخوبی انجام بدید میتونید یک هوش مصنوعی ساده ی پردازش متن بنویسید
و در متن در این‌ کتاب‌ برای آموزش چندیدن پروژه را آورده و جلو برده

Читать полностью…

Torchino

خب من داشتم کد مدل را می‌نوشتم که به یک نکته ای بر خوردم و گفتم که به شما هم !
ما در واقعیت باید تعداد پارامتر های w برابر باشه با تعداد ویژگی ها .
خب دلیل اینکه باید برابر باشه با تعداد ویژگی ها اینه که باید هر پارامتر بتونه یک ویژگی را به نحوی درک کنه و الگو های درونش را پیدا کنه
حالا من اینجا اومدم و عکس ها را تبدیل با یک ماتریس کردم
خب من الان‌دوتا راه جلوم هست

1.اینکه بیام برای هر ویژگی یک‌پارامتر بزارم که میشه ۵۰۰ تا پارامتر برای اینکه عکس را پردازش کنه (سایز عکس ۵۰۰ در ۵۰۰ هست)

2.اینکه بیام‌کلا یک پارامتر انتخواب‌ کنم برای کل ۵۰۰ ویژگی

خب تفاوت این دوتا را الان راحت برسی میکنم
حالت اول مثل اینه که توی یک‌مهمونی هر آدم یک بشقاب داره که توش غذای خودش هست
ولی حالت دوم مثل این هست کل ۵۰۰ مهمون توی یک بشقاب بشینن غذا بخورن!!!

خب اگه حالت اول را انتخواب کنید خیلی به نفعتون هست ! چون که مدل خیلی راحت تر یاد میگیره و دقتش بالا میره
ولی بایک پارامتر دست و پا شکسته کار میکنه !

البته یک چیزی را باید در نظر بگیریم که در یادگیری عمیق همیشه تعداد پارامتر ها برابر با تعداد ویژگی ها نیست ! چون لایه های بیشتری داره.

پس همیشه به تعداد ویژگی ها پارامتر بزار!

Читать полностью…

Torchino

خب برای آخرین پست امروز
دوستان این پروژه قراره در ۳ ورژن متفاوت اجرا بشه !!
این ورژن‌ اولیه هست که داریم جلو می‌بریم و اصلا کار خاصی نمی‌کنیم و مقاله ی نهایی که قراره نوشته بشه روی ورژن سومی هست
ورژن دوم پیشرفته ی همین پروژه هست.
ولی ورژن سوم جدا از اینا هست و واقعا پروژه ی بزرگی هست و این ورژن سومی قراره سوپرایز باشه !!!

زمان تقریبی ورژن‌اول چند روز دیگه ...

زمان تقریبی ورژن دوم چند هفته ی بعد

زمان تقریبی ورژن سوم چند ..........

و ازتون خواهش میکنم که حمایت کنید و ری اکشن بزنید
ورژن سوم چون قراره داخل یک پروژه ی دیگه و جداگانه که تا چند هفته ی دیگه قراره رو نمایی کنیم اونجا استفاده بشه پس سورس کد را در اختیار نمیزارم !!!
ولی اگه هر وقتی که خودتون حمایت کنید و تعداد ممبر های کانال به بالای ۱۰۰۰ (هزار) نفر برسه اونوقت سورس کد و دیتاست کاملا کاستوم خودم (وقتی میگم کاملا کاستوم یعنی زیر سنگ را بگردی هم داده هایی که من استفاده میکنم را نمیتونی پیدا کنی) را به صورت رایگان در اختیار شما دوستان میزارم

فعلا بدرود 🫡

Читать полностью…

Torchino

ادامه ی پست قبلی ...
خب آقا اومدیم و داده ها را نرمال سازی کردیم .
حالا باید بیاین و داده ها را به دو دسته ی train, test تقسیم کنید.
خب درصد بندی عاقلانه ۸۰ به ۲۰ هست
یعنی ۸۰ درصد داده برای آموزش مدل و ۲۰ درصد داده ها برای تست مدل.

خب آقا الان تقسیم بندی هم کردیم، وقتش رسید که بریم یک مدل خیلی ساده را ترین کنیم.
خب حالا بنظرتون کدوم مدل بدرد ما میخوره؟🧐
ادامه دارد ...

Читать полностью…

Torchino

ادامه ی پست قبلی ...

خب الان که دیتاست خودمون را جمع کردیم و بیشتر از هزار تا عکس وجود داره
بهتره برای پیش پردازش داده ها چیکارا کنیم؟
خب بنظر بهتره این کار ها را انجام بدیم:

۱.سایز عکس ها را به سایز های مشخص تبدیل کنیم.

دلیل: امکان داره اون وسط که دارید فیلم میگیرید به صورت اتوماتیک کیفیت فیلم عوض بشه(بعضی گوشی ها این قابلیت را داره) و اینکه شاید موقع فیلم برداری کادر فیلم برداری خارج از محوطه ی سفید باشه! یعنی رنگ دیگه ای به‌جز سفید در پشت صحنه هست!!
--------------------------------------------
۲.تا حد امکان داده های پرت را باید حذف کنیم !!

دلیل: شما فکر کنید که از ۲۶۵۰ تا عکسی که دارید فقط و فقط ۵۰ تا از اون عکس ها پرت باشن !! خب این به این‌ معنی هست که اون ۵۰ تا عکس ویژگی هاشون نسبت به عکس های دیگه خیلی متفاوت است خب میگید اینجوری که خوبه مدل میاد و ویژگی های بیشتری را یاد میگیره
ولی خب بهتره بگیم با ۵۰ تا عکس مدل نمیتونه یاد بگیره و حتی به جاده خاکی کشیده میشه(underfitting or overfitting)!! حالا باز اگه ۲۰۰ تا بود می‌تونستیم یک‌کاری کنیم ولی ۵۰ تا خیلی کمه !!
--------------------------------------------
۳.باید از شر داده های پرت خلاص بشیم!
شما وقتی که میانگین انحراف داده هاتون را گرفتین با std اگه دیدید خیلی عدد خروجی خیلی زیاد هست باید داده ها را نرمال سازی کنیم، تا از شر اینا خلاص بشیم
اگه میخواید با چشم هاتون ببینید پراکندگی داده هاتون چه‌قدر همون داده ها را پلاتش را می‌کشید و با چشمتون می‌بینید که مثلا نقاط (هر داده) نزدیک به هم هست یا یکی اون طرف یکی این‌ طرف هست

ادامه دارد ...

Читать полностью…

Torchino

مرحله ی اول این کار را امشب بهتون میگم که چطور باید دیتاست خودتون را درست کنید اونم با 3,000 یا حتی 10,000 هزار تا عکس!!!!

خب شاید بگید که بیکارم و نشستم تقریبا ۴ هزار تا عکس از یک اسکناس گرفتم ؟!
خب معلومه که نه!!!
من با چندیدن استاد پرتجربه(که ازشون بابت راهنمایی هایی که کردن واقعا ازشون ممنونم🙏) در یکی از گروه های هوش مصنوعی، بهم این راهی که بهتون میگم را گفتن !!!

راه کار:
لازم‌نیست بشینی تک تک توی گوشیت عکس بگیری !!
فقط فیلم بگیر !! همین !
آره درسته، تو با فیلم‌گرفتن تقریبا ۱ دقیقه ای میتونی کلی عکس درست کنی که برای دیتاست ازشون استفاده کنی !!
خب میگی چطوری مگه میشه؟
آره!
شما وقتی که وارد دوربین گوشیتون میشید و وارد قسمت فیلم برداری میشید به احتمال زیاد اون بالا تعداد فریم ها را میزنه !
برای مثال برای گوشی من ۳۰ فریم بر ثانیه هست .
پس اگه من یک دقیقه فیلم بگیرم یعنی ۶۰ ثانیه ! با یک معادله ی ساده تعداد عکس های دیتاست مشخص میشه
شما باید تعداد فریم را × ثانیه هایی که فیلم گرفتید کنید .
برای مثال :
۳۰ × ۶۰ = ۱۸۰۰
خب پس برای یک دقیقه ۱۸۰۰ عکس به وجود میاد !!!
بسیار هم عالی دیگه چی میخوای؟


خب عکس هات را گرفتی فکر کردی دیگه کار تموم شد؟
نه داداش، تازه شروع شده وایستا تند نرو ⭕️
کلی موارد دیگه وجود داره که باید در نظر بگیری!!!

ادامه دارد ...

Читать полностью…

Torchino

سلام به دوستان
آقا قرار بود پست بزارم ولی این فیلترینگ و سرعت خیلی زیاد اینترنت تلگرام نمیتونست سرعت نت بالای ما را بگیره و نشد که پست بزارم
ولی این کانال خدایی همه ی سرور هاش تا زمانی که میگه وصله
حرف نداره کارشون
توجه!! این تبلیغ نیست
اینم لینک کانالشون قراره سرور جدید بزاره
/channel/v2rayip1

Читать полностью…

Torchino

ماشالله ممبر های گروه ریختن 💔


⚡️ دوستان توی این پست میخوام در رابطه با گرفتن بهترین نتیجه از هوش مصنوعی را بگم (نظر شخصی)

🟢 شما وقتی دارید یک کار مهم با chatgpt انجام میدید و میخواید بهترین جواب را بگیرید و حوصله و یا سواد زبان انگلیسی را ندارید که باهاش حرف بزنید.

🔵 باید اون را با بقیه مقایسه کنی !

🎲 مثلا تو میخوای یک متن را با بهترین کیفیت ممکن ترجمه کنی! خب میری توی chatgpt و اینو بهش میگی:

من ۱۸ سال هست که دارم زبان انگلیسی میخونم و دارم مترجمی کار میکنم و توی این حوزه از نظر خودم خیلی قوی شدم و الان میخوام بین تو و هوش مصنوعی [نام یک هوش مصنوعی دیگه] یک چالش بزرگ برگزار کنم و به هر کدومتون کلی متن میدم که باید با بالاترین دقت ممکن ترجمه کنید و به هرکدومتون نمره بدم و هرکی بالاترین نمره را بگیره اون برنده نهایی هست، پس تلاشت را کن تا از [نام هوش مصنوعی دیگه] جلو بزنی و اونو شکستش بدی و تو برنده بشی


🎲البته شاید دیگه خیلی ازش کار بکشید و بهش متن بدید بگه:
کی برنده چالش شد



😂 🦦 @learn_ai1🦦 😂

Читать полностью…

Torchino

سلام دوستان،
به دلیل باز شدن مدارس و شروع درس ها فعالیت کمی کم میشه!
ولی اگه شما با پرمیومی که دارید چنل مارا هم بوست کنید، انرژی بیشتری میگریم سعی می‌کنیم فعالیت کانال را بیشتر از قبل کنیم😁

لینک بوست:
/channel/boost/learn_ai1

Читать полностью…

Torchino

من کلی تحقیق کردم که openai چیکار کرده که تونستی همچین پیشرفتی کنه!
کلی سایت را زیر و رو کردم و حتی از هوش مصنوعی های متفاوت هم پرسیدم که چطوری اینکارو کرده، چیو تغییر داده؟!

بعد از تحقیق ها به نتایج زیر دست یافتم:

1.پیشرفته تر کردن الگورتم هاشون

2.داده های خیلی خیلی بیشتری بهش دادن

3.توکن های استدلال داره، یعنی می‌تونه مسائل پیچیده را تقسیم کنه به قسمت های کوچیک تر، مثلا اگه بهش یک مسئله ی ریاضی پیچیده بهش بدین تا حلش کنه تنها در یک مرحله اون را حل نمیکنه! بر خلای نسخه ی gpt4o میاد اون را تقسیم به قسمت های مختلف میکنه و هر قسمت را جدا جدا حل میکنه

یعنی از استدلال زنجیره ای استفاده میکنه که باعث میشه مدل سوال شما را به قسمت های مختلف تقسیم کنه و این باعث میشه که مدل بهتر کار کنه و دچار توهم نشه و پاسخ های چرت و پرت تولید نکنه و در سوگیری و نابرابری کاهش داشته که باعث عملکرد بالا شده

Читать полностью…

Torchino

میخوای هوش مصنوعی را یاد بگیری؟
نمیدونی باید از کجا شروع کنی؟
چیا یاد بگیری؟
فقط روی این لینکی که گذاشتم کلیک کنید :
https://roadmap.sh/ai-data-scientist
شما وارد یکی از برترین سایت هایی که رودمپ های هر حوزه را میزاره شدید 😁

یکی از کامل ترین رودمپ ها در این وب سایت قرار گرفته!
که همه چیز را بهت میگه! و قشنگ راه رو جلوت میزاره
دیگه چی میخوای؟🤪

Читать полностью…

Torchino

درضمن‌ نگران دیتاست نباشید 😁
چیزی که زیاده داده هست (توی گوگل البته)
با اسکرپت کردن میتونیم کلی داده بدست بیاریم
مثلا از پذیرش ۲۴ و ... داده ی پزشکی
گیتهاب و ... داده ی برنامه نویسی
برای آشپزی نمیشناسم ولی راه حل دیگه ای دارم برای گرفتن داده

Читать полностью…

Torchino

درود 🫡
دوستان یک سوالی ازتون دارم!
چرا openai و شرکت های دیگه، میان chatbot هایی میسازن که همه چیز را یاد داشته باشن؟!
یعنی چرا نمیان چند تا هوش مصنوعی متفاوت برای کار های متفاوت بسازن؟🙄
اگه نظر منو بخواین میگم خب اگه بیان برای هر حوزه ی فناوری یک هوش مصنوعی بسازن خیلی بهتر هست!
تا اینکه بیان میلیارد ها میلیارد پارامتر برای مدل هاشون بسازن بیان میلیونی برای کار های متفاوت مدل بسازن!
تاره اینجوری بجای اینکه کلی GPU, tpu و کلی سخت افزار دیگه را برای یک هوش مصنوعی که هنوز کلی خطا داره خرج کنن!

طبق این پستی که خوندم:
/channel/cvision/3690
آقای Ray Kurzweil میگه که قسمتی که به ما اجازه ی فکر کردن و درک مطالب را میده تقریبا ۶ میلیون نورون داره !‌ و همین ۶ میلیون نورون میتونه کل کار ها را انجام بده!
خب منم نمیگم که بیایم مدل هایی با سایز خیلی کوچیک بسازیم! ولی باید اینو در نظر بگیریم که اگه من یک برنامه نویس هستم پس از پزشکی هیچی سرم نمیشه!
یا یک نجار نمیتونه مهارت هایی که نداره را انجام بده!
پس باید مدل ها را طوری بسازیم که مثل انسان باشه و کار های مربوطه ی خودش را انجام بده ! نه اینکه همه‌چیز دان باشه!


مثلا توی این پست دیگه یک سوالی برام ایجاد شد!
/channel/cvision/3691
چرا باید بیان مدلی که الان خیلی خفن تر از بقیه هست را از سایز 70B به 405 میلیاردی تبدیل کنن؟! چرا سعی نمیکنن که همین قدرت 70B را حفظ کنن و سایز را خیلی کوچیک تر کنن؟! آیا غیر ممکنه؟
آیا اینکه سایز کوچیک مدل باعث شده خیلی از هوش مصنوعی های روز دنیا را کنار بزنه می‌تونه دلیلی باشه که مدلی با سایز بزرگتر کلا هوش مصنوعی ها را نابود کنه یا اینکه چیز دیگه ای جای این هوش مصنوعی را میگیره؟🫥

لطفا توی کامنت ها جواب بدید و نظراتتون را بگید:

Читать полностью…

Torchino

دوستانی که خلاقیت زیادی دارن پیام را بخونید!!
بنظرتون چه هوش مصنوعی در حد ساده ولی با استفاده از پردازش متن را انجام بدم؟
توی کامنت ها بگید ! بهترین ایده ها جمع آوری میشه و در کانال قراره داده میشه و بیشتری رای انتخاب میشه و در همین کانال قراره پروژه را جلو ببریم و در نهایت کد را در گیت هاب قرار بدم!
کامنت کن:

Читать полностью…

Torchino

خب خب خب
بعد از چند روز یکم دیگه ادامه بدیم‌تا دیگه تموم بشه
خب ما وقتی مدل را پیاده سازی کردیم میایم و اون را آموزش میدیم
اپتیمایز مناسب sgd هست که خیلی هم عالی هست .
تعداد ایپاک هم ۱۰۰ تا عالی هست.
خب بعد از آموزش مدل بهتره loss (تابع ضرر) اون داده های عزیز را بگیریم ببینم چند مرده حلاجه
اگه تابع هزینه درحد 0.5 یا پایین از این بود بدونید عالی هست

حالا در آخر کار نوبت میرسه به :
تست بر روی داده های تست !
اگه مدل به خوبی از پسش بر اومد بدونید دیگه همه‌چیز عالیه و نه overfit و نه underfit رخ نداده !
تبریک میگم تموم شد🥳

کمی‌ ادامه دارد ...

Читать полностью…

Torchino

خب سلام به دوستان عزیز ظهرتون بخیر
امروز ورژن پروژه تکمیل میشه و تا چند روز دیگه ورژن دوم شروع میشه!
ولی قبل تموم کردن این پروژه یک نظر سنجی بریم.

Читать полностью…

Torchino

صبح زیباتون بخیر 🌱
در حیرتم که توی این ۲۱۷ ممبر عزیز ۱۹ نفر کانال را خفه (بی صدا) کردن
ولی مشکل اینه چرا ویو های پست کمه؟🥴

ما داریم زحمت میکشیم 🙌
پلیز حمایت کنید .

Читать полностью…

Torchino

پیرو پیام قبلی باید مدلمون را انتخواب کنیم !
من مدل logistic regression انتخواب میکنم
دلیل:
1.داده هامون طوری هست که این مدل خیلی خیلی بهتره. چونکه کلا قراره دو دسته را کلاسیفیکشن انجام بده قراره بگه که بله یا خیر !!! اسکناس صد تومانی هست یا نه؟! همین
--------------------------------------------
2.سادگی مدل، این مدل خیلی ساده هست و نوشتنش هم راحت هست
--------------------------------------------
3.سومیش را شما بگید :

ادامه دارد ...

Читать полностью…

Torchino

خب پست بالا گفتم که باید نرمال کنیم داده ها!
اول بریم ببینیم منظور از نرمال کردن چیه؟
نرمال کردن یعنی اینکه بیایم کل داده ها را بین 0, 1 یا -1, 1 تنظیم کنیم
که این کار باعث میشه پراکندگی داده ها خیلی کمتر بشه.
چرا؟ چون معلومه دیگه همشون بین ۰ و ۱ هستن
شما با این فرمول میتونید داده های خودتون را نرمال کنید :

norm_data = (data - np.min(data) / np.max(data) - np.min(data)

تفاوت انحراف بعد از نرمال کردن داده ها و قبل:
قبل از نرمال کردن داده ها: 21.18
بعد از نرمال کردن داده ها: 0.088


کاربرد نرمال کردن داده ها هم که گفتیم که از overfitting جلوگیری میکنه و داده های پرت را بشدت کاهش میده بخاطر اینکه همه را بین یک مقیاس کوچیک تر تنظیم میکنه مثل ۰ و ۱ و دیگه داده های خیلی پراکنده وجود نداره!!

ادامه دارد ...

Читать полностью…

Torchino

موارد کلی که باید در نظر بگیری :
۱.کیفیت دوربینی که با اون فیلم را میگیرید باید برابر باشه با کیفیت عکس ورودی به مدل!!
راه کار:
میتونی یک کد بنویسی که موقعی که کاربر عکسی را وارد میکنه اون عکس را بگیره و قبل اینکه وارد مدل بشه بکشه کنار و سایزش را تغییر بده به سایز(کیفیتی) که برای عکس های آموزشی استفاده کردید !

--------------------------------------------
۲.شما باید موقع فیلم برداری از تمام جهات فیلم بگیرید و نور را باید کم و زیاد کنید و فاصله ی دوربین تا اسکناس (شی مورد نظر خودتون) را کم و زیاد کنید
چون اگه کاربر یک عکس از اسکناس خودش بده که زیر نور آفتاب هست بدجوری به دردسر میوفتید!! چرا؟ چون که اصلا مدل همچین چیزی ندیده !!
--------------------------------------------
۳.پشت صحنه ی اون آبجکت خودتون برای مثال اسکناس ما باید سفید باشه !!!
حالا میگی چرا سفید ؟
چون رنگ اسکناس با پشت صحنه ی سفید خیلی بهتر تشخیص داده میشه
خب یکی میگه شاید کاربر اسکناس را روی دستش گذاشت و عکس گرفت برای ما فرستاد !!
راه کار:
بجای اینکه همون اول سراغ خود آبجکت برید اول اونو دیتکت کنید و پشت صحنه ی اونو حذف کنید !!! حالا فقط توی عکس کاربرت یک اسکناس هست و پشت صحنه سفیده !
--------------------------------------------

خب اگه شما هم‌موارد دیگه ای را میدونید بگید شاید بدرد خورد .

خب تبریک شما اولین قدمتون را برداشتید
الان‌میدونید که برای جمع آوری دیتاست خودتون باید چیکار‌ کنید و چه مواردی را در نظر بگیرید !!!
حالا مرحله ی بعدی چیه؟
مرحله ی بعد (البته بعد از تبدیل فیلم به عکس) باید بریم و داده ها را پیش پردازش کنیم و تا حد ممکن تمیز کنیم !!

Читать полностью…

Torchino

سلام.
تا حالا به این فکر کردی که بخوای یک روزی دیتاست خودتت را جمع کنی و روی اونها مدل بسازی و ترین‌کنی؟

من یک‌تصمیم‌گرفتم که بیام دقیقا همین کار را انجام بدم!
اره، من دیتاست خودم را دارم که توی هیچ مکانی نمیتونی پیداش کنی !!

خب اصلا قراره چی کار کنم؟ چرا بهتون اینو میگم؟
من دیتاستی که دارم اینه :
در حوزه ی پردازش تصویر است
دیتاست عکس از یک اسکناس ۱۰۰ هزار تومانی هست
سایز دیتاست تقریبا سه هزار تا عکس متفاوت هست !!و ...

و من اینو به شما گفتم، چون قراره این‌پروژه را از فردا با هم جلو ببریم
یعنی هر روز یا هر چند روز که من کد را بنویسم نتیجه را بهتون میگم، راه کار هایی که انجام دادم را میگم و کد را در اختیار شما میزارم، و در آخر قراره یک مقاله درست کنم که اگه همچین دیتاستی داشتی کدوم مدل، کدوم بهینه ساز و تابع ضرر مناسب هست؟ چرا اینا مناسب هست و ...

⚠️زمان پست گذاشتم مشخص نیست ولی صد درصد زود تر از ۳ روز هست یعنی شاید هر روز پست بزارم یا شاید یک روز در میون بزارم ⚠️

ادامه دارد ...

Читать полностью…

Torchino

فعلا انگشتام درد گرفت
تا شب پست بعدی را میزارم اگه:

like=last post 
if like => 10:
sent next post tonight

Читать полностью…
Subscribe to a channel