هوش مصنوعی بدون اینترنت! 🚫 آموزش اجرای مدل‌های زبانی روی کامپیوتر

هوش مصنوعی بدون اینترنت! 🚫 آموزش اجرای مدل‌های زبانی روی کامپیوتر15:37

اطلاعات دانلود و جزئیات ویدیوی هوش مصنوعی بدون اینترنت! 🚫 آموزش اجرای مدل‌های زبانی روی کامپیوتر

آپلود کننده:

Startup show

تاریخ انتشار:

۱۴۰۴/۱۱/۱۲

بازدیدها:

1.3K

توضیحات:

در این ویدیو کامل‌ترین راهنمای سخت‌افزار برای اجرای هوش مصنوعی به صورت آفلاین (Local LLM) را بررسی می‌کنیم. اگر نگران قطعی اینترنت هستید یا می‌خواهید مدل‌های زبانی قدرتمند مثل DeepSeek یا Llama را روی کامپیوتر خودتان اجرا کنید، این ویدیو مخصوص شماست. من پوریا دیانتی هستم. ما بررسی می‌کنیم که هر مدل زبانی بر اساس تعداد پارامترها (7B, 13B, 70B) به چه مقدار رم (RAM)، کارت گرافیک (VRAM) و سی‌پی‌یو نیاز دارد. همچنین مفاهیم مهمی مثل کانتکست (Context Window) و فشرده‌سازی مدل‌ها (Quantization) را توضیح می‌دهم تا بتوانید با سیستم‌های معمولی‌تر هم از هوش مصنوعی استفاده کنید. 00:00 مقدمه: هوش مصنوعی بدون اینترنت؟ 00:40 پارامتر در مدل زبانی چیست؟ (میلیارد پارامتر) 02:40 تاثیر کانتکست (Context) بر سخت‌افزار 03:28 بررسی جزوه راهنمای سخت‌افزار و GPU 03:45 سیستم مورد نیاز برای مدل‌های سبک (2 تا 4 میلیارد) 04:53 سیستم مورد نیاز برای مدل‌های متوسط (8 تا 12 میلیارد) 06:30 سیستم لازم برای مدل‌های سنگین و DeepSeek (14 تا 32 میلیارد) 07:45 مدل‌های غول‌پیکر (70 میلیارد به بالا) و کارت گرافیک‌های حرفه‌ای 09:10 نکته مهم درباره طول مکالمه و مصرف رم 10:25 کوانتایزیشن (Quantization) چیست؟ (Q4, Q8) 12:15 آموزش کار با نرم‌افزار LM Studio و اجرای مدل‌ها 14:10 ستاپ چند کارت گرافیک و تفاوت لپ‌تاپ با PC 15:30 جمع‌بندی نهایی