دوره آموزشی
دوبله زبان فارسی
توسعه مدلهای هوش مصنوعی با ترکیب متخصصان (MOE): اصول طراحی و کاربردهای عملی
✅ سرفصل و جزئیات آموزش
ترکیب متخصصان (MoE) یک معماری پیشرفته شبکه عصبی است که با هدایت ورودیها از طریق یک زیرمجموعه کوچک از زیرشبکههای متخصص، به مقیاسپذیری مدلهای هوشمند کمک میکند. در این دوره، مدرس Vaibhava Lakshmi Ravideshik به بررسی عملکرد درونی MoE، از اجزای اصلی گرفته تا استراتژیهای پیشرفته مسیریابی مانند top-k gating میپردازد.
این دوره برای پیادهسازی یک لایه سادهشده MoE، درک نظری را با کدنویسی عملی با استفاده از PyTorch متعادل میکند. در طول مسیر، شما همچنین فرصت بررسی کاربردهای واقعی MoE در مدلهای پیشرفته مانند GPT‑4 و Mixtral را خواهید داشت.
توسعه مدلهای هوش مصنوعی با ترکیب متخصصان (MOE): اصول طراحی و کاربردهای عملی
-
مقیاسپذیری مدلهای هوش مصنوعی با ترکیب متخصصان (MoE) 0:01:08
-
MoE چیست؟ 0:05:13
-
چرا MoE؟ 0:04:48
-
چالشهای MoE 0:05:30
-
نکات نهایی 0:01:29
-
مقدمه بر معماری MoE 0:01:12
-
اجزای MoE 0:03:12
-
مکانیزمهای Gating، بخش 1 0:06:01
-
مکانیزمهای Gating، بخش 2 0:03:28
-
انواع معماریهای MoE 0:05:16
-
سبک سنگین کردن های مسیریابی، بخش 1 0:05:31
-
سبک سنگین کردن های مسیریابی، بخش 2 0:04:59
-
فاین تیون کردن MoEs 0:05:02
-
تیون کردن دستورالعمل MoE 0:04:22
-
نکات نهایی درباره معماری MoE 0:01:23
-
پیادهسازی پایه MoE، بخش 1 0:03:26
-
پیادهسازی پایه MoE، بخش 2 0:06:50
-
معرفی تعادل بار 0:03:24
-
MoE سلسله مراتبی: عملی 0:05:08
-
مقدمهای بر کاربردهای MoE 0:01:22
-
Multimodal MoEs 0:02:45
-
UniMoE 0:04:39
-
Google GateM2Former 0:04:42
-
Federated MoE 0:04:29
-
FedMoE 0:05:21
-
FedMoE-DA 0:05:32
-
Adaptive MoEs 0:01:48
-
Adap-MoE 0:03:03
-
SwiftMoE 0:02:51
-
گامهای بعدی در یادگیری MoE 0:01:57
مشخصات آموزش
توسعه مدلهای هوش مصنوعی با ترکیب متخصصان (MOE): اصول طراحی و کاربردهای عملی
- تاریخ به روز رسانی: 1404/09/07
- سطح دوره:متوسط
- تعداد درس:30
- مدت زمان :1:55:51
- حجم :232.0MB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy