تیونینگ دقیق پیشرفته Generative AI برای LLMs
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- کسب مهارتهای پرطرفدار مهندسی gen AI در تیونینگ دقیق LLMs که کارفرمایان در حال حاضر به دنبال آن هستند، تنها در عرض 2 هفته
- تیونینگ دستورالعمل و مدلسازی پاداش با Hugging Face، همچنین LLMs به عنوان سیاستها و RLHF
- بهینهسازی مستقیم ترجیحات (DPO) با تابع پارتیشن و Hugging Face و نحوه ایجاد یک راهحل بهینه برای مسئله DPO
- چگونه از بهینهسازی سیاست مجاور (PPO) با Hugging Face برای ایجاد تابع امتیازدهی و انجام توکنسازی مجموعه داده استفاده کنیم؟
توضیحات دوره
تیونینگ دقیق مدل زبانی بزرگ (LLM) برای تطبیق با نیازهای خاص کسب و کار، افزایش دقت و بهینهسازی عملکرد آن ضروری است. این امر به نوبه خود به کسب و کارها بینشهای دقیق و کاربردی ارائه میدهد که موجب افزایش کارایی و نوآوری میشود. این دوره مهارتهای ارزشمندی را در زمینه تیونینگ دقیق به مهندسان مشتاق gen AI ارائه میدهد که کارفرمایان به دنبال آن هستند.
در طول دوره، شما رویکردهای مختلفی را برای تیونینگ دقیق LLMs علّی با بازخورد انسانی و ترجیحات مستقیم بررسی خواهید کرد. شما LLMs به عنوان سیاستها برای توزیعهای احتمال برای تولید پاسخها و مفاهیم تیونینگ دستورالعمل با Hugging Face را بررسی میکنید. شما یاد میگیرید که چگونه با استفاده از بازخورد انسانی و مدلسازی پاداش با Hugging Face پاداشها را محاسبه کنید. علاوه بر این، یاد میگیرید که چگونه یادگیری تقویتی از بازخورد انسانی (RLHF)، بهینهسازی سیاست مجاور (PPO) و PPO Trainer و راهحلهای بهینه برای مسائل بهینهسازی ترجیحات مستقیم (DPO) را بررسی کنید.
در طول یادگیری، تجربه عملی ارزشمندی در لابراتوارهای آنلاین خواهید داشت که در آن روی مدلسازی پاداش، PPO و DPO کار خواهید کرد.
اگر به دنبال افزودن قابلیتهای مورد تقاضا در تیونینگ دقیق LLMs به رزومه خود هستید، امروز در دوره شرکت کرده و مهارتهای آماده به کار را که کارفرمایان به دنبال آن هستند، تنها در دو هفته بسازید.
تیونینگ دقیق پیشرفته Generative AI برای LLMs
-
مقدمه دوره 3:08
-
مبانی تیونینگ دستورالعمل 6:31
-
تیونینگ دستورالعمل با Hugging Face 7:23
-
مدلسازی پاداش - ارزیابی پاسخ 4:34
-
آموزش مدل پاداش 6:41
-
مدلسازی پاداش با Hugging Face 7:44
-
بررسی دوره None
-
بررسی تخصصی None
-
بهترین شیوهها برای تیونینگ دستورالعمل مدلهای زبانی بزرگ None
-
خلاصه و نکات کلیدی None
-
مدلهای زبانی بزرگ (LLMs) به عنوان توزیعها 7:15
-
از توزیعها به سیاستها 3:53
-
یادگیری تقویتی از بازخورد انسانی (RLHF) 7:32
-
بهینهسازی سیاست مجاور (PPO) 5:05
-
PPO با Hugging Face 3:45
-
PPO Trainer 5:43
-
DPO - تابع پارتیشن 5:41
-
DPO - راهحل بهینه 7:59
-
از سیاست بهینه تا DPO 6:28
-
DPO با Hugging Face 5:10
-
خلاصه و نکات کلیدی None
-
خلاصه و نکات کلیدی None
-
نتیجهگیری دوره None
-
تبریک و گامهای بعدی None
-
تشکر از تیم دوره None
مشخصات آموزش
تیونینگ دقیق پیشرفته Generative AI برای LLMs
- تاریخ به روز رسانی: 1404/06/14
- سطح دوره:متوسط
- تعداد درس:25
- مدت زمان :01:34:32
- حجم :386.0MB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy