دوره آموزشی
دوبله زبان فارسی
مهندسی LLM - تسلط به هوش مصنوعی، مدل های زبانی بزرگ و ایجنت ها
✅ سرفصل و جزئیات آموزش
با کمک این دوره در عرض 8 هفته به مهندس LLM تبدیل می شوید. شما 8 اپلیکیشن LLM را می سازید و مستقر می کنید و به Generative AI و مفاهیم کلیدی نظری مسلط می شوید.
آنچه یاد خواهید گرفت
- پروژه 1 - ژنراتور بروشور مبتنی بر هوش مصنوعی را می سازید که وب سایت های شرکت را به طور هوشمند اسکرپ کرده و ناوبری می کند.
- پروژه 2 - ایجاد ایجنت چندوجهی پشتیبانی مشتری برای یک شرکت هواپیمایی با رابط کاربری و فراخوانی تابع
- پروژه 3 - توسعه ابزاری که با استفاده از هر دو مدل متن باز و متن بسته، صورت جلسه و آیتم های کاری را از صدا ایجاد می کند.
- پروژه 4 - ساخت هوش مصنوعی که کد پایتون را به ++C بهینه تبدیل می کند و عملکرد را 60000 برابر افزایش می دهد.
- پروژه 5 - ایجاد knowledge-worker هوش مصنوعی با استفاده از RAG برای تبدیل شدن به یک متخصص در همه امور مربوط به شرکت
- پروژه 6 - Capstone بخش A - قیمت محصول را از توضیحات کوتاه با استفاده از مدل های مرزی پیش بینی می کنید.
- پروژه 7 - Capstone بخش B - مدل متن باز دقیق تیونینگ شده را برای رقابت با مدل مرزی در پیش بینی قیمت اجرا می کنید.
- پروژه 8 - Capstone بخش C - ساخت سیستم چندعاملی مستقل برای همکاری مدل ها برای شناسایی معاملات و اطلاع رسانی به شما درباره معاملات ویژه
- طراحی و توسعه یک راه حل کامل برای مشکلات معین کسب و کار با انتخاب، آموزش و استفاده از LLMs
- تفاوت ها و شباهت های آخرین تکنیک ها برای بهبود عملکرد راه حل LLM شما، مانند RAG، تیونینگ دقیق و گردش کارهای عاملی
- وزن دهی به 10 LLM پیشرو و 10 LLM متن باز و توانایی انتخاب بهترین انتخاب برای یک کار مشخص
پیش نیازهای دوره
- آشنایی با پایتون - این دوره مبانی پایتون را پوشش نمی دهد و درباره پایتون تکمیل شده است.
توضیحات دوره
آنچه یاد خواهید گرفت
- ساخت محصولات پیشرفته Generative AI با استفاده از مدل ها و فریمورک های پیشرفته
- تست با بیش از 20 مدل پیشروی هوش مصنوعی، از جمله مدل های مرزی و مدل های متن باز
- توسعه مهارت در پلتفرم هایی مانند HuggingFace ،LangChain و Gradio
- پیاده سازی تکنیک های پیشرفته مانند RAG (بازیابی نسل افزوده)، تیونینگ دقیق QLoRA و ایجنت ها
- ایجاد اپلیکیشن های واقعی هوش مصنوعی، از جمله:
- دستیار چندوجهی پشتیبانی مشتری که با متن، صدا و تصاویر تعامل دارد.
- knowledge worker هوش مصنوعی که می تواند به هر سوالی در مورد یک شرکت بر اساس درایو مشترک آن پاسخ دهد.
- برنامه نویس هوش مصنوعی که نرم افزار را بهینه می کند و به بهبود عملکرد بیش از 60000 برابر دست می یابد.
- اپلیکیشن تجارت الکترونیک که به طور دقیق قیمت محصولات دیده نشده را پیش بینی می کند.
- انتقال از استنتاج به آموزش، تیونینگ دقیق هر دو مدل مرزی و مدل متن باز
- استقرار محصولات هوش مصنوعی در تولید با رابط های کاربری پالیش شده و قابلیت های پیشرفته
- ارتقای مهارت های مهندسی هوش مصنوعی و LLM خود برای پیشرو بودن در خط مقدم این صنعت
ساختار دوره
هفته اول - مبانی و اولین پروژه ها
- پرداختن به اصول ترنسفرمرها
- تست با شش مدل مرزی پیشرو
- ساخت اولین محصول Gen AI برای کسب و کار خود که وب اسکرپینگ را انجام می دهد، تصمیم ها را اتخاذ می کند و بروشورهای فروش قالب بندی شده ایجاد می کند.
هفته دوم - APIs مرزی و چت بات های خدمات مشتری
- بررسی APIs مرزی و تعامل با سه مدل پیشرو
- ایجاد چت بات خدمات مشتری با رابط کاربری شهودی که می تواند با متن، تصاویر، صدا تعامل داشته باشد و از ابزارها یا ایجنت ها استفاده کند.
هفته سوم - استقبال از مدل های متن باز
- کشف دنیای مدل های متن باز با استفاده از HuggingFace
- مقابله با 10 یوزکیس رایج Gen AI، از ترجمه تا تولید تصویر
- ساخت محصولی برای ایجاد صورت جلسات و آیتم های اقدام از ضبط شده ها
هفته چهارم - انتخاب LLM و تولید کد
- درک تفاوت بین LLMs و نحوه انتخاب بهترین آن ها برای تسک های کسب و کار خود
- استفاده از LLMs برای تولید کد و ساخت محصولی که کد را از پایتون به ++C ترجمه می کند و به بهبود عملکرد بیش از 60000 برابر دست می یابد.
هفته پنجم - بازیابی نسل افزوده (RAG)
- تسلط به RAG برای بهبود دقت راه حل های خود
- کسب تخصص در تعبیه های بردار و بررسی بردارها در دیتا استورهای برداری متن باز محبوب
- ساخت یک راه حل تجاری کامل شبیه به محصولات واقعی موجود در بازار امروز
هفته ششم - انتقال به آموزش
- حرکت از استنتاج به آموزش
- تیونینگ دقیق مدل مرزی برای حل مشکل واقعی کسب و کار
- ساخت مدل تخصصی خود و رقم زدن نقطه عطف مهم در سفر هوش مصنوعی خود
هفته هفتم - تکنیک های پیشرفته آموزش
- بررسی عمیق تکنیک های پیشرفته آموزش مانند تیونینگ دقیق QLoRA
- آموزش یک مدل متن باز تا از مدل های مرزی برای تسک های خاص بهتر عمل کند.
- مقابله با پروژه های چالش برانگیز که مهارت های شما را به سطح بعدی می برد.
هفته هشتم - استقرار و نهایی سازی
- استقرار محصول تجاری خود در تولید با رابط کاربری پالیش شده
- افزایش قابلیت ها با استفاده از ایجنت ها
- تحویل اولین مدل LLM تولید شده، عاملی شده و دقیق تیونینگ شده خود
- جشن گرفتن تسلط خود به عنوان مهندسی هوش مصنوعی و LLM تا برای مرحله جدیدی در حرفه خود آماده شوید.
این دوره برای چه کسانی مناسب است؟
- مهندسان مشتاق هوش مصنوعی و دانشمندان داده که مشتاق ورود به حوزه هوش مصنوعی و LLMs هستند.
- حرفه ای هایی که به دنبال افزایش مهارت و رقابتی ماندن در چشم انداز به سرعت در حال تحول هوش مصنوعی هستند.
- توسعه دهندگانی که به ساخت اپلیکیشن های هوش مصنوعی پیشرفته با تجربه عملی و کاربردی علاقه مند هستند.
مهندسی LLM - تسلط به هوش مصنوعی، مدل های زبانی بزرگ و ایجنت ها
-
باز کردن سرد - پرش مستقیم به مهندسی LLM 00:37
-
راه اندازی Olama برای استقرار محلی LLM در ویندوز و مک 04:14
-
کشف قدرت LLMs محلی - ایجاد معلم خصوصی زبان اسپانیایی با استفاده از Ollama 04:07
-
نقشه راه مهندسی LLM - از مبتدی تا تسلط در 8 هفته 05:45
-
ساخت اپلیکیشن های LLM - چت بات ها، RAG و پروژه های هوش مصنوعی عاملی 01:49
-
از وال استریت تا هوش مصنوعی - مسیر اد دانر برای تبدیل شدن به مهندس LLM 02:07
-
راه اندازی محیط توسعه LLM - ابزارها و بهترین شیوه ها 06:11
-
راهنمای راه اندازی مک - Jupyter Lab و Conda برای پروژه های LLM 06:54
-
راه اندازی آناکوندا برای مهندسی LLM - راهنمای نصب ویندوز 11:37
-
راه اندازی جایگزین پایتون برای پروژه های LLM - راهنمای Virtualenv در مقابل آناکوندا 06:32
-
راه اندازی OpenAI API برای توسعه LLM - کلیدها، قیمت گذاری و بهترین شیوه ها 07:14
-
ایجاد فایل env. برای ذخیره ایمن کلیدهای API 05:00
-
پروژه رضایت فوری - ایجاد خلاصه ساز صفحه وب مبتنی بر هوش مصنوعی 09:31
-
پیاده سازی خلاصه سازی متن با استفاده از GPT-4 OpenAI و Beautiful Soup 13:36
-
جمع بندی - نکات کلیدی و گام های بعدی در مهندسی LLM 02:48
-
تسلط به مهندسی LLM - مهارت ها و ابزارهای کلیدی برای توسعه هوش مصنوعی 06:52
-
درک مدل های مرزی - GPT ،Claude و LLMs متن باز 07:42
-
چگونه از Olama برای استنتاج LLM محلی استفاده کنیم؟ - آموزش پایتون با Jupyter 06:55
-
تسک عملی LLM - مقایسه OpenAI و Ollama برای خلاصه سازی متن 00:36
-
مدل های هوش مصنوعی مرزی - مقایسه GPT-4 ،Claude ،Gemini و LLAMA 07:38
-
مقایسه LLMs پیشرو - نقاط قوت و اپلیکیشن های کسب و کار 01:49
-
بررسی پیش نمایش GPT-4o در مقابل O1 - تفاوت های کلیدی در عملکرد 03:54
-
خلاقیت و کدنویسی - استفاده از ویژگی GPT-4o Canvas 06:31
-
ترازبندی و ایجاد آرتیفکت Claude 3.5 - بررسی عمیق 05:26
-
مقایسه مدل هوش مصنوعی - Gemini در مقابل Cohere برای تسک های عجیب و غریب و تحلیلی 04:46
-
ارزیابی هوش مصنوعی متا و Perplexity - تفاوت های ظریف خروجی های مدل 04:36
-
چالش رهبری LLM - ارزیابی مدل های هوش مصنوعی از طریق پرامپت های خلاقانه 05:41
-
افشای برنده رهبری - چالش سرگرم کننده LLM 07:50
-
بررسی سفر هوش مصنوعی - از مدل های اولیه تا ترنسفرمرها 03:02
-
درک پارامترهای LLM - از GPT-1 تا مدل های دارای تریلیون وزن 05:01
-
توضیح توکن سازی GPT - مدل های زبانی بزرگ چگونه ورودی متن را پردازش می کنند؟ 10:41
-
پنجره های کانتکس چگونه بر مدل های زبانی هوش مصنوعی تأثیر می گذارد؟ - توضیح محدودیت های توکن 03:13
-
ناوبری هزینه های مدل هوش مصنوعی - قیمت گذاری API در مقابل سابسکریپشن های رابط چت 02:48
-
مقایسه پنجره های کانتکس LLM - بررسی GPT-4 در مقابل Claude در مقابل Gemini 1.5 Flash 05:22
-
جمع بندی - نکات کلیدی و بینش های عملی 02:40
-
ساخت بروشورهای بازاریابی مبتنی بر هوش مصنوعی با OpenAI API و پایتون 03:08
-
آموزش JupyterLab - وب اسکرپینگ برای بروشورهای شرکت مبتنی بر هوش مصنوعی 06:20
-
خروجی های ساختار یافته در LLMs - بهینه سازی پاسخ های جی سان برای پروژه های هوش مصنوعی 09:20
-
ایجاد و فرمت بندی پاسخ ها برای محتوای بروشور 08:39
-
تنظیمات نهایی - بهینه سازی نشانه گذاری و استریمینگ در JupyterLab 09:50
-
تسلط به پرامپت نویسی چند شات - افزایش قابلیت اطمینان LLM در پروژه های هوش مصنوعی 04:22
-
تکلیف - توسعه معلم خصوصی سفارشی مبتنی بر LLM خود 04:07
-
جمع بندی هفته 1 - دستاوردها و گام های بعدی 02:56
-
تسلط به چندین AI APIs - بررسی OpenAI ،Claude و Gemini برای مهندسان LLM 04:50
-
استریمینگ پاسخ های هوش مصنوعی - پیاده سازی خروجی LLM به صورت بلادرنگ در پایتون 16:14
-
چگونه با استفاده از OpenAI و Claude APIs مکالمات هوش مصنوعی متخاصم را ایجاد کنیم؟ 11:18
-
ابزارهای هوش مصنوعی - بررسی ترنسفرمرها و LLMs مرزی برای توسعه دهندگان 01:20
-
ایجاد رابط های هوش مصنوعی با Gradio - نمونه سازی اولیه سریع برای مهندسان LLM 03:03
-
آموزش Gradio - ایجاد رابط های هوش مصنوعی تعاملی برای مدل های OpenAI GPT 11:41
-
پیاده سازی استریمینگ پاسخ ها با GPT و Claude در رابط کاربری Gradio 05:58
-
ساخت رابط چت هوش مصنوعی چند مدلی با Gradio - GPT در مقابل Claude 08:22
-
ایجاد رابط های هوش مصنوعی پیشرفته - از OpenAI API تا رابط های چت با Gradio 01:23
-
ساخت چت بات های هوش مصنوعی - تسلط به Gradio برای دستیاران پشتیبانی مشتری 04:43
-
ساخت چت بات مکالمه ای هوش مصنوعی با OpenAI و Gradio - گام به گام 12:36
-
تقویت چت بات ها با پرامپت نویسی چند شات و غنی سازی کانتکس 10:12
-
تسلط به ابزارهای هوش مصنوعی - توانمندسازی LLMs برای اجرای کد روی ماشین خود 02:35
-
استفاده از ابزارهای هوش مصنوعی با LLMs - افزایش قابلیت های مدل زبانی بزرگ 07:27
-
ساخت دستیار خط هوایی هوش مصنوعی - پیاده سازی ابزارها با OpenAI GPT-4 06:10
-
چگونه LLMs را با ابزارهای سفارشی تجهیز کنیم؟ - آموزش فراخوانی تابع OpenAI 11:35
-
تسلط به ابزارهای هوش مصنوعی - ساخت دستیاران پیشرفته مجهز به LLM با APIs 01:13
-
دستیاران هوش مصنوعی چندوجهی - یکپارچه سازی تولید تصویر و صدا 05:01
-
هوش مصنوعی چندوجهی - یکپارچه سازی تولید تصویر DALL-E 3 در JupyterLab 08:27
-
ساخت ایجنت هوش مصنوعی چندوجهی - یکپارچه سازی ابزارهای صوتی و تصویری 06:53
-
چگونه یک دستیار هوش مصنوعی چندوجهی بسازیم؟ - یکپارچه سازی ابزارها و ایجنت ها 04:32
-
آموزش Hugging Face - بررسی مدل ها و مجموعه داده های هوش مصنوعی متن باز 10:38
-
بررسی HuggingFace Hub - مدل ها، مجموعه داده ها و فضاها برای توسعه دهندگان هوش مصنوعی 12:39
-
آشنایی با Google Colab - بررسی Cloud Jupyter Notebooks برای یادگیری ماشین 03:16
-
یکپارچه سازی Hugging Face با Google Colab - بررسی Secrets و راه اندازی کلیدهای API 10:35
-
تسلط به Google Colab - مدل های هوش مصنوعی متن باز با Hugging Face 01:58
-
ترنسفرمرهای Hugging Face - استفاده از پایپ لاین ها برای تسک های هوش مصنوعی در پایتون 04:07
-
پایپ لاین ها در Hugging Face - ساده سازی تسک های هوش مصنوعی با کتابخانه ترنسفرمرها 13:11
-
تسلط به پایپ لاین ها در Hugging Face - استنتاج کارآمد هوش مصنوعی برای تسک های ML 01:41
-
بررسی توکنایزرها در هوش مصنوعی متن باز - Llama ،Phi-2 ،Qwen و Starcoder 05:12
-
تکنیک های توکن سازی در هوش مصنوعی - استفاده از AutoTokenizer با مدل LLAMA 3.1 11:00
-
مقایسه توکنایزرها - Llama ،PHI-3 و QWEN2 برای مدل های هوش مصنوعی متن باز 11:35
-
توکنایزرهای Hugging Face - آماده سازی برای تولید متن پیشرفته با هوش مصنوعی 00:51
-
کلاس مدل Hugging Face - استنتاج در حال اجرا روی مدل های هوش مصنوعی متن باز 03:38
-
ترنسفرمرهای Hugging Face - بارگذاری و کمی سازی LLMs با بیت ها و بایت ها 14:51
-
ترنسفرمرهای Hugging Face - ایجاد جوک ها با مدل های هوش مصنوعی متن باز 10:44
-
تسلط به ترنسفرمرهای Hugging Face - مدل ها، پایپ لاین ها و توکنایزرها 01:31
-
ترکیب مدل های مرزی و متن باز برای خلاصه سازی صدا به متن 03:24
-
استفاده از Hugging Face و OpenAI برای تولید صورت جلسه با هوش مصنوعی 12:56
-
ساخت ژنراتور داده تست مصنوعی - مدل هوش مصنوعی متن باز برای کسب و کار 04:49
-
چگونه LLM مناسب را انتخاب کنیم؟ - مقایسه مدل های متن باز و متن بسته 12:13
-
قانون مقیاس بندی Chinchilla - بهینه سازی پارامترهای LLM و اندازه داده آموزش 05:44
-
محدودیت های بنچ مارک های LLM - بیش برازش و نشت داده آموزش 07:26
-
ارزیابی مدل های زبانی بزرگ - رونمایی از بنچ مارک های سطح بعدی 06:29
-
OpenLLM Leaderboard در HuggingFace - مقایسه مدل های زبانی متن باز 09:33
-
تسلط به LLM Leaderboards - مقایسه مدل های متن باز و متن بسته 01:48
-
مقایسه LLMs - شش Leaderboards برتر برای ارزیابی مدل های زبانی 05:45
-
LLM Leaderboards تخصصی - یافتن بهترین مدل برای یوزکیس خود 08:05
-
LLAMA در مقابل GPT-4 - بنچ مارکینگ مدل های زبانی بزرگ برای تولید کد 13:05
-
مدل های زبانی رتبه بندی شده توسط انسان - آشنایی با عرصه چت بات LM Sys 07:21
-
کاربردهای تجاری مدل های زبانی بزرگ - از قانون تا آموزش 05:43
-
مقایسه LLMs مرزی و متن باز برای پروژه های تبدیل کد 03:00
-
استفاده از مدل های مرزی برای تولید کد با کارایی بالا در ++C 02:37
-
مقایسه LLMs برتر برای تولید کد - GPT-4 در مقابل Claude 3.5 Sonnet 08:24
-
بهینه سازی کد پایتون با مدل های زبانی بزرگ - GPT-4 در مقابل Claude 3.5 07:50
-
مشکلات تولید کد - زمانی که مدل های زبانی بزرگ خطا تولید می کنند 05:52
-
Blazing تولید کدهای سریع - چگونه می توان 13000 برابر Claude را بهتر از پایتون کرد؟ 04:32
-
ساخت رابط کاربری Gradio برای تولید کد با مدل های زبانی بزرگ 04:05
-
بهینه سازی تولید کد ++C - مقایسه عملکرد GPT و Claude 07:22
-
مقایسه GPT-4 و Claude برای تولید کد - بنچ مارک های عملکرد 04:44
-
LLMs متن باز برای تولید کد - بررسی اندپوینت های Hugging Face 01:59
-
چگونه از اندپوینت های استنتاج HuggingFace برای مدل های تولید کد استفاده کنیم؟ 08:20
-
یکپارچه سازی مدل های متن باز با LLMs مرزی برای تولید کد 07:01
-
مقایسه تولید کد - GPT-4 و Claude و CodeQuen LLMs 10:33
-
تسلط به تولید کد با LLMs - تکنیک ها و انتخاب مدل 01:48
-
ارزیابی عملکرد LLM - متریک های مدل محور در مقابل متریک های کسب و کار محور 09:11
-
تسلط به تولید کد LLM - چالش های پیشرفته برای توسعه دهندگان پایتون 07:51
-
اصول RAG - استفاده از داده خارجی برای بهبود پاسخ های LLM 05:03
-
ساخت سیستم DIY RAG - پیاده سازی نسل بازیابی افزوده (RAG) 13:09
-
درک تعبیه های بردار - کلید بازیابی RAG و LLM 09:30
-
رونمایی از LangChain - ساده سازی پیاده سازی RAG برای اپلیکیشن های LLM 03:45
-
آموزش تقسیم کننده متن LangChain - بهینه سازی تکه ها برای سیستم های RAG 10:59
-
آماده سازی برای پایگاه داده های برداری - تعبیه OpenAI و Chroma در RAG 01:14
-
تسلط به تعبیه های بردار - OpenAI و Chroma برای مهندسی LLM 04:14
-
مصورسازی تعبیه ها - بررسی فضای چندبعدی با t-SNE 17:41
-
ساخت پایپ لاین های RAG - از بردارها تا تعبیه ها با LangChain 02:51
-
پیاده سازی پایپ لاین RAG - بررسی LLM ،Retriever و حافظه در LangChain 04:37
-
تسلط به بازیابی نسل افزوده (RAG) - یکپارچه سازی عملی LLM 10:38
-
تسلط به پایپ لاین RAG - ساخت سیستم های RAG کارآمد 01:57
-
بهینه سازی سیستم های RAG - عیب یابی و فیکس کردن مشکلات رایج 01:02
-
سوئیچینگ فروشگاه های برداری - FAISS در مقابل Chroma در پایپ لاین های LangChain RAG 08:40
-
رمزگشایی LangChain - پشت صحنه ساخت پایپ لاین RAG 03:15
-
اشکال زدایی RAG - بهینه سازی بازیابی کانتکس در LangChain 10:28
-
ساخت Knowledge Worker هوش مصنوعی شخصی خود - RAG برای افزایش بهره وری 07:07
-
تیونینگ دقیق مدل های زبانی بزرگ - از استنتاج تا آموزش 10:17
-
یافتن و ساخت مجموعه داده ها برای تیونینگ دقیق LLM - منابع و تکنیک ها 05:59
-
تکنیک های Curation داده برای تیونینگ دقیق LLMs در توضیحات محصول 12:35
-
بهینه سازی داده آموزش - تکنیک های Scrubbing برای تیونینگ دقیق LLM 15:46
-
ارزیابی عملکرد LLM - متریک های مدل محور در مقابل متریک های کسب و کار 08:31
-
پایپ لاین استقرار LLM - از مشکل کسب و کار تا راه حل تولید 07:42
-
پرامپت نویسی، RAG و تیونینگ دقیق - زمان استفاده از هر رویکرد 09:55
-
تولید LLMs - بهترین شیوه ها برای استقرار مدل های هوش مصنوعی در مقیاس بالا 01:49
-
بهینه سازی مجموعه داده های بزرگ برای آموزش مدل - استراتژی های Curation داده 09:50
-
چگونه یک مجموعه داده متوازن برای آموزش LLM ایجاد کنیم؟ - تکنیک های Curation 11:27
-
نهایی سازی Curation مجموعه داده - تحلیل همبستگی های توضیح-قیمت 12:03
-
چگونه یک مجموعه داده با کیفیت بالا را در HuggingFace ایجاد و آپلود کنیم؟ 01:39
-
مهندسی ویژگی و Bag of Words - ایجاد بیس لاین های ML برای NLP 07:10
-
مدل های بیس لاین در ML - پیاده سازی توابع پیش بینی ساده 17:18
-
تکنیک های مهندسی ویژگی برای مدل های پیش بینی قیمت محصولات آمازون 09:08
-
بهینه سازی عملکرد LLM - استراتژی های پیشرفته مهندسی ویژگی 07:21
-
رگرسیون خطی برای تیونینگ دقیق LLM - مقایسه مدل بیس لاین 05:43
-
Bag of Words در NLP - پیاده سازی Count Vectorizer برای تحلیل متن در ML 07:48
-
پشتیبانی از رگرسیون برداری در مقابل جنگل تصادفی - Face-Off یادگیری ماشین 06:03
-
مقایسه مدل های سنتی ML - از تصادفی تا جنگل تصادفی 04:13
-
ارزیابی مدل های مرزی - مقایسه عملکرد با فریمورک های بیس لاین 01:46
-
انسان در مقابل هوش مصنوعی - ارزیابی عملکرد پیش بینی قیمت در مدل های مرزی 11:17
-
GPT-4o Mini - ارزیابی مدل هوش مصنوعی مرزی برای تسک های برآورد قیمت 10:59
-
مقایسه GPT-4 و Claude - عملکرد مدل در تسک های پیش بینی قیمت 09:00
-
قابلیت های هوش مصنوعی مرزی - عملکرد بهتر LLMs نسبت به مدل های سنتی ML 03:57
-
تیونینگ دقیق LLMs با OpenAI - آماده سازی، آموزش و ارزیابی داده 06:06
-
چگونه فایل های JSONL را برای تیونینگ دقیق مدل های زبانی بزرگ (LLM) تهیه کنیم؟ 11:06
-
راهنمای گام به گام - راه اندازی تیونینگ دقیق Jobs در GPT با OpenAI API 08:18
-
تیونینگ دقیق LLMs - ردیابی از دست دادن و پیشرفت آموزش با وزن ها و سوگیری ها 04:21
-
ارزیابی متریک های LLMs دقیق تیونینگ شده - تحلیل آموزش و ضرر اعتبارسنجی 07:18
-
چالش های تیونینگ دقیق LLM - زمانی که عملکرد مدل بهبود نمی یابد 01:52
-
تیونینگ دقیق LLMs مرزی - چالش ها و بهترین شیوه ها برای بهینه سازی 11:07
-
تسلط به تیونینگ دقیق کارآمد پارامتر - LoRa ،QLoRA و هایپرپارامترها 03:55
-
آشنایی با آداپتورهای LoRA - توضیح سازگاری با رنکینگ پایین 07:19
-
QLoRA - کمی سازی برای تیونینگ دقیق کارآمد مدل های زبانی بزرگ 05:16
-
بهینه سازی LLMs - ماژول های R، آلفا و هدف در تیونینگ دقیق QLoRA 05:14
-
تیونینگ دقیق کارآمد پارامتر - PEFT برای LLMs با Hugging Face 08:40
-
چگونه LLMs را کمی سازی کنیم؟ - کاهش اندازه مدل با دقت 8 بیتی 03:35
-
کمی سازی دوگانه و NF4 - تکنیک های پیشرفته برای بهینه سازی LLM چهار بیتی 03:41
-
بررسی مدل های PEFT - نقش آداپتورهای LoRA در تیونینگ دقیق LLM 07:10
-
خلاصه اندازه مدل - مقایسه مدل های کمی شده و دقیق تیونینگ شده 01:52
-
چگونه بهترین مدل اولیه را برای تیونینگ دقیق مدل های زبانی بزرگ انتخاب کنیم؟ 06:24
-
انتخاب بهترین مدل اولیه - تحلیل LLM Leaderboard در HuggingFace 06:49
-
بررسی توکنایزرها - مقایسه LLAMA و QWEN و سایر مدل های LLM 05:01
-
بهینه سازی عملکرد LLM - بارگذاری و توکن سازی مدل اولیه Llama 3.1 09:20
-
تأثیر کمی سازی بر LLMs - تحلیل متریک های عملکرد و خطاها 05:42
-
مقایسه LLMs - بررسی GPT-4 در مقابل LLAMA 3.1 در تیونینگ کارآمد پارامتر 03:17
-
هایپرپارامترهای QLoRA - تسلط به تیونینگ دقیق برای مدل های زبانی بزرگ 08:57
-
درک اپوک ها و اندازه های بچ در آموزش مدل 04:27
-
توضیح نرخ یادگیری، انباشت گرادیان و Optimizers 05:24
-
راه اندازی فرآیند آموزش برای تیونینگ دقیق 17:22
-
پیکربندی SFTTrainer برای تیونینگ دقیق LoRA کمی شده چهار بیتی LLMs 09:42
-
تیونینگ دقیق LLM - راه اندازی فرآیند آموزش با QLoRA 03:41
-
نظارت و مدیریت آموزش با وزن ها و سوگیری ها 02:08
-
پایین نگه داشتن هزینه های آموزش - استراتژی های تیونینگ دقیق کارآمد 01:50
-
تیونینگ دقیق کارآمد - استفاده از مجموعه داده های کوچکتر برای آموزش QLoRA 06:00
-
مصورسازی پیشرفت تیونینگ دقیق LLM با نمودارهای وزن ها و سوگیری ها 14:52
-
ابزارهای پیشرفته وزن ها و سوگیری ها و صرفه جویی در مدل در Hugging Face 11:55
-
تیونینگ دقیق End-to-End LLM - از تعریف مشکل تا مدل آموزش دیده 02:04
-
چهار مرحله در آموزش LLM - از پاس به جلو تا بهینه سازی 05:38
-
فرآیند آموزش QLoRA - پاس به جلو، پاس به عقب و محاسبه ضرر 06:52
-
درک Softmax و افت آنتروپی متقابل در آموزش مدل 07:12
-
نظارت بر تیونینگ دقیق - وزن ها و سوگیری ها برای تحلیل آموزش LLM 05:31
-
بازبینی مجدد Podium - مقایسه متریک های عملکرد مدل 03:08
-
ارزیابی LLM اختصاصی و دقیق تیونینگ شده ما در برابر متریک های کسب و کار 12:58
-
مصورسازی نتایج - آیا ما GPT-4 را شکست دادیم؟ 02:49
-
تیونینگ هایپرپارامتر برای LLMs - بهبود دقت مدل با PEFT 04:34
-
از تیونینگ دقیق تا سیستم های چندعاملی - مهندسی LLM سطح بعدی 03:21
-
ساخت معماری هوش مصنوعی چندعاملی برای سیستم های یافتن معامله خودکار 08:07
-
رونمایی از مودال - استقرار مدل های بدون سرور در ابر 04:21
-
LLAMA روی ابر - اجرای موثر مدل های بزرگ 15:39
-
ساخت API قیمت گذاری هوش مصنوعی بدون سرور - راهنمای گام به گام با مودال 18:39
-
مدل های تولید چندگانه پیش رو - آماده سازی برای راه حل های پیشرفته RAG 02:48
-
پیاده سازی گردش کارهای عاملی - مدل های مرزی و فروشگاه های برداری در RAG 05:20
-
ساخت دیتا استور برداری عظیم کروما برای پایپ لاین های پیشرفته RAG 09:23
-
مصورسازی فضاهای برداری - تکنیک های پیشرفته RAG برای اکتشاف داده 04:38
-
تکنیک های مصورسازی سه بعدی برای RAG - بررسی تعبیه های بردار 02:14
-
یافتن محصولات مشابه - ساخت پایپ لاین RAG بدون LangChain 07:38
-
پیاده سازی پایپ لاین RAG - تقویت LLMs با تکنیک های بازیابی 07:07
-
رگرسیون جنگل تصادفی - استفاده از ترنسفرمرها و ML برای پیش بینی قیمت 07:06
-
ساخت مدل گروهی - ترکیب LLM ،RAG و جنگل تصادفی 09:41
-
جمع بندی - نهایی سازی سیستم های چندعاملی و یکپارچه سازی RAG 01:54
-
تقویت ایجنت های هوش مصنوعی با خروجی های ساختار یافته - راهنمای Pydantic و BaseModel 04:12
-
اسکرپ کردن فیدهای RSS - ساخت سیستم انتخاب معامله مبتنی بر هوش مصنوعی 11:48
-
خروجی های ساختار یافته در هوش مصنوعی - پیاده سازی GPT-4 برای انتخاب معامله دقیق 10:27
-
بهینه سازی گردش کارهای هوش مصنوعی - اصلاح پرامپت ها برای تشخیص دقیق قیمت 02:41
-
تسلط به ایجنت های مستقل - طراحی گردش کارهای هوش مصنوعی چندعاملی 01:44
-
ویژگی بارز هوش مصنوعی عاملی - استقلال، برنامه ریزی و حافظه 10:50
-
ساخت سیستم هوش مصنوعی عاملی - یکپارچه سازی Pushover برای نوتیفیکیشن ها 09:08
-
پیاده سازی هوش مصنوعی عاملی - ایجاد ایجنت برنامه ریزی برای گردش کارهای خودکار 07:44
-
ساخت فریمورک ایجنت - اتصال LLMs و کد پایتون 14:14
-
تکمیل گردش کارهای عاملی - مقیاس بندی اپلیکیشن های کسب و کار 04:49
-
ایجنت های مستقل هوش مصنوعی - ساخت سیستم های هوشمند بدون دخالت انسان 02:51
-
ایجنت های هوش مصنوعی با Gradio - تکنیک های پیشرفته رابط کاربری برای سیستم های خودمختار 10:00
-
نهایی سازی رابط کاربری Gradio برای راه حل هوش مصنوعی عاملی ما 07:30
-
بهبود رابط کاربری ایجنت هوش مصنوعی - یکپارچه سازی Gradio برای مصورسازی لاگ بلادرنگ 04:17
-
تحلیل نتایج - نظارت بر عملکرد فریمورک ایجنت 02:16
-
گذشته نگر پروژه هوش مصنوعی - سفر 8 هفته ای برای تبدیل شدن به مهندس LLM 06:01
مشخصات آموزش
مهندسی LLM - تسلط به هوش مصنوعی، مدل های زبانی بزرگ و ایجنت ها
- تاریخ به روز رسانی: 1404/06/14
- سطح دوره:همه سطوح
- تعداد درس:225
- مدت زمان :25:16:38
- حجم :20.87GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy