دوره آموزشی
آموزش های یودمی
دوبله زبان فارسی

مهندسی LLM - تسلط به هوش مصنوعی، مدل‌ های زبانی بزرگ و ایجنت ها

مهندسی LLM - تسلط به هوش مصنوعی، مدل‌ های زبانی بزرگ و ایجنت ها

✅ سرفصل و جزئیات آموزش

با کمک این دوره در عرض 8 هفته به مهندس LLM تبدیل می شوید. شما 8 اپلیکیشن LLM را می سازید و مستقر می کنید و به Generative AI و مفاهیم کلیدی نظری مسلط می شوید.

آنچه یاد خواهید گرفت

  • پروژه 1 - ژنراتور بروشور مبتنی بر هوش مصنوعی را می سازید که وب سایت های شرکت را به طور هوشمند اسکرپ کرده و ناوبری می کند.
  • پروژه 2 - ایجاد ایجنت چندوجهی پشتیبانی مشتری برای یک شرکت هواپیمایی با رابط کاربری و فراخوانی تابع
  • پروژه 3 - توسعه ابزاری که با استفاده از هر دو مدل متن باز و متن بسته، صورت جلسه و آیتم های کاری را از صدا ایجاد می کند.
  • پروژه 4 - ساخت هوش مصنوعی که کد پایتون را به ++C بهینه تبدیل می کند و عملکرد را 60000 برابر افزایش می دهد.
  • پروژه 5 - ایجاد knowledge-worker هوش مصنوعی با استفاده از RAG برای تبدیل شدن به یک متخصص در همه امور مربوط به شرکت
  • پروژه 6 - Capstone بخش A - قیمت محصول را از توضیحات کوتاه با استفاده از مدل های مرزی پیش بینی می کنید.
  • پروژه 7 - Capstone بخش B - مدل متن باز دقیق تیونینگ شده را برای رقابت با مدل مرزی در پیش بینی قیمت اجرا می کنید.
  • پروژه 8 - Capstone بخش C - ساخت سیستم چندعاملی مستقل برای همکاری مدل ها برای شناسایی معاملات و اطلاع رسانی به شما درباره معاملات ویژه
  • طراحی و توسعه یک راه حل کامل برای مشکلات معین کسب و کار با انتخاب، آموزش و استفاده از LLMs
  • تفاوت ها و شباهت های آخرین تکنیک ها برای بهبود عملکرد راه حل LLM شما، مانند RAG، تیونینگ دقیق و گردش کارهای عاملی
  • وزن دهی به 10 LLM پیشرو و 10 LLM متن باز و توانایی انتخاب بهترین انتخاب برای یک کار مشخص

پیش نیازهای دوره

  • آشنایی با پایتون - این دوره مبانی پایتون را پوشش نمی دهد و درباره پایتون تکمیل شده است.

توضیحات دوره

آنچه یاد خواهید گرفت

  • ساخت محصولات پیشرفته Generative AI با استفاده از مدل ها و فریمورک های پیشرفته
  • تست با بیش از 20 مدل پیشروی هوش مصنوعی، از جمله مدل های مرزی و مدل های متن باز
  • توسعه مهارت در پلتفرم هایی مانند HuggingFace ،LangChain و Gradio
  • پیاده سازی تکنیک های پیشرفته مانند RAG (بازیابی نسل افزوده)، تیونینگ دقیق QLoRA و ایجنت ها
  • ایجاد اپلیکیشن های واقعی هوش مصنوعی، از جمله:
    • دستیار چندوجهی پشتیبانی مشتری که با متن، صدا و تصاویر تعامل دارد.
    • knowledge worker هوش مصنوعی که می تواند به هر سوالی در مورد یک شرکت بر اساس درایو مشترک آن پاسخ دهد.
    • برنامه نویس هوش مصنوعی که نرم افزار را بهینه می کند و به بهبود عملکرد بیش از 60000 برابر دست می یابد.
    • اپلیکیشن تجارت الکترونیک که به طور دقیق قیمت محصولات دیده نشده را پیش بینی می کند.
  • انتقال از استنتاج به آموزش، تیونینگ دقیق هر دو مدل مرزی و مدل متن باز
  • استقرار محصولات هوش مصنوعی در تولید با رابط های کاربری پالیش شده و قابلیت های پیشرفته
  • ارتقای مهارت های مهندسی هوش مصنوعی و LLM خود برای پیشرو بودن در خط مقدم این صنعت

ساختار دوره

هفته اول - مبانی و اولین پروژه ها

  • پرداختن به اصول ترنسفرمرها
  • تست با شش مدل مرزی پیشرو
  • ساخت اولین محصول Gen AI برای کسب و کار خود که وب اسکرپینگ را انجام می دهد، تصمیم ها را اتخاذ می کند و بروشورهای فروش قالب بندی شده ایجاد می کند.

هفته دوم - APIs مرزی و چت بات های خدمات مشتری

  • بررسی APIs مرزی و تعامل با سه مدل پیشرو
  • ایجاد چت بات خدمات مشتری با رابط کاربری شهودی که می تواند با متن، تصاویر، صدا تعامل داشته باشد و از ابزارها یا ایجنت ها استفاده کند.

هفته سوم - استقبال از مدل های متن باز

  • کشف دنیای مدل های متن باز با استفاده از HuggingFace
  • مقابله با 10 یوزکیس رایج Gen AI، از ترجمه تا تولید تصویر
  • ساخت محصولی برای ایجاد صورت جلسات و آیتم های اقدام از ضبط شده ها

هفته چهارم - انتخاب LLM و تولید کد

  • درک تفاوت بین LLMs و نحوه انتخاب بهترین آن ها برای تسک های کسب و کار خود
  • استفاده از LLMs برای تولید کد و ساخت محصولی که کد را از پایتون به ++C ترجمه می کند و به بهبود عملکرد بیش از 60000 برابر دست می یابد.

هفته پنجم - بازیابی نسل افزوده (RAG)

  • تسلط به RAG برای بهبود دقت راه حل های خود
  • کسب تخصص در تعبیه های بردار و بررسی بردارها در دیتا استورهای برداری متن باز محبوب
  • ساخت یک راه حل تجاری کامل شبیه به محصولات واقعی موجود در بازار امروز

هفته ششم - انتقال به آموزش

  • حرکت از استنتاج به آموزش
  • تیونینگ دقیق مدل مرزی برای حل مشکل واقعی کسب و کار
  • ساخت مدل تخصصی خود و رقم زدن نقطه عطف مهم در سفر هوش مصنوعی خود

هفته هفتم - تکنیک های پیشرفته آموزش

  • بررسی عمیق تکنیک های پیشرفته آموزش مانند تیونینگ دقیق QLoRA
  • آموزش یک مدل متن باز تا از مدل های مرزی برای تسک های خاص بهتر عمل کند.
  • مقابله با پروژه های چالش برانگیز که مهارت های شما را به سطح بعدی می برد.

هفته هشتم - استقرار و نهایی سازی

  • استقرار محصول تجاری خود در تولید با رابط کاربری پالیش شده
  • افزایش قابلیت ها با استفاده از ایجنت ها
  • تحویل اولین مدل LLM تولید شده، عاملی شده و دقیق تیونینگ شده خود
  • جشن گرفتن تسلط خود به عنوان مهندسی هوش مصنوعی و LLM تا برای مرحله جدیدی در حرفه خود آماده شوید.

این دوره برای چه کسانی مناسب است؟

  • مهندسان مشتاق هوش مصنوعی و دانشمندان داده که مشتاق ورود به حوزه هوش مصنوعی و LLMs هستند.
  • حرفه ای هایی که به دنبال افزایش مهارت و رقابتی ماندن در چشم انداز به سرعت در حال تحول هوش مصنوعی هستند.
  • توسعه دهندگانی که به ساخت اپلیکیشن های هوش مصنوعی پیشرفته با تجربه عملی و کاربردی علاقه مند هستند.

مهندسی LLM - تسلط به هوش مصنوعی، مدل‌ های زبانی بزرگ و ایجنت ها

  • باز کردن سرد - پرش مستقیم به مهندسی LLM 00:37
  • راه اندازی Olama برای استقرار محلی LLM در ویندوز و مک 04:14
  • کشف قدرت LLMs محلی - ایجاد معلم خصوصی زبان اسپانیایی با استفاده از Ollama 04:07
  • نقشه راه مهندسی LLM - از مبتدی تا تسلط در 8 هفته 05:45
  • ساخت اپلیکیشن های LLM - چت بات ها، RAG و پروژه های هوش مصنوعی عاملی 01:49
  • از وال استریت تا هوش مصنوعی - مسیر اد دانر برای تبدیل شدن به مهندس LLM 02:07
  • راه اندازی محیط توسعه LLM - ابزارها و بهترین شیوه ها 06:11
  • راهنمای راه اندازی مک - Jupyter Lab و Conda برای پروژه های LLM 06:54
  • راه اندازی آناکوندا برای مهندسی LLM - راهنمای نصب ویندوز 11:37
  • راه اندازی جایگزین پایتون برای پروژه های LLM - راهنمای Virtualenv در مقابل آناکوندا 06:32
  • راه اندازی OpenAI API برای توسعه LLM - کلیدها، قیمت گذاری و بهترین شیوه ها 07:14
  • ایجاد فایل env. برای ذخیره ایمن کلیدهای API 05:00
  • پروژه رضایت فوری - ایجاد خلاصه‌ ساز صفحه وب مبتنی بر هوش مصنوعی 09:31
  • پیاده سازی خلاصه سازی متن با استفاده از GPT-4 OpenAI و Beautiful Soup 13:36
  • جمع بندی - نکات کلیدی و گام های بعدی در مهندسی LLM 02:48
  • تسلط به مهندسی LLM - مهارت ها و ابزارهای کلیدی برای توسعه هوش مصنوعی 06:52
  • درک مدل های مرزی - GPT ،Claude و LLMs متن باز 07:42
  • چگونه از Olama برای استنتاج LLM محلی استفاده کنیم؟ - آموزش پایتون با Jupyter 06:55
  • تسک عملی LLM - مقایسه OpenAI و Ollama برای خلاصه سازی متن 00:36
  • مدل‌ های هوش مصنوعی مرزی - مقایسه GPT-4 ،Claude ،Gemini و LLAMA 07:38
  • مقایسه LLMs پیشرو - نقاط قوت و اپلیکیشن های کسب و کار 01:49
  • بررسی پیش‌ نمایش GPT-4o در مقابل O1 - تفاوت‌ های کلیدی در عملکرد 03:54
  • خلاقیت و کدنویسی - استفاده از ویژگی GPT-4o Canvas 06:31
  • ترازبندی و ایجاد آرتیفکت Claude 3.5 - بررسی عمیق 05:26
  • مقایسه مدل هوش مصنوعی - Gemini در مقابل Cohere برای تسک های عجیب و غریب و تحلیلی 04:46
  • ارزیابی هوش مصنوعی متا و Perplexity - تفاوت های ظریف خروجی های مدل 04:36
  • چالش رهبری LLM - ارزیابی مدل‌ های هوش مصنوعی از طریق پرامپت های خلاقانه 05:41
  • افشای برنده رهبری - چالش سرگرم کننده LLM 07:50
  • بررسی سفر هوش مصنوعی - از مدل های اولیه تا ترنسفرمرها 03:02
  • درک پارامترهای LLM - از GPT-1 تا مدل های دارای تریلیون وزن 05:01
  • توضیح توکن سازی GPT - مدل های زبانی بزرگ چگونه ورودی متن را پردازش می کنند؟ 10:41
  • پنجره های کانتکس چگونه بر مدل‌ های زبانی هوش مصنوعی تأثیر می‌ گذارد؟ - توضیح محدودیت های توکن 03:13
  • ناوبری هزینه‌ های مدل هوش مصنوعی - قیمت‌ گذاری API در مقابل سابسکریپشن های رابط چت 02:48
  • مقایسه پنجره های کانتکس LLM - بررسی GPT-4 در مقابل Claude در مقابل Gemini 1.5 Flash 05:22
  • جمع بندی - نکات کلیدی و بینش های عملی 02:40
  • ساخت بروشورهای بازاریابی مبتنی بر هوش مصنوعی با OpenAI API و پایتون 03:08
  • آموزش JupyterLab - وب اسکرپینگ برای بروشورهای شرکت مبتنی بر هوش مصنوعی 06:20
  • خروجی های ساختار یافته در LLMs - بهینه سازی پاسخ های جی سان برای پروژه های هوش مصنوعی 09:20
  • ایجاد و فرمت بندی پاسخ ها برای محتوای بروشور 08:39
  • تنظیمات نهایی - بهینه سازی نشانه گذاری و استریمینگ در JupyterLab 09:50
  • تسلط به پرامپت نویسی چند شات - افزایش قابلیت اطمینان LLM در پروژه‌ های هوش مصنوعی 04:22
  • تکلیف - توسعه معلم خصوصی سفارشی مبتنی بر LLM خود 04:07
  • جمع بندی هفته 1 - دستاوردها و گام های بعدی 02:56
  • تسلط به چندین AI APIs - بررسی OpenAI ،Claude و Gemini برای مهندسان LLM 04:50
  • استریمینگ پاسخ های هوش مصنوعی - پیاده سازی خروجی LLM به صورت بلادرنگ در پایتون 16:14
  • چگونه با استفاده از OpenAI و Claude APIs مکالمات هوش مصنوعی متخاصم را ایجاد کنیم؟ 11:18
  • ابزارهای هوش مصنوعی - بررسی ترنسفرمرها و LLMs مرزی برای توسعه دهندگان 01:20
  • ایجاد رابط‌ های هوش مصنوعی با Gradio - نمونه‌ سازی اولیه سریع برای مهندسان LLM 03:03
  • آموزش Gradio - ایجاد رابط های هوش مصنوعی تعاملی برای مدل های OpenAI GPT 11:41
  • پیاده سازی استریمینگ پاسخ‌ ها با GPT و Claude در رابط کاربری Gradio 05:58
  • ساخت رابط چت هوش مصنوعی چند مدلی با Gradio - GPT در مقابل Claude 08:22
  • ایجاد رابط‌ های هوش مصنوعی پیشرفته - از OpenAI API تا رابط‌ های چت با Gradio 01:23
  • ساخت چت بات های هوش مصنوعی - تسلط به Gradio برای دستیاران پشتیبانی مشتری 04:43
  • ساخت چت بات مکالمه ای هوش مصنوعی با OpenAI و Gradio - گام به گام 12:36
  • تقویت چت بات ها با پرامپت نویسی چند شات و غنی سازی کانتکس 10:12
  • تسلط به ابزارهای هوش مصنوعی - توانمندسازی LLMs برای اجرای کد روی ماشین خود 02:35
  • استفاده از ابزارهای هوش مصنوعی با LLMs - افزایش قابلیت‌ های مدل زبانی بزرگ 07:27
  • ساخت دستیار خط هوایی هوش مصنوعی - پیاده سازی ابزارها با OpenAI GPT-4 06:10
  • چگونه LLMs را با ابزارهای سفارشی تجهیز کنیم؟ - آموزش فراخوانی تابع OpenAI 11:35
  • تسلط به ابزارهای هوش مصنوعی - ساخت دستیاران پیشرفته مجهز به LLM با APIs 01:13
  • دستیاران هوش مصنوعی چندوجهی - یکپارچه سازی تولید تصویر و صدا 05:01
  • هوش مصنوعی چندوجهی - یکپارچه سازی تولید تصویر DALL-E 3 در JupyterLab 08:27
  • ساخت ایجنت هوش مصنوعی چندوجهی - یکپارچه سازی ابزارهای صوتی و تصویری 06:53
  • چگونه یک دستیار هوش مصنوعی چندوجهی بسازیم؟ - یکپارچه سازی ابزارها و ایجنت ها 04:32
  • آموزش Hugging Face - بررسی مدل‌ ها و مجموعه داده‌ های هوش مصنوعی متن باز 10:38
  • بررسی HuggingFace Hub - مدل‌ ها، مجموعه داده‌ ها و فضاها برای توسعه‌ دهندگان هوش مصنوعی 12:39
  • آشنایی با Google Colab - بررسی Cloud Jupyter Notebooks برای یادگیری ماشین 03:16
  • یکپارچه سازی Hugging Face با Google Colab - بررسی Secrets و راه اندازی کلیدهای API 10:35
  • تسلط به Google Colab - مدل‌ های هوش مصنوعی متن باز با Hugging Face 01:58
  • ترنسفرمرهای Hugging Face - استفاده از پایپ لاین ها برای تسک های هوش مصنوعی در پایتون 04:07
  • پایپ لاین ها در Hugging Face - ساده سازی تسک های هوش مصنوعی با کتابخانه ترنسفرمرها 13:11
  • تسلط به پایپ لاین ها در Hugging Face - استنتاج کارآمد هوش مصنوعی برای تسک های ML 01:41
  • بررسی توکنایزرها در هوش مصنوعی متن باز - Llama ،Phi-2 ،Qwen و Starcoder 05:12
  • تکنیک های توکن سازی در هوش مصنوعی - استفاده از AutoTokenizer با مدل LLAMA 3.1 11:00
  • مقایسه توکنایزرها - Llama ،PHI-3 و QWEN2 برای مدل‌ های هوش مصنوعی متن باز 11:35
  • توکنایزرهای Hugging Face - آماده سازی برای تولید متن پیشرفته با هوش مصنوعی 00:51
  • کلاس مدل Hugging Face - استنتاج در حال اجرا روی مدل‌ های هوش مصنوعی متن باز 03:38
  • ترنسفرمرهای Hugging Face - بارگذاری و کمی سازی LLMs با بیت ها و بایت ها 14:51
  • ترنسفرمرهای Hugging Face - ایجاد جوک ها با مدل‌ های هوش مصنوعی متن باز 10:44
  • تسلط به ترنسفرمرهای Hugging Face - مدل ها، پایپ لاین ها و توکنایزرها 01:31
  • ترکیب مدل های مرزی و متن باز برای خلاصه سازی صدا به متن 03:24
  • استفاده از Hugging Face و OpenAI برای تولید صورت جلسه با هوش مصنوعی 12:56
  • ساخت ژنراتور داده تست مصنوعی - مدل هوش مصنوعی متن باز برای کسب و کار 04:49
  • چگونه LLM مناسب را انتخاب کنیم؟ - مقایسه مدل های متن باز و متن بسته 12:13
  • قانون مقیاس بندی Chinchilla - بهینه سازی پارامترهای LLM و اندازه داده آموزش 05:44
  • محدودیت های بنچ مارک های LLM - بیش‌ برازش و نشت داده آموزش 07:26
  • ارزیابی مدل‌ های زبانی بزرگ - رونمایی از بنچ مارک های سطح بعدی 06:29
  • OpenLLM Leaderboard در HuggingFace - مقایسه مدل های زبانی متن باز 09:33
  • تسلط به LLM Leaderboards - مقایسه مدل های متن باز و متن بسته 01:48
  • مقایسه LLMs - شش Leaderboards برتر برای ارزیابی مدل های زبانی 05:45
  • LLM Leaderboards تخصصی - یافتن بهترین مدل برای یوزکیس خود 08:05
  • LLAMA در مقابل GPT-4 - بنچ مارکینگ مدل‌ های زبانی بزرگ برای تولید کد 13:05
  • مدل‌ های زبانی رتبه‌ بندی شده توسط انسان - آشنایی با عرصه چت‌ بات LM Sys 07:21
  • کاربردهای تجاری مدل های زبانی بزرگ - از قانون تا آموزش 05:43
  • مقایسه LLMs مرزی و متن باز برای پروژه های تبدیل کد 03:00
  • استفاده از مدل های مرزی برای تولید کد با کارایی بالا در ++C 02:37
  • مقایسه LLMs برتر برای تولید کد - GPT-4 در مقابل Claude 3.5 Sonnet 08:24
  • بهینه سازی کد پایتون با مدل های زبانی بزرگ - GPT-4 در مقابل Claude 3.5 07:50
  • مشکلات تولید کد - زمانی که مدل های زبانی بزرگ خطا تولید می کنند 05:52
  • Blazing تولید کدهای سریع - چگونه می توان 13000 برابر Claude را بهتر از پایتون کرد؟ 04:32
  • ساخت رابط کاربری Gradio برای تولید کد با مدل های زبانی بزرگ 04:05
  • بهینه سازی تولید کد ++C - مقایسه عملکرد GPT و Claude 07:22
  • مقایسه GPT-4 و Claude برای تولید کد - بنچ مارک های عملکرد 04:44
  • LLMs متن باز برای تولید کد - بررسی اندپوینت های Hugging Face 01:59
  • چگونه از اندپوینت های استنتاج HuggingFace برای مدل های تولید کد استفاده کنیم؟ 08:20
  • یکپارچه سازی مدل های متن باز با LLMs مرزی برای تولید کد 07:01
  • مقایسه تولید کد - GPT-4 و Claude و CodeQuen LLMs 10:33
  • تسلط به تولید کد با LLMs - تکنیک ها و انتخاب مدل 01:48
  • ارزیابی عملکرد LLM - متریک های مدل محور در مقابل متریک های کسب و کار محور 09:11
  • تسلط به تولید کد LLM - چالش های پیشرفته برای توسعه دهندگان پایتون 07:51
  • اصول RAG - استفاده از داده خارجی برای بهبود پاسخ های LLM 05:03
  • ساخت سیستم DIY RAG - پیاده سازی نسل بازیابی افزوده (RAG) 13:09
  • درک تعبیه های بردار - کلید بازیابی RAG و LLM 09:30
  • رونمایی از LangChain - ساده سازی پیاده سازی RAG برای اپلیکیشن های LLM 03:45
  • آموزش تقسیم کننده متن LangChain - بهینه سازی تکه ها برای سیستم های RAG 10:59
  • آماده سازی برای پایگاه داده های برداری - تعبیه OpenAI و Chroma در RAG 01:14
  • تسلط به تعبیه های بردار - OpenAI و Chroma برای مهندسی LLM 04:14
  • مصورسازی تعبیه ها - بررسی فضای چندبعدی با t-SNE 17:41
  • ساخت پایپ لاین های RAG - از بردارها تا تعبیه ها با LangChain 02:51
  • پیاده سازی پایپ لاین RAG - بررسی LLM ،Retriever و حافظه در LangChain 04:37
  • تسلط به بازیابی نسل افزوده (RAG) - یکپارچه سازی عملی LLM 10:38
  • تسلط به پایپ لاین RAG - ساخت سیستم های RAG کارآمد 01:57
  • بهینه سازی سیستم های RAG - عیب یابی و فیکس کردن مشکلات رایج 01:02
  • سوئیچینگ فروشگاه‌ های برداری - FAISS در مقابل Chroma در پایپ لاین های LangChain RAG 08:40
  • رمزگشایی LangChain - پشت صحنه ساخت پایپ لاین RAG 03:15
  • اشکال زدایی RAG - بهینه سازی بازیابی کانتکس در LangChain 10:28
  • ساخت Knowledge Worker هوش مصنوعی شخصی خود - RAG برای افزایش بهره وری 07:07
  • تیونینگ دقیق مدل های زبانی بزرگ - از استنتاج تا آموزش 10:17
  • یافتن و ساخت مجموعه داده‌ ها برای تیونینگ دقیق LLM - منابع و تکنیک‌ ها 05:59
  • تکنیک های Curation داده برای تیونینگ دقیق LLMs در توضیحات محصول 12:35
  • بهینه‌ سازی داده‌ آموزش - تکنیک‌ های Scrubbing برای تیونینگ دقیق LLM 15:46
  • ارزیابی عملکرد LLM - متریک های مدل محور در مقابل متریک های کسب و کار 08:31
  • پایپ لاین استقرار LLM - از مشکل کسب و کار تا راه حل تولید 07:42
  • پرامپت نویسی، RAG و تیونینگ دقیق - زمان استفاده از هر رویکرد 09:55
  • تولید LLMs - بهترین شیوه ها برای استقرار مدل های هوش مصنوعی در مقیاس بالا 01:49
  • بهینه سازی مجموعه داده های بزرگ برای آموزش مدل - استراتژی های Curation داده 09:50
  • چگونه یک مجموعه داده متوازن برای آموزش LLM ایجاد کنیم؟ - تکنیک های Curation 11:27
  • نهایی سازی Curation مجموعه داده - تحلیل همبستگی های توضیح-قیمت 12:03
  • چگونه یک مجموعه داده با کیفیت بالا را در HuggingFace ایجاد و آپلود کنیم؟ 01:39
  • مهندسی ویژگی و Bag of Words - ایجاد بیس لاین های ML برای NLP 07:10
  • مدل های بیس لاین در ML - پیاده سازی توابع پیش بینی ساده 17:18
  • تکنیک های مهندسی ویژگی برای مدل های پیش بینی قیمت محصولات آمازون 09:08
  • بهینه سازی عملکرد LLM - استراتژی های پیشرفته مهندسی ویژگی 07:21
  • رگرسیون خطی برای تیونینگ دقیق LLM - مقایسه مدل بیس لاین 05:43
  • Bag of Words در NLP - پیاده سازی Count Vectorizer برای تحلیل متن در ML 07:48
  • پشتیبانی از رگرسیون برداری در مقابل جنگل تصادفی - Face-Off یادگیری ماشین 06:03
  • مقایسه مدل‌ های سنتی ML - از تصادفی تا جنگل تصادفی 04:13
  • ارزیابی مدل های مرزی - مقایسه عملکرد با فریمورک های بیس لاین 01:46
  • انسان در مقابل هوش مصنوعی - ارزیابی عملکرد پیش‌ بینی قیمت در مدل‌ های مرزی 11:17
  • GPT-4o Mini - ارزیابی مدل هوش مصنوعی مرزی برای تسک های برآورد قیمت 10:59
  • مقایسه GPT-4 و Claude - عملکرد مدل در تسک های پیش بینی قیمت 09:00
  • قابلیت‌ های هوش مصنوعی مرزی - عملکرد بهتر LLMs نسبت به مدل‌ های سنتی ML 03:57
  • تیونینگ دقیق LLMs با OpenAI - آماده سازی، آموزش و ارزیابی داده 06:06
  • چگونه فایل‌ های JSONL را برای تیونینگ دقیق مدل‌ های زبانی بزرگ (LLM) تهیه کنیم؟ 11:06
  • راهنمای گام به گام - راه اندازی تیونینگ دقیق Jobs در GPT با OpenAI API 08:18
  • تیونینگ دقیق LLMs - ردیابی از دست دادن و پیشرفت آموزش با وزن ها و سوگیری ها 04:21
  • ارزیابی متریک های LLMs دقیق تیونینگ شده - تحلیل آموزش و ضرر اعتبارسنجی 07:18
  • چالش‌ های تیونینگ دقیق LLM - زمانی که عملکرد مدل بهبود نمی‌ یابد 01:52
  • تیونینگ دقیق LLMs مرزی - چالش ها و بهترین شیوه ها برای بهینه سازی 11:07
  • تسلط به تیونینگ دقیق کارآمد پارامتر - LoRa ،QLoRA و هایپرپارامترها 03:55
  • آشنایی با آداپتورهای LoRA - توضیح سازگاری با رنکینگ پایین 07:19
  • QLoRA - کمی سازی برای تیونینگ دقیق کارآمد مدل‌ های زبانی بزرگ 05:16
  • بهینه سازی LLMs - ماژول های R، آلفا و هدف در تیونینگ دقیق QLoRA 05:14
  • تیونینگ دقیق کارآمد پارامتر - PEFT برای LLMs با Hugging Face 08:40
  • چگونه LLMs را کمی سازی کنیم؟ - کاهش اندازه مدل با دقت 8 بیتی 03:35
  • کمی سازی دوگانه و NF4 - تکنیک های پیشرفته برای بهینه سازی LLM چهار بیتی 03:41
  • بررسی مدل‌ های PEFT - نقش آداپتورهای LoRA در تیونینگ دقیق LLM 07:10
  • خلاصه اندازه مدل - مقایسه مدل های کمی شده و دقیق تیونینگ شده 01:52
  • چگونه بهترین مدل اولیه را برای تیونینگ دقیق مدل های زبانی بزرگ انتخاب کنیم؟ 06:24
  • انتخاب بهترین مدل اولیه - تحلیل LLM Leaderboard در HuggingFace 06:49
  • بررسی توکنایزرها - مقایسه LLAMA و QWEN و سایر مدل های LLM 05:01
  • بهینه سازی عملکرد LLM - بارگذاری و توکن سازی مدل اولیه Llama 3.1 09:20
  • تأثیر کمی سازی بر LLMs - تحلیل متریک های عملکرد و خطاها 05:42
  • مقایسه LLMs - بررسی GPT-4 در مقابل LLAMA 3.1 در تیونینگ کارآمد پارامتر 03:17
  • هایپرپارامترهای QLoRA - تسلط به تیونینگ دقیق برای مدل‌ های زبانی بزرگ 08:57
  • درک اپوک ها و اندازه های بچ در آموزش مدل 04:27
  • توضیح نرخ یادگیری، انباشت گرادیان و Optimizers 05:24
  • راه اندازی فرآیند آموزش برای تیونینگ دقیق 17:22
  • پیکربندی SFTTrainer برای تیونینگ دقیق LoRA کمی شده چهار بیتی LLMs 09:42
  • تیونینگ دقیق LLM - راه اندازی فرآیند آموزش با QLoRA 03:41
  • نظارت و مدیریت آموزش با وزن ها و سوگیری ها 02:08
  • پایین نگه داشتن هزینه های آموزش - استراتژی های تیونینگ دقیق کارآمد 01:50
  • تیونینگ دقیق کارآمد - استفاده از مجموعه داده های کوچکتر برای آموزش QLoRA 06:00
  • مصورسازی پیشرفت تیونینگ دقیق LLM با نمودارهای وزن ها و سوگیری ها 14:52
  • ابزارهای پیشرفته وزن‌ ها و سوگیری‌ ها و صرفه‌ جویی در مدل در Hugging Face 11:55
  • تیونینگ دقیق End-to-End LLM - از تعریف مشکل تا مدل آموزش دیده 02:04
  • چهار مرحله در آموزش LLM - از پاس به جلو تا بهینه سازی 05:38
  • فرآیند آموزش QLoRA - پاس به جلو، پاس به عقب و محاسبه ضرر 06:52
  • درک Softmax و افت آنتروپی متقابل در آموزش مدل 07:12
  • نظارت بر تیونینگ دقیق - وزن ها و سوگیری ها برای تحلیل آموزش LLM 05:31
  • بازبینی مجدد Podium - مقایسه متریک های عملکرد مدل 03:08
  • ارزیابی LLM اختصاصی و دقیق تیونینگ شده ما در برابر متریک های کسب و کار 12:58
  • مصورسازی نتایج - آیا ما GPT-4 را شکست دادیم؟ 02:49
  • تیونینگ هایپرپارامتر برای LLMs - بهبود دقت مدل با PEFT 04:34
  • از تیونینگ دقیق تا سیستم‌ های چندعاملی - مهندسی LLM سطح بعدی 03:21
  • ساخت معماری هوش مصنوعی چندعاملی برای سیستم‌ های یافتن معامله خودکار 08:07
  • رونمایی از مودال - استقرار مدل‌ های بدون سرور در ابر 04:21
  • LLAMA روی ابر - اجرای موثر مدل های بزرگ 15:39
  • ساخت API قیمت گذاری هوش مصنوعی بدون سرور - راهنمای گام به گام با مودال 18:39
  • مدل های تولید چندگانه پیش رو - آماده سازی برای راه حل های پیشرفته RAG 02:48
  • پیاده‌ سازی گردش‌ کارهای عاملی - مدل‌ های مرزی و فروشگاه‌ های برداری در RAG 05:20
  • ساخت دیتا استور برداری عظیم کروما برای پایپ لاین های پیشرفته RAG 09:23
  • مصورسازی فضاهای برداری - تکنیک های پیشرفته RAG برای اکتشاف داده 04:38
  • تکنیک های مصورسازی سه بعدی برای RAG - بررسی تعبیه های بردار 02:14
  • یافتن محصولات مشابه - ساخت پایپ لاین RAG بدون LangChain 07:38
  • پیاده سازی پایپ لاین RAG - تقویت LLMs با تکنیک های بازیابی 07:07
  • رگرسیون جنگل تصادفی - استفاده از ترنسفرمرها و ML برای پیش بینی قیمت 07:06
  • ساخت مدل گروهی - ترکیب LLM ،RAG و جنگل تصادفی 09:41
  • جمع بندی - نهایی سازی سیستم های چندعاملی و یکپارچه سازی RAG 01:54
  • تقویت ایجنت های هوش مصنوعی با خروجی های ساختار یافته - راهنمای Pydantic و BaseModel 04:12
  • اسکرپ کردن فیدهای RSS - ساخت سیستم انتخاب معامله مبتنی بر هوش مصنوعی 11:48
  • خروجی های ساختار یافته در هوش مصنوعی - پیاده سازی GPT-4 برای انتخاب معامله دقیق 10:27
  • بهینه سازی گردش کارهای هوش مصنوعی - اصلاح پرامپت ها برای تشخیص دقیق قیمت 02:41
  • تسلط به ایجنت های مستقل - طراحی گردش کارهای هوش مصنوعی چندعاملی 01:44
  • ویژگی بارز هوش مصنوعی عاملی - استقلال، برنامه ریزی و حافظه 10:50
  • ساخت سیستم هوش مصنوعی عاملی - یکپارچه سازی Pushover برای نوتیفیکیشن ها 09:08
  • پیاده سازی هوش مصنوعی عاملی - ایجاد ایجنت برنامه ریزی برای گردش کارهای خودکار 07:44
  • ساخت فریمورک ایجنت - اتصال LLMs و کد پایتون 14:14
  • تکمیل گردش کارهای عاملی - مقیاس بندی اپلیکیشن های کسب و کار 04:49
  • ایجنت های مستقل هوش مصنوعی - ساخت سیستم‌ های هوشمند بدون دخالت انسان 02:51
  • ایجنت های هوش مصنوعی با Gradio - تکنیک‌ های پیشرفته رابط کاربری برای سیستم‌ های خودمختار 10:00
  • نهایی سازی رابط کاربری Gradio برای راه حل هوش مصنوعی عاملی ما 07:30
  • بهبود رابط کاربری ایجنت هوش مصنوعی - یکپارچه سازی Gradio برای مصورسازی لاگ بلادرنگ 04:17
  • تحلیل نتایج - نظارت بر عملکرد فریمورک ایجنت 02:16
  • گذشته نگر پروژه هوش مصنوعی - سفر 8 هفته ای برای تبدیل شدن به مهندس LLM 06:01

9,980,000 1,996,000 تومان

مشخصات آموزش

مهندسی LLM - تسلط به هوش مصنوعی، مدل‌ های زبانی بزرگ و ایجنت ها

  • تاریخ به روز رسانی: 1404/06/14
  • سطح دوره:همه سطوح
  • تعداد درس:225
  • مدت زمان :25:16:38
  • حجم :20.87GB
  • زبان:دوبله زبان فارسی
  • دوره آموزشی:AI Academy

آموزش های مرتبط

The Great Courses
1,889,000 377,800 تومان
  • زمان: 04:47:39
  • تعداد درس: 30
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
9,269,000 1,853,800 تومان
  • زمان: 23:28:00
  • تعداد درس: 170
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
490,000 98,000 تومان
  • زمان: 55:18
  • تعداد درس: 9
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
490,000 98,000 تومان
  • زمان: 48:56
  • تعداد درس: 12
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
2,797,500 559,500 تومان
  • زمان: 07:05:39
  • تعداد درس: 75
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
490,000 98,000 تومان
  • زمان: 58:24
  • تعداد درس: 14
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
717,500 143,500 تومان
  • زمان: 01:49:57
  • تعداد درس: 22
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,296,500 259,300 تومان
  • زمان: 03:17:14
  • تعداد درس: 26
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
7,379,500 1,475,900 تومان
  • زمان: 18:41:14
  • تعداد درس: 133
  • سطح دوره:
  • زبان: دوبله فارسی

آیا سوالی دارید؟

ما به شما کمک خواهیم کرد تا شغل و رشد خود را افزایش دهید.
امروز با ما تماس بگیرید