بوت کمپ کامل علم داده، یادگیری ماشین، یادگیری عمیق و NLP
✅ سرفصل و جزئیات آموزش
در این دوره به تئوری، شیوه و ریاضیات پشت علم داده، یادگیری ماشین، یادگیری عمیق و NLP با پروژه های end to end مسلط می شوید.
آنچه یاد خواهید گرفت
- به مفاهیم پایه ای و پیشرفته یادگیری ماشین و NLP مسلط می شوید.
- دانش تئوری و عملی خود را در پروژه های واقعی با یادگیری ماشین، NLP و MLOPS اعمال می کنید.
- اصول ریاضیات پشت الگوریتم های ML را درک و پیاده می کنید.
- مدل های ML را با ابزارها و تکنیک های استاندارد صنعت توسعه داده و بهینه می کنید.
- شهود اصلی یادگیری عمیق مانند optimizers، توابع loss، شبکه های عصبی و CNN را درک می کنید.
پیش نیازهای دوره
- درک اولیه از ریاضیات دبیرستان (جبر و استاتیک)
- آشنایی با مفاهیم برنامه نویسی (ترجیحا پایتون)
- تمایل به یادگیری و اعمال دانش تئوری و عملی
- دسترسی به یک کامپیوتر با اتصال اینترنت برای تمرین عملی
توضیحات دوره
آیا می خواهید به علم داده، یادگیری ماشین (ML)، یادگیری عمیق (DL) و پردازش زبان طبیعی (NLP) از ابتدا مسلط شوید؟ این دوره کامل طراحی شده تا شما را به مسیری از دانش مبانی تا تسلط به مفاهیم پیشرفته ببرد و در عین حال بینش های کاربردی و تجربه عملی را ارائه دهد.
آنچه یاد خواهید گرفت:
- مفاهیم پایه ای - شما با مبانی ML و NLP، از جمله الگوریتم ها، مدل ها و تکنیک های مورد استفاده در این رشته ها شروع کرده و اصول اساسی که محرک ML و NLP هستند را درک می کنید.
- مباحث پیشرفته - مباحث پیشرفته مانند یادگیری عمیق، یادگیری تقویتی و مدل های ترنسفرمر را عمیق تر بررسی می کنید و یاد می گیرید چگونه این مفاهیم را برای ساخت مدل های پیچیده تر و قدرتمندتر اعمال کنید.
- کاربردهای عملی - از طریق کار با پروژه های واقعی و مطالعات موردی، تجربه عملی کسب می کنید. شما دانش خود را برای حل مسائل در حوزه های مختلف، از جمله مراقبت های بهداشتی، امور مالی و تجارت الکترونیک اعمال می کنید.
- اصول ریاضی - اصول ریاضیات قوی را با یادگیری ریاضیات پشت الگوریتم های ML و NLP توسعه می دهید و مفاهیمی مانند جبر خطی، حسابان و تئوری احتمال را درک می کنید.
- ابزارهای استاندارد صنعت - با ابزارهای استاندارد صنعت و کتابخانه های مورد استفاده در ML و NLP، از جمله PyTorch ،تنسورفلو و scikit-learn آشنا می شوید و یاد می گیرید که چگونه از این ابزارها برای ساخت و استقرار مدل ها استفاده کنید.
- تکنیک های بهینه سازی - یاد می گیرید که چگونه مدل های ML و NLP را برای عملکرد و کارایی بهتر بهینه کنید و نیز تکنیک هایی مانند تیونینگ دقیق هایپرپارامتر، انتخاب مدل و ارزیابی مدل را درک می کنید.
چرا در این دوره شرکت کنیم؟
در پایان دوره از ML و NLP، از مبانی تا مفاهیم پیشرفته، درک کاملی در اختیار خواهید داشت. شما توانایی اعمال دانش خود برای ساخت پروژه های واقعی و مهارت های لازم برای دنبال کردن شغلی در ML و NLP را خواهید داشت.
این دوره برای چه کسانی مناسب است؟
- دانشمندان داده مشتاق و علاقه مندان به یادگیری ماشین
- دانشجویان و متخصصانی که می خواهند مهارت های ML و NLP خود را بهبود بخشند.
- افراد مبتدی با درک اولیه از برنامه نویسی و ریاضیات
- کسی که به درک و اعمال تکنیک های ML و NLP از ابتدا تا سطوح پیشرفته علاقه مند است.
- توسعه دهندگان مبتدی پایتون که می خواهند وارد حوزه علم داده شوند.
بوت کمپ کامل علم داده، یادگیری ماشین، یادگیری عمیق و NLP
-
به این دوره خوش آمدید 02:44
-
نصب Anaconda 11:34
-
شروع کار با ویژوال استودیو کد 12:53
-
شروع کار با ویژوال استودیو کد 10:36
-
روش های مختلف ایجاد محیط مجازی 08:21
-
مبانی پایتون - سینتکس و سمانتیک 20:17
-
متغیرها در پایتون 18:55
-
تایپ های داده اولیه در پایتون 09:52
-
عملگرها در پایتون 16:17
-
دستورات شرطی (if ،elif و else) 21:03
-
حلقه ها در پایتون 28:03
-
لیست و List Comprehension در پایتون 37:07
-
تاپل در پایتون 22:34
-
مجموعه ها در پایتون 21:05
-
دیکشنری ها در پایتون 38:19
-
یوزکیس های واقعی لیست 09:50
-
شروع کار با توابع 24:21
-
مثال کدنویسی بیشتر با توابع 28:03
-
تابع لامبدا در پایتون 09:44
-
تابع نقشه در پایتون 11:08
-
توابع فیلتر در پایتون 09:00
-
سانتیگراد به فارنهایت None
-
مساحت یک مستطیل None
-
مسافت طی شده توسط وسیله نقلیه None
-
تعداد دورهای بالابر None
-
معادله خط None
-
مجموع عناصر لیست None
-
بزرگترین عنصر در یک لیست None
-
حذف داپلیکیت در یک لیست None
-
بررسی اینکه آیا همه عناصر یک لیست منحصر به فرد هستند یا خیر None
-
معکوس یک لیست None
-
تعداد عناصر زوج و فرد در یک لیست None
-
بررسی اینکه آیا یک لیست زیرمجموعه لیست دیگری است یا خیر None
-
حداکثر تفاضل بین 2 عنصر متوالی در یک لیست None
-
ادغام دو لیست مرتب شده None
-
چرخش یک لیست None
-
ادغام دو لیست در دیکشنری None
-
ادغام چند دیکشنری None
-
فراوانی کلمات در یک جمله None
-
تاپل پالیندرومیک None
-
ادغام دیکشنری ها با کلیدهای مشترک None
-
ایمپورت ماژول ها و پکیج ها در پایتون 17:06
-
بررسی کتابخانه استاندارد 17:44
-
عملیات فایل در پایتون 17:07
-
کار با مسیرهای فایل 08:43
-
مدیریت استثنا با بلوک های try except else و finally 25:00
-
کلاس ها و آبجکت ها در پایتون 22:55
-
وراثت در OOPS 19:00
-
پلی مورفیسم در OOPS 19:08
-
کپسوله سازی در OOPS 22:12
-
انتزاع در OOPS 09:09
-
متدهای جادویی در پایتون 08:03
-
Overloading عملگر در پایتون 08:32
-
مدیریت استثنای سفارشی 07:05
-
Iterators در پایتون 06:25
-
ژنراتورها با پیاده سازی عملی 11:06
-
تابع Copy و Cloures و دکوراتورها 21:15
-
Numpy در پایتون 28:16
-
Pandas - دیتافریم و سری ها 29:09
-
دستکاری داده با Pandas و Numpy 24:38
-
خواندن داده از منابع مختلف داده با استفاده از Pandas 15:04
-
مصورسازی داده با Matplotlib 30:35
-
مصورسازی داده با Seaborn 18:47
-
عملیات های Crud با SQLite3 و پایتون 16:56
-
پیاده سازی عملی لاگ کردن در پایتون 14:37
-
لاگ کردن با چندین لاگر 04:40
-
لاگ کردن با یک مثال واقعی 07:43
-
فرآیند و Threads چیست؟ 14:02
-
پیاده سازی عملی Multithreading با پایتون 11:48
-
پیاده سازی عملی چند پردازشی با پایتون 06:47
-
Thread Pool Executor و استخر فرآیند 07:43
-
پیاده سازی یوزکیس وب اسکرپینگ با Multithreading 09:35
-
پیاده سازی یوزکیس واقعی با چند پردازشی 06:29
-
تخصیص حافظه و توزیع Garbage collection و بهترین شیوه ها 20:47
-
آشنایی با فریمورک فلسک 12:13
-
درک اسکلتون اپلیکیشن ساده فلسک 12:40
-
یکپارچه سازی HTML با وب اپلیکیشن فلسک 09:09
-
کار با افعال Get و Post در HTTP 11:38
-
ساخت URL پویا، قانون متغیرها و موتور قالب Jinja 2 37:09
-
کار با Rest API و افعال Put و Delete در HTTP 23:40
-
ساخت وب اپلیکیشن با استفاده از Streamlit 17:25
-
مثالی از اپلیکیشن ML با وب اپلیکیشن Streamlit 08:21
-
آمار چیست و کاربرد آن؟ 09:02
-
انواع آمار 08:05
-
جمعیت در مقابل داده نمونه 04:02
-
معیار گرایش مرکزی 11:02
-
معیار پراکندگی 11:27
-
چرا واریانس نمونه بر n-1 تقسیم می شود؟ 08:27
-
انحراف معیار 06:19
-
متغیر چیست؟ 08:42
-
متغیرهای تصادفی چیست؟ 08:23
-
هیستوگرام - آمار توصیفی 08:38
-
صدک و ربع - آمار توصیفی 10:47
-
5 عدد خلاصه - آمار توصیفی 10:01
-
همبستگی و کوواریانس 39:17
-
قانون جمع (برای رویدادهای انحصاری متقابل و غیرمتقابل) 12:51
-
قانون ضرب احتمال (رویدادهای مستقل و وابسته) 08:58
-
رابطه بین PDF ،PMF و CDF 31:33
-
انواع توزیع احتمال 08:02
-
توزیع برنولی 24:24
-
توزیع دو جمله ای 16:33
-
توزیع پواسون 13:26
-
توزیع نرمال و گاوسی 14:53
-
توزیع نرمال استاندارد و امتیاز Z 14:30
-
توزیع یکنواخت 15:04
-
توزیع نرمال لگاریتمی 10:53
-
توزیع قانون توان 07:48
-
توزیع پارتو 05:32
-
قضیه حد مرکزی 10:52
-
برآوردها 06:57
-
آزمون فرضیه و مکانیسم آن 07:19
-
مقدار P چیست؟ 12:08
-
آزمون Z - آزمون فرضیه 27:02
-
توزیع تی-استیودنت 05:19
-
آمار تی با آزمون تی - آزمون فرضیه 10:39
-
آزمون Z در مقابل آزمون تی 03:37
-
خطای نوع اول و نوع دوم 05:00
-
قضیه بیز 09:42
-
فاصله اطمینان و حاشیه خطا 08:21
-
آزمون مربع کای چیست؟ 08:19
-
نیکویی برازش - مربع کای 12:03
-
تست تحلیل واریانس (Annova) 04:54
-
فرضیات تحلیل واریانس 04:54
-
انواع تحلیل واریانس 07:48
-
پارتیشن بندی واریانس در تحلیل واریانس 24:00
-
مدیریت مقادیر از دست رفته 20:13
-
مدیریت مجموعه داده نامتوازن 12:42
-
EDA - مجموعه داده شراب قرمز 23:31
-
EDA و مهندسی ویژگی - مجموعه داده قیمت پرواز 30:13
-
پاکسازی داده با مجموعه داده Google Playstore 26:09
-
EDA - مجموعه داده پاکسازی شده Google Play Store 18:48
-
مقدمه 08:48
-
انواع تکنیک های ML 15:27
-
معادله خط، سه بعدی و ابرصفحه 13:41
-
فاصله بین یک نقطه از یک صفحه 07:03
-
یادگیری مبتنی بر نمونه در مقابل مبتنی بر مدل 16:19
-
آشنایی با رگرسیون خطی ساده 05:57
-
درک معادلات رگرسیون خطی ساده 08:31
-
تابع هزینه 19:51
-
الگوریتم همگرایی - بخش 1 11:32
-
الگوریتم همگرایی - بخش 2 13:10
-
رگرسیون خطی چندگانه 06:30
-
متریک های عملکرد 16:46
-
MAE ،MSE و RMSE 22:33
-
بیش برازش و کم برازش 10:49
-
رگرسیون خطی با OLS 21:39
-
رگرسیون خطی ساده - عملی 46:27
-
رگرسیون خطی چندگانه 32:13
-
شهود رگرسیون چندجمله ای 11:27
-
پیاده سازی رگرسیون چندجمله ای 22:34
-
پایپ لاین در چندجمله ای 05:20
-
رگرسیون ریج 16:08
-
لسو و ElasticNet 08:55
-
انواع اعتبارسنجی متقابل 18:55
-
پاکسازی مجموعه داده 22:33
-
EDA و مهندسی ویژگی 25:50
-
انتخاب ویژگی 17:29
-
آموزش مدل 08:43
-
تیونینگ هایپرپارامتر 11:37
-
پروژه اولیه رگرسیون خطی ساده 41:23
-
پروژه های رگرسیون خطی چندگانه با فرضیات 27:21
-
پروژه رگرسیون اولیه از ابتدا - EDA و مهندسی ویژگی 17:21
-
آموزش مدل با اعتبارسنجی متقابل با رگرسیون لسو 24:48
-
آموزش مدل با ریج و ElasticNet با اعتبارسنجی متقابل 05:23
-
Pickle کردن مدل در پروژه ML 03:05
-
پیاده سازی پروژه End To End ML 32:02
-
استقرار پروژه در AWS 12:57
-
رگرسیون لجستیک می تواند مسئله Classifier را حل کند؟ 11:46
-
شهود ریاضی عمیق رگرسیون لجستیک 18:30
-
متریک های عملکرد 23:26
-
OVR رگرسیون لجستیک 10:05
-
پیاده سازی رگرسیون لجستیک 13:28
-
هایپرپارامتر جستجوی گرید 12:31
-
CV جستجوی تصادفی 04:47
-
OVR لجستیک 04:18
-
مجموعه داده نامتوازن لجستیک 09:47
-
ROC رگرسیون لجستیک 18:40
-
آشنایی با ماشین بردار پشتیبان 08:55
-
حاشیه نرم و حاشیه سخت 02:29
-
شهود ریاضیات SVM 12:05
-
تابع هزینه SVM 06:50
-
رگرسیون بردار پشتیبان 10:23
-
کرنل های SVM 10:41
-
Classifier های بردار پشتیبان 18:10
-
پیاده سازی کرنل های SVM 13:34
-
پیاده سازی رگرسیون بردار پشتیبان 21:00
-
درک قضیه بیز 34:32
-
انواع بیز ساده 11:24
-
پیاده سازی عملی بیز ساده 10:10
-
شهود عمیق رگرسیون و دسته بندی KNN 15:37
-
بهینه سازی KNN - شهود عمیق درخت KD و درخت Ball 14:58
-
دسته بندی رگرسور و KNN Classifier 06:16
-
آشنایی با درخت تصمیم گیری 12:42
-
آنتروپی و ناخالصی جینی 11:31
-
کسب اطلاعات 09:07
-
آنتروپی در مقابل ناخالصی جینی 02:48
-
تقسیم درخت تصمیم گیری برای ویژگی های عددی 04:58
-
بعد از هرس کردن و قبل از هرس کردن 08:23
-
رگرسیون درخت تصمیم گیری 21:21
-
پیاده سازی درخت تصمیم گیری 16:53
-
قبل از هرس کردن درخت تصمیم گیری 08:27
-
پیش بینی دیابت با رگرسور درخت تصمیم گیری 10:41
-
تکنیک های گروهی Bagging و Boosting 14:32
-
رگرسیون جنگل تصادفی 12:05
-
دسته بندی مسئله 03:15
-
مهندسی ویژگی - بخش 1 13:19
-
مهندسی ویژگی - بخش 2 08:49
-
مرحله آموزش مدل 11:49
-
پروژه رگرسیون جنگل تصادفی - بیانیه مشکل 02:07
-
مهندسی ویژگی 11:54
-
آموزش مدل 06:57
-
آشنایی با الگوریتم ML - بررسی Adaboost 11:50
-
ایجاد Stump درخت تصمیم گیری 07:34
-
عملکرد Stump درخت تصمیم گیری 08:07
-
بروزرسانی وزن ها 05:19
-
نرمال سازی وزن ها و تخصیص Bins 06:12
-
انتخاب نقاط داده جدید برای درخت بعدی 06:27
-
پیش بینی نهایی برای Adaboost 04:42
-
آموزش مدل Adaboost 11:40
-
آموزش مدل رگرسور Adaboost 07:59
-
رگرسیون تقویت گرادیان 14:37
-
آموزش Classifier تقویت گرادیان 08:44
-
آموزش مدل رگرسیون تقویت گرادیان 10:18
-
شهود عمیق دسته بندی Xgboost 28:51
-
رگرسور Xgboost 21:35
-
آموزش مدل Xgboost 08:02
-
آموزش رگرسور Xgboost 05:28
-
آشنایی با یادگیری ماشین نظارت نشده 07:50
-
نفرین ابعاد 14:10
-
انتخاب و استخراج ویژگی 17:50
-
شهود هندسی PCA 16:28
-
شهود ریاضیات PCA - بخش 1 11:28
-
تجزیه ویژه ماتریس کواریانس 16:51
-
پیاده سازی PCA 12:15
-
شهود هندسی خوشه بندی K Means 12:32
-
چگونه مقادیر K را بیابیم؟ 10:38
-
تله مقداردهی اولیه تصادفی (++Kmeans) 05:07
-
پیاده سازی خوشه بندی K means 20:14
-
خوشه بندی سلسله مراتبی 15:11
-
پیاده سازی خوشه بندی تجمعی 13:53
-
خوشه بندی K means در مقابل Mean سلسله مراتبی 03:46
-
DBSCAN چگونه کار می کند؟ 09:14
-
مثال های بعد اعمال DBSCAN 02:43
-
مزایا و معایب DBSCAN 06:59
-
پیاده سازی خوشه بندی DBSCAN 06:14
-
شهود خوشه بندی Silhoutte 08:47
-
شهود عمیق تشخیص ناهنجاری با استفاده از جنگل انزوا 22:33
-
تشخیص ناهنجاری خوشه بندی DBSCAN 07:59
-
تشخیص ناهنجاری عامل داده پرت محلی 07:18
-
سری های داکر 00:59
-
داکر و کانتینرها چه هستند؟ 12:20
-
داکر ایمیج در مقابل کانتینرها 05:44
-
داکر در مقابل ماشین های مجازی 07:46
-
نصب داکر 11:58
-
فرمان های اولیه داکر 19:02
-
ایجاد یک داکر ایمیج 14:19
-
پوش کردن داکر ایمیج به داکر هاب 08:30
-
داکر کامپوز 18:31
-
مقدمه، نصب و فرمان های اولیه 20:30
-
Git Mergeُ، پوش، چک اوت و لاگ با فرمان ها 13:08
-
رفع Merge Conflict برنچ گیت 17:35
-
پروژه یادگیری ماشین End To End با استقرار - راه اندازی کد و گیت هاب 37:56
-
پیاده سازی ساختار پروژه، لاگ کردن و مدیریت استثنا 33:39
-
بحث درباره بیانیه مسئله پروژه، EDA و آموزش مدل 37:50
-
پیاده سازی جذب داده 26:06
-
پیاده سازی تبدیل داده با پایپ لاین ها 37:08
-
پیاده سازی آموزش مدل 24:41
-
پیاده سازی تیونینگ هایپرپارامتر مدل 06:44
-
ساخت پایپ لاین پیش بینی 26:53
-
استقرار پروژه یادگیری ماشین با AWS Beanstalk 17:27
-
استقرار نمونه EC2 با ECR 41:53
-
استقرار آژور با کانتینر و ایمیج ها 24:31
-
شروع کار با MLOPS با MLFlow و Dagshub با پروژه 40:48
-
پیاده سازی کنترل نسخه بندی داده 24:40
-
ساخت پروژه های علم داده با BentoML 28:34
-
نقشه راه برای یادگیری NLP برای یادگیری ماشین 16:14
-
یوزکیس های عملی NLP 05:33
-
توکن سازی و اصطلاحات اولیه 10:32
-
موارد عملی توکن سازی 13:56
-
پیش پردازش متن - Stemming با NLTK 19:55
-
پیش پردازش متن - Stemming با NLTK 09:47
-
پیش پردازش متن - Stopwords 19:36
-
تگ گذاری اجزای کلام با NLTK 11:25
-
شناسایی انتیتی نامگذاری شده 06:22
-
موضوع بعدی چیست؟ 10:58
-
شهود رمزگذاری One Hot 08:14
-
مزایا و معایب OHE (رمزگذاری One Hot) 12:04
-
شهود Bag of Words 09:55
-
مزایا و معایب Bag of Words 09:49
-
پیاده سازی Bag of Words با NLTK 20:33
-
N Grams 06:55
-
پیاده سازی N Gram BOW با استفاده از NLTK 06:43
-
شهود TF-IDF 10:22
-
مزایا و معایب TF-IDF 05:08
-
پیاده سازی عملی TFIDF - پایتون 06:45
-
تعبیه کلمات 06:49
-
شهود Word2Vec 18:10
-
شهود Word2Vec Cbow 20:15
-
شهود عمیق SkipGram 09:50
-
مزایای Word2Vec 04:23
-
شهود عمیق AvgWord2vec 06:32
-
پیاده سازی عملی Word2vec - بررسی Gensim 07:30
-
پروژه Spam ham با BOW 12:14
-
پروژه Spam و Ham با استفاده از TFidf 04:49
-
بهترین شیوه ها برای حل مشکلات یادگیری ماشین 10:15
-
طبقه بندی متن با Word2vec و AvgWord2vec - بخش 1 18:20
-
طبقه بندی متن با Word2vec و AvgWord2vec - بخش 2 15:16
-
تحلیل احساسات - بررسی کیندل - بخش 1 21:51
-
تحلیل احساسات - بررسی کیندل - بخش 2 07:47
-
مقدمه 08:07
-
چرا یادگیری عمیق در حال محبوب شدن است؟ 12:45
-
شهود ادراک 18:20
-
مزایا و معایب پرسپترون 06:50
-
یادگیری و شهود ANN 21:21
-
پس انتشار و بروزرسانی وزن 19:56
-
قاعده زنجیره ای مشتقات 11:03
-
مسئله محو شدگی گرادیان و سیگموئید 21:26
-
تابع فعال سازی سیگموئید - بخش 1 07:59
-
تابع فعال سازی سیگموئید - بخش 2 13:49
-
تابع فعال سازی Tanh 06:54
-
تابع فعال سازی ReLU 10:52
-
Leaky ReLU و Parametric ReLU 04:35
-
تابع فعال سازی ELU 04:07
-
Softmax برای دسته بندی چندکلاسی 11:35
-
کدام تابع فعال سازی را چه زمانی اعمال کنیم؟ 05:22
-
تابع Loss در مقابل تابع هزینه 06:51
-
تابع هزینه رگرسیون 16:35
-
مسئله دسته بندی تابع Loss 20:29
-
کدام تابع Loss را چه زمانی استفاده کنیم؟ 03:42
-
بهینه سازهای گرادیان کاهشی 12:12
-
SGD 07:29
-
Mini Batch با SGD 10:16
-
SGD با مومنتوم 12:20
-
Adagard 08:15
-
RMSPROP 06:17
-
Adam Optimiser 06:36
-
مسئله انفجار گرادیان 10:11
-
تکنیک های مقداردهی اولیه وزن 11:57
-
لایه های Dropout 12:10
-
مقدمه CNN 08:06
-
مغز انسان در مقابل CNN 07:23
-
هر آنچه باید درباره ایمیج ها بدانید 06:37
-
عملیات کانولوشن در CNN 15:46
-
Padding در CNN 05:51
-
عملیات CNN در مقابل ANN 07:33
-
Min Pooling و Max Pooling و Average Pooling 10:06
-
مسطح سازی و لایه های کاملا متصل 07:37
-
مثال CNN با RGB 04:18
-
بحث درباره بیانیه مسئله طبقه بندی و راه اندازی در مقابل کد 12:45
-
تبدیل ویژگی با استفاده از Sklearn با ANN 24:42
-
آموزش گام به گام با ANN با توابع Optimizer و Loss 38:44
-
پیش بینی با مدل ANN آموزش دیده 14:50
-
یکپارچه سازی مدل ANN با وب اپلیکیشن Streamlit 08:09
-
استقرار وب اپلیکیشن Streamlit با مدل ANN 04:47
-
پیاده سازی عملی رگرسیون ANN 16:45
-
یافتن لایه های پنهان بهینه و نورون های پنهان در ANN 16:20
-
آشنایی با NLP در یادگیری عمیق 17:32
-
درک معماری RNN - RNN در مقابل ANN 21:36
-
انتشار رو به جلو در آموزش RNN 20:24
-
انتشار رو به عقب در آموزش RNN 31:41
-
مشکلات با RNN 29:07
-
بیانیه مشکل 07:16
-
شروع کار با لایه های تعبیه کلمه 14:51
-
پیاده سازی تعبیه کلمه با تنسورفلو و کراس 18:19
-
بارگذاری و درک مهندسی ویژگی و مجموعه داده IMDB 14:21
-
آموزش RNN ساده با لایه تعبیه 07:43
-
پیش بینی از RNN ساده آموزش دیده 07:33
-
وب اپلیکیشن End To End Streamlit با RNN و استقرار یکپارچه شده 08:43
-
چرا LSTM RNN؟ 20:52
-
معماری LSTM RNN 12:10
-
Forget Gate در LSTM RNN 15:00
-
Input Gate و Candidate Memory در LSTM RNN 11:46
-
Output Gate در LSTM RNN 08:55
-
فرآیند آموزش در LSTM RNN 16:38
-
انواع LSTM RNN 13:44
-
شهود کامل عمیق GRU RNN 27:18
-
بحث درباره بیانیه مشکل 04:50
-
جمع آوری داده و پردازش داده 16:52
-
آموزش مدل شبکه عصبی LSTM 09:05
-
پیش بینی از مدل LSTM 06:57
-
یکپارچه سازی وب اپلیکیشن با مدل آموزش دیده LSTM 05:59
-
پیاده سازی عملی نوع RNN GRU 02:03
-
معماری RNN دو جهته و شهود عمیق 23:07
-
شهود عمیق رمزگذار و رمزگشا - معماری Sequence To Sequence 31:06
-
مشکلات با رمزگذار و رمزگشا 10:14
-
توضیح معماری عمیق مکانیسم توجه 28:50
-
اکشن پلن 04:10
-
ترنسفرمر چست و چرا باید از ترنسفرمرها استفاده کرد؟ 18:30
-
آشنایی با معماری اولیه ترنسفرمرها 14:13
-
کار لایه Self Attention 01:02:12
-
Multi Head Attention 10:19
-
شبکه عصبی پیشخور با Multi Head Attention 08:42
-
شهود عمیق رمزگذاری پوزیشنال 30:24
-
نرمال سازی لایه 33:36
-
مثال های نرمال سازی لایه 07:48
-
معماری کامل ترنسفرمر رمزگذار 22:05
-
ترنسفرمر رمزگذار - اکشن پلن 08:31
-
ترنسفرمر رمزگذار - عملکرد Multi Head Attention ماسک شده 53:10
-
رمزگذار و رمزگشا - Multi Head Attention 14:21
-
لایه Softmax و Decoder Linear نهایی 13:44
مشخصات آموزش
بوت کمپ کامل علم داده، یادگیری ماشین، یادگیری عمیق و NLP
- تاریخ به روز رسانی: 1404/06/14
- سطح دوره:همه سطوح
- تعداد درس:400
- مدت زمان :91:29:04
- حجم :61.51GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy