دوره آموزشی
آموزش های یودمی
دوبله زبان فارسی

یادگیری عمیق - مسترکلاس یادگیری عمیق با پایتون

یادگیری عمیق - مسترکلاس یادگیری عمیق با پایتون

✅ سرفصل و جزئیات آموزش

آنچه یاد خواهید گرفت:

  • پروژه‌های عملی - مشارکت در پروژه‌های کاربردی شامل تحلیل تصویر، ترجمه زبان، ساخت چت‌بات و سیستم‌های توصیه‌گر
  • اصول یادگیری عمیق - درک اصول اساسی یادگیری عمیق و کاربردهای آن در حوزه‌های مختلف
  • شبکه‌های عصبی کانولوشن (CNN) - تسلط به پردازش تصویر، تشخیص آبجکت و معماری‌های پیشرفته CNN مانند LeNet و AlexNet و ResNet
  • شبکه‌های عصبی بازگشتی (RNN) و مدل‌سازی دنباله - بررسی پردازش دنباله، درک زبانی و انواع مدرن RNN مثل LSTM
  • ملزومات پردازش زبان طبیعی (NLP) - آشنایی با پیش‌پردازش متن، تعبیه کلمات و کاربردهای یادگیری عمیق در درک زبان
  • یکپارچه‌سازی و کاربرد - ترکیب دانش از ماژول‌های مختلف برای توسعه راه‌حل‌های جامع یادگیری عمیق از طریق پروژه capstone

توضیحات دوره

به دوره جامع و تخصصی یادگیری عمیق خوش آمدید! این دوره شامل شش ماژول است که هرکدام به بررسی عمیق جنبه‌های مختلف یادگیری عمیق با پایتون می‌پردازد. چه شما مبتدی باشید که به دنبال پایه‌ای قوی هستید و چه یادگیرنده‌ سطح متوسط که می‌خواهید مهارت‌های خود را ارتقا دهید، این دوره بینش‌های کاربردی، دانش نظری و پروژه‌های عملی را ارائه می‌کند تا نیازهای شما را برطرف کند. 

چه کسانی باید این دوره را بگذرانند؟

  • مبتدیانی که علاقه‌مند به ورود به دنیای یادگیری عمیق با پایتون هستند.
  • یادگیرندگان سطح متوسط که می‌خواهند مهارت‌های یادگیری عمیق خود را افزایش دهند.
  • کسی که قصد دارد مفاهیم یادگیری عمیق را در پروژه‌های واقعی درک کرده و به کار گیرد.

چرا این دوره؟

این دوره منبعی جامع است که دامنه وسیعی از مباحث یادگیری عمیق را پوشش می‌دهد و برای یادگیرندگان در سطوح مختلف مناسب است. از مبانی تا مفاهیم پیشرفته، در این دوره درک کاملی از یادگیری عمیق با پایتون از طریق کاربردهای عملی خواهید داشت. 

آنچه یاد خواهید گرفت:

ماژول 1 - اصول یادگیری عمیق با پایتون

  • آشنایی با یادگیری عمیق
  • مبانی پایتون برای یادگیری عمیق
  • پیش‌پردازش داده‌ برای الگوریتم‌های یادگیری عمیق
  • مفاهیم عمومی یادگیری ماشین

ماژول 2 - بررسی عمیق شبکه‌های عصبی کانولوشن (CNN)

  • درک عمیق CNNs
  • تکنیک‌های کلاسیک بینایی کامپیوتری
  • مبانی شبکه‌های عصبی عمیق
  • معماری‌هایی مانند LeNet و AlexNet و InceptionNet و ResNet
  • یادگیری انتقالی و مطالعه موردی YOLO

ماژول 3 - شبکه‌های عصبی بازگشتی (RNN) و مدل‌سازی دنباله

  • بررسی RNNs
  • کاربردها و اهمیت RNNs
  • پرداختن به محوشدگی گرادیان در RNNs
  • RNNs مدرن - LSTM و RNNsدوطرفه و مدل‌های توجه
  • پیاده‌سازی RNNs با تنسورفلو

ماژول 4 - اصول پردازش زبان طبیعی (NLP)

  • تسلط به NLP
  • اصول و اهمیت NLP
  • تکنیک‌های پیش‌پردازش متن
  • تعبیه کلمات - Word2Vec و GloVe و BERT
  • یادگیری عمیق در NLP - شبکه‌های عصبی، RNNs و مدل‌های پیشرفته

ماژول 5 - توسعه چت‌بات‌ها با استفاده از یادگیری عمیق

  • ساخت سیستم‌های چت‌بات
  • اصول یادگیری عمیق برای چت‌بات‌ها
  • مقایسه چت‌بات‌های سنتی و مبتنی بر یادگیری عمیق
  • پیاده‌سازی عملی چت‌بات‌های مبتنی بر RNN
  • پکیج کامل - پروژه‌ها و مدل‌های پیشرفته

ماژول 6 - سیستم‌های توصیه‌گر با یادگیری عمیق

  • کاربردهای سیستم‌های توصیه‌گر
  • نقش یادگیری عمیق در سیستم‌های توصیه‌گر
  • مزایا و چالش‌ها
  • توسعه سیستم‌های توصیه‌گر با تنسورفلو
  • پروژه واقعی - سیستم پیشنهاد محصول آمازون

پروژه Capstone

  • یکپارچه‌سازی و کاربرد دانش
  • پروژه عملی - توسعه یک راه‌حل جامع یادگیری عمیق
  • ارزیابی و سنجش نهایی

این دوره جامع ملزومات یادگیری عمیق را با پوشش CNNs و RNNs و NLP، چت‌بات‌ها و سیستم‌های توصیه‌گر در پیاده‌سازی‌های مبتنی بر پایتون ارائه می‌دهد. هم‌اکنون در دوره شرکت کنید تا در حوزه‌های مختلف یادگیری عمیق از طریق پروژه‌های عملی و دانش نظری متخصص شوید. 

کلیدواژه‌ها و مهارت‌ها:

  • تسلط به یادگیری عمیق
  • دوره یادگیری عمیق پایتون
  • آموزش CNNs و RNNs
  • مبانی NLP
  • کارگاه توسعه چت‌بات
  • سیستم‌های توصیه‌گر با تنسورفلو
  • دوره هوش مصنوعی برای مبتدیان
  • پروژه‌های عملی یادگیری عمیق
  • برنامه‌نویسی پایتون برای هوش مصنوعی
  • برنامه درسی جامع یادگیری عمیق

این دوره برای چه کسانی مناسب است؟

  • دانشمندان مشتاق داده - افرادی که قصد تخصص در یادگیری عمیق و گسترش دانش در کاربردهای هوش مصنوعی را دارند.
  • برنامه‌نویسان و توسعه‌دهندگان - کسانی که می‌خواهند وارد حوزه هوش مصنوعی شده و از پایتون در پروژه‌های یادگیری عمیق استفاده کنند.
  • علاقه‌مندان به هوش مصنوعی و یادگیرندگان - کسی که دغدغه درک CNNs و RNNs و NLP، چت‌بات‌ها و سیستم‌های توصیه‌گر را دارد.
  • دانشجویان و پژوهشگران - افرادی که در زمینه‌های یادگیری ماشین و هوش مصنوعی تحقیق و آموزش می‌کنند.
  • حرفه‌ای‌های در حال تغییر مسیر شغلی - کسانی که می‌خواهند به هوش مصنوعی و یادگیری عمیق وارد شده یا در آن پیشرفت کنند.
  • علاقه‌مندان به فناوری - کسانی که می‌خواهند فناوری‌های نوین و کاربردهای هوش مصنوعی را بررسی کنند.

یادگیری عمیق - مسترکلاس یادگیری عمیق با پایتون

  • مقدمه - آشنایی با مدرس 02:53
  • مقدمه - آشنایی با دوره 03:36
  • مبانی یادگیری عمیق - حل مسئله - بخش 1 02:00
  • مبانی یادگیری عمیق - حل مسئله - بخش 2 02:26
  • مبانی یادگیری عمیق - حل مسئله - بخش 3 01:42
  • مبانی یادگیری عمیق - معادله خطی 03:18
  • مبانی یادگیری عمیق - معادله خطی برداری 03:00
  • مبانی یادگیری عمیق - فضای ویژگی سه‌بعدی 03:46
  • مبانی یادگیری عمیق - فضای N بعدی 02:30
  • مبانی یادگیری عمیق - تئوری پرسپترون 01:45
  • مبانی یادگیری عمیق - پیاده‌سازی پرسپترون اولیه 05:37
  • مبانی یادگیری عمیق - دروازه‌های منطقی برای پرسپترون‌ها 02:46
  • مبانی یادگیری عمیق - آموزش پرسپترون - بخش 1 01:39
  • مبانی یادگیری عمیق - آموزش پرسپترون - بخش 2 03:40
  • مبانی یادگیری عمیق - نرخ یادگیری 03:14
  • مبانی یادگیری عمیق - آموزش پرسپترون - بخش 3 03:31
  • مبانی یادگیری عمیق - الگوریتم پرسپترون 01:00
  • مبانی یادگیری عمیق - کدنویسی الگوریتم پرسپترون (خواندن داده و مصورسازی) 07:22
  • مبانی یادگیری عمیق - کدنویسی الگوریتم پرسپترون (مرحله پرسپترون) 07:22
  • مبانی یادگیری عمیق - کدنویسی الگوریتم پرسپترون (آموزش پرسپترون) 06:42
  • مبانی یادگیری عمیق - کدنویسی الگوریتم پرسپترون (مصورسازی نتایج) 03:53
  • مبانی یادگیری عمیق - مسئله با راه‌حل‌های خطی 02:32
  • مبانی یادگیری عمیق - راه‌حل مسئله 01:03
  • مبانی یادگیری عمیق - توابع خطا 02:21
  • مبانی یادگیری عمیق - تابع خطای گسسته در مقابل پیوسته 02:25
  • مبانی یادگیری عمیق - تابع سیگموید 03:01
  • مبانی یادگیری عمیق - مشکل چندکلاسه 01:17
  • مبانی یادگیری عمیق - مشکل امتیازات منفی 03:02
  • مبانی یادگیری عمیق - نیاز به Softmax 01:22
  • مبانی یادگیری عمیق - کدنویسی Softmax 04:05
  • مبانی یادگیری عمیق - کدگذاری One Hot 02:40
  • مبانی یادگیری عمیق - بیشینه درست‌نمایی - بخش 1 05:30
  • مبانی یادگیری عمیق - بیشینه درست‌نمایی - بخش 2 03:47
  • مبانی یادگیری عمیق - انتروپی متقاطع 04:06
  • مبانی یادگیری عمیق - فرمولاسیون انتروپی متقاطع 07:38
  • مبانی یادگیری عمیق - انتروپی متقاطع چندکلاسه 03:51
  • مبانی یادگیری عمیق - پیاده‌سازی انتروپی متقاطع 04:14
  • مبانی یادگیری عمیق - پیاده‌سازی تابع سیگموید 00:57
  • مبانی یادگیری عمیق - پیاده‌سازی تابع خروجی 02:10
  • یادگیری عمیق - آشنایی با گرادیان کاهشی 05:21
  • یادگیری عمیق - توابع محدب 02:31
  • یادگیری عمیق - استفاده از مشتقات 03:12
  • یادگیری عمیق - گرادیان کاهشی چگونه کار می‌کند؟ 03:34
  • یادگیری عمیق - گام گرادیان 01:54
  • یادگیری عمیق - الگوریتم رگرسیون لجستیک 01:37
  • یادگیری عمیق - خواندن و مصورسازی داده‌ 06:10
  • یادگیری عمیق - بروزرسانی وزن‌ها در پایتون 04:14
  • یادگیری عمیق - پیاده‌سازی رگرسیون لجستیک 12:44
  • یادگیری عمیق - مصورسازی و نتایج 08:43
  • یادگیری عمیق - گرادیان کاهشی در مقابل پرسپترون 04:35
  • یادگیری عمیق - مرزهای خطی به غیرخطی 04:42
  • یادگیری عمیق - ترکیب احتمالات 02:07
  • یادگیری عمیق - مجموع‌های وزنی 03:01
  • یادگیری عمیق - معماری شبکه عصبی 12:09
  • یادگیری عمیق - لایه‌ها و شبکه‌های عمیق 04:44
  • یادگیری عمیق - طبقه‌بندی چندکلاسه 02:48
  • یادگیری عمیق - مبانی پیشخور 07:50
  • یادگیری عمیق - پیشخور برای شبکه عمیق 04:57
  • یادگیری عمیق - بررسی الگوریتم یادگیری عمیق 01:57
  • یادگیری عمیق - مبانی پس انتشار 06:32
  • یادگیری عمیق - بروزرسانی وزن‌ها 02:46
  • یادگیری عمیق - قاعده زنجیره‌ای برای پس انتشار 05:53
  • یادگیری عمیق - سیگما پرایم 02:23
  • یادگیری عمیق - پیاده‌سازی شبکه‌ عصبی تحلیل داده 05:25
  • یادگیری عمیق - کدگذاری One Hot (پیاده‌سازی شبکه عصبی) 03:11
  • یادگیری عمیق - مقیاس‌بندی داده (پیاده‌سازی شبکه عصبی) 01:47
  • یادگیری عمیق - تقسیم داده‌ (پیاده‌سازی شبکه عصبی) 04:55
  • یادگیری عمیق - توابع Helper (پیاده‌سازی شبکه عصبی) 02:18
  • یادگیری عمیق - آموزش (پیاده‌سازی شبکه عصبی) 12:25
  • یادگیری عمیق - تست (پیاده‌سازی شبکه عصبی) 03:21
  • بهینه‌سازی‌ها - کم‌برازش در مقابل بیش‌برازش 05:19
  • بهینه‌سازی‌ها - توقف زودهنگام 03:51
  • بهینه‌سازی‌ها - آزمون 00:58
  • بهینه‌سازی‌ها - راه‌حل و منظم‌سازی 05:59
  • بهینه‌سازی‌ها - منظم‌سازی L1 و L2 03:12
  • بهینه‌سازی‌ها - Dropout 02:59
  • بهینه‌سازی‌ها - مشکل کمینه محلی 02:55
  • بهینه‌سازی‌ها - راه‌حل ری‌استارت تصادفی 04:27
  • بهینه‌سازی‌ها - سایر توابع فعال‌سازی 03:19
  • پروژه نهایی - بخش 1 11:19
  • پروژه نهایی - بخش 2 13:16
  • پروژه نهایی - بخش 3 12:58
  • پروژه نهایی - بخش 4 12:19
  • پروژه نهایی - بخش 5 08:06
  • مقدمه - مقدمه مدرس 02:19
  • مقدمه - چرا CNN؟ 07:00
  • مقدمه - تمرکز دوره 07:12
  • پردازش تصویر - تصاویر Gray Scale 07:21
  • پردازش تصویر - آزمون تصاویر Gray Scale 00:27
  • پردازش تصویر - راه‌حل تصاویر Gray Scale 00:48
  • پردازش تصویر - تصاویر RGB 07:35
  • پردازش تصویر - آزمون تصاویر RGB 00:35
  • پردازش تصویر - راه‌حل تصاویر RGB 00:45
  • پردازش تصویر - خواندن و نمایش تصاویر در پایتون 09:24
  • پردازش تصویر - آزمون خواندن و نمایش تصاویر در پایتون 00:22
  • پردازش تصویر - راه‌حل خواندن و نمایش تصاویر در پایتون 00:30
  • پردازش تصویر - تبدیل تصویر به Grayscale در پایتون 07:55
  • پردازش تصویر - آزمون تبدیل تصویر به Grayscale در پایتون 00:35
  • پردازش تصویر - راه‌حل تبدیل تصویر به Grayscale در پایتون 00:58
  • پردازش تصویر - تشکیل تصویر 05:37
  • پردازش تصویر - آزمون تشکیل تصویر 00:31
  • پردازش تصویر - راه‌حل تشکیل تصویر 00:33
  • پردازش تصویر - تار کردن تصویر - بخش 1 10:46
  • پردازش تصویر - آزمون تار کردن تصویر - بخش 1 00:43
  • پردازش تصویر - راه‌حل تار کردن تصویر - بخش 1 00:29
  • پردازش تصویر - تار کردن تصویر - بخش 2 08:23
  • پردازش تصویر - آزمون تار کردن تصویر - بخش 2 00:29
  • پردازش تصویر - راه‌حل تار کردن تصویر - بخش 2 00:47
  • پردازش تصویر - فیلترینگ عمومی تصویر 04:48
  • پردازش تصویر - کانولوشن 05:13
  • پردازش تصویر - تشخیص لبه 06:43
  • پردازش تصویر - شارپ کردن تصویر 03:40
  • پردازش تصویر - پیاده‌‌سازی تار کردن تصویر، تشخیص لبه و شارپ کردن تصویر در پایتون 16:54
  • پردازش تصویر - تشخیص شکل پارامتریک 07:41
  • پردازش تصویر - فعالیت پردازش تصویر 03:48
  • پردازش تصویر - راه‌حل فعالیت پردازش تصویر 12:03
  • تشخیص آبجکت - آشنایی با تشخیص آبجکت 06:38
  • تشخیص آبجکت - پایپ‌لاین طبقه‌بندی 10:59
  • تشخیص آبجکت - آزمون پایپ‌لاین طبقه‌بندی 00:23
  • تشخیص آبجکت - راه‌حل پایپ‌لاین طبقه‌بندی 00:40
  • تشخیص آبجکت - پیاده‌سازی پنجره کشویی 07:19
  • تشخیص آبجکت - تغییرناپذیری چرخش Shift Scale 09:41
  • تشخیص آبجکت - تمرین تغییرناپذیری چرخش Shift Scale 15:38
  • تشخیص آبجکت - تشخیص شخص 09:42
  • تشخیص آبجکت - ویژگی‌های HOG 07:02
  • تشخیص آبجکت - تمرین ویژگی‌های HOG 10:49
  • تشخیص آبجکت - مهندسی دست در مقابل CNNs 08:40
  • تشخیص آبجکت - فعالیت تشخیص آبجکت 04:51
  • بررسی شبکه‌ عصبی عمیق - نورون و پرسپترون 10:39
  • بررسی شبکه‌ عصبی عمیق - معماری DNN 07:30
  • بررسی شبکه‌ عصبی عمیق - آزمون معماری DNN 00:49
  • بررسی شبکه‌ عصبی عمیق - راه‌حل معماری DNN 01:11
  • بررسی شبکه‌ عصبی عمیق - MLP پیشخور کاملاً متصل 04:26
  • بررسی شبکه‌ عصبی عمیق - محاسبه تعداد وزن‌های DNN 06:04
  • بررسی شبکه‌ عصبی عمیق - آزمون محاسبه تعداد وزن‌های DNN 00:22
  • بررسی شبکه عصبی عمیق - راه‌حل محاسبه تعداد وزن‌های DNN 00:58
  • بررسی شبکه عصبی عمیق - تعداد نورون‌ها در مقابل تعداد لایه‌ها 08:26
  • بررسی شبکه عصبی عمیق - یادگیری تشخیصی و مولد 05:11
  • بررسی شبکه عصبی عمیق - قضیه تقریب جهانی 06:20
  • بررسی شبکه‌ عصبی عمیق - چرا عمق؟ 04:14
  • بررسی شبکه‌ عصبی عمیق - مرز تصمیم‌گیری در DNN 05:48
  • بررسی شبکه‌ عصبی عمیق - آزمون مرز تصمیم‌گیری در DNN 00:52
  • بررسی شبکه‌ عصبی عمیق - راه‌حل مرز تصمیم‌گیری در DNN 02:46
  • بررسی شبکه‌ عصبی عمیق - BiasTerm 05:12
  • بررسی شبکه‌ عصبی عمیق - آزمون BiasTerm 00:28
  • بررسی شبکه‌ عصبی عمیق - راه‌حل BiasTerm 00:52
  • بررسی شبکه‌ عصبی عمیق - تابع فعال‌سازی 08:13
  • بررسی شبکه‌ عصبی عمیق - آزمون تابع فعال‌سازی 00:35
  • بررسی شبکه‌ عصبی عمیق - راه‌حل تابع فعال‌سازی 01:11
  • بررسی شبکه عصبی عمیق - پارامترهای آموزش DNN 11:00
  • بررسی شبکه عصبی عمیق - آزمون پارامترهای آموزش DNN 00:36
  • بررسی شبکه عصبی عمیق - راه‌حل پارامترهای آموزش DNN 00:42
  • بررسی شبکه عصبی عمیق - گرادیان کاهشی 08:11
  • بررسی شبکه عصبی عمیق - پس‌ انتشار 11:07
  • بررسی شبکه عصبی عمیق - آموزش انیمیشن DNN 03:41
  • بررسی شبکه عصبی عمیق - مقداردهی اولیه وزن 09:24
  • بررسی شبکه عصبی عمیق - آزمون مقداردهی اولیه وزن 00:38
  • بررسی شبکه عصبی عمیق - راه‌حل مقداردهی اولیه وزن 01:01
  • بررسی شبکه‌ عصبی عمیق - گرادیان کاهشی استوکاستیک دسته‌ای miniBatch 08:34
  • بررسی شبکه‌ عصبی عمیق - نرمال‌سازی دسته‌ای 05:28
  • بررسی شبکه‌ عصبی عمیق - Rprop و مومنتوم 12:26
  • بررسی شبکه‌ عصبی عمیق - آزمون Rprop و مومنتوم 01:05
  • بررسی شبکه‌ عصبی عمیق - راه‌حل Rprop و مومنتوم 01:14
  • بررسی شبکه‌ عصبی عمیق - انیمیشن همگرایی 03:39
  • بررسی شبکه‌ عصبی عمیق - DropOut، توقف زودهنگام و هایپرپارامترها 13:38
  • بررسی شبکه‌ عصبی عمیق - آزمون DropOut، توقف زودهنگام و هایپرپارامترها 01:08
  • بررسی شبکه‌ عصبی عمیق - راه‌حل DropOut، توقف زودهنگام و هایپرپارامترها 02:20
  • معماری شبکه عصبی عمیق - بازبینی کانولوشن 08:16
  • معماری شبکه عصبی عمیق - بازبینی پیاده‌سازی کانولوشن در پایتون 07:07
  • معماری شبکه عصبی عمیق - چرا کانولوشن؟ 07:02
  • معماری شبکه عصبی عمیق - فیلترهای Padding Strides 08:04
  • معماری شبکه عصبی عمیق - تصویر Padding 10:36
  • معماری شبکه عصبی عمیق - تانسورهای Pooling 06:24
  • معماری شبکه عصبی عمیق - مثال CNN 07:04
  • معماری شبکه عصبی عمیق - جزئیات کانولوشن و Pooling 08:30
  • معماری شبکه عصبی عمیق - تمرین Maxpooling 04:11
  • معماری شبکه عصبی عمیق - پیاده‌سازی‌های غیربرداری Conv2d و Pool2d 18:58
  • معماری شبکه عصبی عمیق - فعالیت‌ معماری شبکه عصبی عمیق 02:28
  • گرادیان کاهشی در CNNs - راه‌اندازی مثال 09:15
  • گرادیان کاهشی در CNNs - چرا مشتقات؟ 10:28
  • گرادیان کاهشی در CNNs - آزمون چرا مشتقات؟ 00:54
  • گرادیان کاهشی در CNNs - راه‌حل چرا مشتقات؟ 03:05
  • گرادیان کاهشی در CNNs - قاعده زنجیره‌ای چیست؟ 07:58
  • گرادیان کاهشی در CNNs - اعمال قاعده زنجیره‌ای 09:05
  • گرادیان کاهشی در CNNs - گرادیان‌های لایه MaxPooling 08:20
  • گرادیان کاهشی در CNNs - آزمون گرادیان‌های لایه MaxPooling 00:57
  • گرادیان کاهشی در CNNs - راه‌حل گرادیان‌های لایه MaxPooling 01:48
  • گرادیان کاهشی در CNNs - گرادیان‌های لایه کانولوشن 09:01
  • گرادیان کاهشی در CNNs - گسترش به فیلترهای چندگانه 05:25
  • گرادیان کاهشی در CNNs - گسترش به لایه‌های چندگانه 06:50
  • گرادیان کاهشی در CNNs - آزمون گسترش چندلایه 01:24
  • گرادیان کاهشی در CNNs - راه‌حل گسترش چندلایه 05:40
  • گرادیان کاهشی در CNNs - پیاده‌سازی در Numpy - معرفی ForwardPass 08:20
  • گرادیان کاهشی در CNNs - پیاده‌سازی در Numpy - معرفی BackwardPass - بخش 1 06:47
  • گرادیان کاهشی در CNNs - پیاده‌سازی در Numpy - معرفی BackwardPass - بخش 2 04:36
  • گرادیان کاهشی در CNNs - پیاده‌سازی در Numpy - معرفی BackwardPass - بخش 3 09:07
  • گرادیان کاهشی در CNNs - پیاده‌سازی در Numpy - معرفی BackwardPass - بخش 4 12:20
  • گرادیان کاهشی در CNNs - پیاده‌سازی در Numpy - معرفی BackwardPass - بخش 5 19:41
  • گرادیان کاهشی در CNNs - گرادیان کاهشی در CNNs - فعالیت 02:00
  • آشنایی با تنسورفلو - مقدمه 09:57
  • آشنایی با تنسورفلو - برنامه مثال FashionMNIST - شبکه عصبی 22:44
  • آشنایی با تنسورفلو - FashionMNIST - مثال CNN 20:04
  • آشنایی با تنسورفلو - فعالیت 01:24
  • CNNs کلاسیک - LeNet 07:24
  • CNNs کلاسیک - LeNet - آزمون 01:05
  • CNNs کلاسیک - LeNet - راه‌حل 01:50
  • CNNs کلاسیک - AlexNet 09:31
  • CNNs کلاسیک - InceptionNet 08:11
  • CNNs کلاسیک - Resnet 09:56
  • CNNs کلاسیک - فعالیت 01:39
  • یادگیری انتقالی چیست؟ 05:02
  • یادگیری انتقالی - نکات عملی 07:10
  • یادگیری انتقالی - پروژه در تنسورفلو 38:03
  • یادگیری انتقالی - چالش ImageNet 03:53
  • یادگیری انتقالی - فعالیت 01:11
  • Yolo - بازبینی طبقه‌بندی تصویر 05:05
  • Yolo - محلی‌سازی آبجکت پنجره کشویی 06:36
  • YOLO: پیاده‌سازی کارآمد پنجره کشویی 06:59
  • Yolo - مقدمه Yolo 07:07
  • Yolo - تولید داده آموزش Yolo 06:15
  • Yolo - انکر باکس‌های Yolo 08:34
  • Yolo - الگوریتم Yolo 06:06
  • Yolo - سرکوب غیرحداکثری Yolo 05:22
  • Yolo - بررسی RCNN 04:10
  • Yolo - فعالیت Yolo 01:45
  • اعتبارسنجی چهره - راه‌اندازی مسئله 06:35
  • اعتبارسنجی چهره - پیاده‌سازی پروژه 21:27
  • اعتبارسنجی چهره - فعالیت اعتبارسنجی چهره 00:57
  • انتقال سبک با شبکه‌های عصبی - راه‌اندازی مسئله 10:32
  • انتقال سبک با شبکه‌های عصبی - پیاده‌سازی هاب تنسورفلو 08:44
  • مقدمه - آشنایی با مدرس و Aisciences 12:18
  • مقدمه - آشنایی با مدرس 02:19
  • مقدمه - تمرکز دوره 08:55
  • کاربردهای RNN (انگیزه) - تشخیص فعالیت انسانی 08:05
  • کاربردهای RNN (انگیزه) - ایجاد کپشن برای تصویر 05:50
  • کاربردهای RNN (انگیزه) - ترجمه ماشینی 07:56
  • کاربردهای RNN (انگیزه) - تشخیص گفتار 05:31
  • کاربردهای RNN (انگیزه) - پیش‌بینی‌های قیمت سهام 05:57
  • کاربردهای RNN (انگیزه) - چه زمانی باید RNN را مدل‌سازی کرد؟ 18:47
  • کاربردهای RNN (انگیزه) - فعالیت 03:19
  • بررسی DNN - چرا PyTorch؟ 04:17
  • بررسی DNN - نصب PyTorch و مقدمه تانسورها 10:32
  • بررسی DNN - مشتق‌گیری خودکار، یک ویژگی جدید در Pytorch 07:36
  • بررسی DNN - چرا DNNs در یادگیری ماشین؟ 04:13
  • بررسی DNN - قدرت بازنمایی و قابلیت‌های استفاده از داده DNN 07:13
  • بررسی DNN - پرسپترون 05:08
  • بررسی DNN - تمرین پرسپترون 02:36
  • بررسی DNN - راه‌حل تمرین پرسپترون 03:16
  • بررسی DNN - پیاده‌سازی پرسپترون 07:26
  • بررسی DNN - معماری DNN 03:52
  • بررسی DNN - تمرین معماری DNN 02:06
  • بررسی DNN - راه‌حل تمرین معماری DNN 04:33
  • بررسی DNN - پیاده‌سازی DNN ForwardStep 08:21
  • بررسی DNN - چرا DNN به یک تابع فعال‌سازی نیاز دارد؟ 04:47
  • بررسی DNN - تمرین چرا DNN به یک تابع فعال‌سازی نیاز دارد؟ 01:48
  • بررسی DNN - راه‌حل تمرین چرا DNN به یک تابع فعال‌سازی نیاز دارد؟ 03:39
  • بررسی DNN - ویژگی‌های تابع فعال‌سازی DNN 06:04
  • بررسی DNN - توابع فعال‌سازی DNN در Pytorch 03:49
  • بررسی DNN - تابع ضرر چیست؟ 07:10
  • بررسی DNN تابع ضرر چیست؟ - تمرین 00:58
  • بررسی DNN - تابع ضرر چیست؟ - راه‌حل تمرین 04:25
  • بررسی DNN - تابع ضرر چیست؟ - تمرین 2 00:54
  • بررسی DNN - تابع ضرر چیست؟ - راه‌حل تمرین 2 03:15
  • بررسی DNN - تابع ضرر DNN در Pytorch 05:45
  • بررسی DNN - گرادیان کاهشی DNN 05:58
  • بررسی DNN - تمرین گرادیان کاهشی DNN 03:02
  • بررسی DNN - راه‌حل تمرین گرادیان کاهشی DNN 04:15
  • بررسی DNN - پیاده‌سازی گرادیان کاهشی DNN 06:51
  • بررسی DNN - گرادیان کاهشی DNN استوکاستیک دسته‌ای Minibatch 07:07
  • بررسی DNN - پیاده‌سازی DNN - گام گرادیان 04:02
  • بررسی DNN - پیاده‌سازی DNN - گرادیان کاهشی استوکاستیک 13:53
  • بررسی DNN - خلاصه گرادیان کاهشی DNN 02:37
  • بررسی DNN - پیاده‌سازی DNN - گرادیان کاهشی دسته‌ای 06:46
  • بررسی DNN - پیاده‌سازی DNN - گرادیان کاهشی Minibatch 09:04
  • بررسی DNN - پیاده‌سازی DNN در PyTorch 15:19
  • بررسی DNN - مقداردهی اولیه وزن DNN 04:35
  • بررسی DNN - نرخ یادگیری DNN 04:03
  • بررسی DNN - نرمال‌سازی دسته‌ای DNN 02:05
  • بررسی DNN - پیاده‌سازی نرمال‌سازی دسته‌ای DNN 02:41
  • بررسی DNN - بهینه‌سازی‌های DNN 04:08
  • بررسی DNN - بررسی DNN Dropout 03:58
  • بررسی DNN - بررسی DNN Dropout در PyTorch 02:03
  • بررسی DNN - توقف زودهنگام DNN 03:34
  • بررسی DNN - هایپرپارامترهای DNN 03:33
  • معماری RNN - آشنایی با ماژول 05:41
  • معماری RNN - مدل حافظه با طول ثابت 10:06
  • معماری RNN - تمرین مدل حافظه با طول ثابت 00:46
  • معماری RNN - راه‌حل تمرین مدل حافظه با طول ثابت - بخش 1 03:37
  • معماری RNN - راه‌حل تمرین مدل حافظه با طول ثابت - بخش 2 03:54
  • معماری RNN - معماری حافظه بی نهایت 10:43
  • معماری RNN - تمرین معماری حافظه بی نهایت 01:06
  • معماری RNN - راه‌حل معماری حافظه بی نهایت 04:45
  • معماری RNN - اشتراک‌گذاری وزن 14:51
  • معماری RNN - حاشیه‌نویسی‌ها 08:49
  • معماری RNN - مدل ManyToMany 11:57
  • معماری RNN - تمرین مدل ManyToMany - بخش 1 02:05
  • معماری RNN - راه‌حل مدل ManyToMany - بخش 1 02:40
  • معماری RNN - تمرین مدل ManyToMany - بخش 2 00:49
  • معماری RNN - راه‌حل مدل ManyToMany - بخش 2 03:20
  • معماری RNN - مدل ManyToOne 07:56
  • معماری RNN - تمرین مدل OneToMany 00:32
  • معماری RNN - راه‌حل مدل OneToMany 02:31
  • معماری RNN - مدل OneToMany 05:56
  • معماری RNN - تمرین مدل ManyToOne 01:49
  • معماری RNN - راه‌حل مدل ManyToOne 01:22
  • معماری RNN - فعالیت - Many to One 06:47
  • معماری RNN - فعالیت تمرین رابط Many to One 00:40
  • معماری RNN - فعالیت راه‌حل تمرین رابطه Many to One 01:50
  • معماری RNN - مدل‌ اندازه‌های مختلف ManyToMany 09:07
  • معماری RNN - فعالیت - Many to Many در Nmt 04:50
  • معماری RNN - خلاصه مدل‌ها 03:33
  • معماری RNN - بررسی RNNs عمیق 08:12
  • معماری RNN - تمرین بررسی RNNs عمیق 00:51
  • معماری RNN - راه‌حل بررسی RNNs عمیق 02:50
  • گرادیان کاهشی در RNN - مقدمه ماژول گرادیان کاهشی 07:51
  • گرادیان کاهشی در RNN - راه‌اندازی مثال 08:20
  • گرادیان کاهشی در RNN - معادلات 06:03
  • گرادیان کاهشی در RNN - تمرین معادلات 01:45
  • گرادیان کاهشی در RNN - راه‌حل معادلات 02:13
  • گرادیان کاهشی در RNN - تابع ضرر 08:06
  • گرادیان کاهشی در RNN - چرا گرادیان‌ها؟ 06:06
  • گرادیان کاهشی در RNN - تمرین چرا گرادیان‌ها؟ 00:26
  • گرادیان کاهشی در RNN - راه‌حل تمرین چرا گرادیان‌ها؟ 02:49
  • گرادیان کاهشی در RNN - قاعده زنجیره‌ای 07:28
  • گرادیان کاهشی در RNN - قاعده زنجیره‌ای در عمل 05:58
  • گرادیان کاهشی در RNN - پس‌ انتشار در طول زمان 09:37
  • گرادیان کاهشی در RNN - فعالیت 02:18
  • پیاده‌سازی RNN - مشتق‌گیری خودکار 04:07
  • پیاده‌سازی RNN - مشتق‌گیری خودکار در Pytorch 08:26
  • پیاده‌سازی RNN - مدل‌سازی زبان، پیش‌بینی کلمه بعدی و ایندکس واژگان 04:04
  • پیاده‌سازی RNN - مدل‌سازی زبان، پیش‌بینی کلمه بعدی و تعبیه‌ ایندکس واژگان 03:16
  • پیاده‌سازی RNN - مدل‌سازی زبان، پیش‌بینی کلمه بعدی و معماری RNN 04:08
  • پیاده‌سازی RNN - مدل‌سازی زبان و پیش‌بینی کلمه بعدی با پایتون - بخش 1 07:12
  • پیاده‌سازی RNN - مدل‌سازی زبان و پیش‌بینی کلمه بعدی با پایتون - بخش 2 09:02
  • پیاده‌سازی RNN - مدل‌سازی زبان و پیش‌بینی کلمه بعدی با پایتون - بخش 3 07:27
  • پیاده‌سازی RNN - مدل‌سازی زبان و پیش‌بینی کلمه بعدی با پایتون - بخش 4 05:33
  • پیاده‌سازی RNN - مدل‌سازی زبان و پیش‌بینی کلمه بعدی با پایتون - بخش 5 04:35
  • پیاده‌سازی RNN - مدل‌سازی زبان و پیش‌بینی کلمه بعدی با پایتون - بخش 6 13:34
  • طبقه‌بندی احساسات با استفاده از RNN - پیاده‌سازی واژگان 09:46
  • طبقه‌بندی احساسات با استفاده از RNN - بررسی Helpers پیاده‌سازی واژگان 05:49
  • طبقه‌بندی احساسات با استفاده از RNN - پیاده‌سازی واژگان از فایل 06:26
  • طبقه‌بندی احساسات با استفاده از RNN - بردارساز 05:17
  • طبقه‌بندی احساسات با استفاده از RNN - راه‌اندازی RNN - بخش 1 07:20
  • طبقه‌بندی احساسات با استفاده از RNN - راه‌اندازی RNN - بخش 2 03:27
  • طبقه‌بندی احساسات با استفاده از RNN - بررسی WhatNext 03:27
  • محوشدگی گرادیان در RNN - آشنایی با ماژول RNNs بهتر 07:22
  • محوشدگی گرادیان در RNN - مقدمه محوشدگی گرادیان در RNN 07:52
  • محوشدگی گرادیان در RNN - بررسی GRU 11:59
  • محوشدگی گرادیان در RNN - بررسی GRU (اختیاری) 06:08
  • محوشدگی گرادیان در RNN - بررسی LSTM 08:44
  • محوشدگی گرادیان در RNN - بررسی LSTM - اختیاری 06:04
  • محوشدگی گرادیان در RNN - RNN دوطرفه 08:23
  • محوشدگی گرادیان در RNN - مدل توجه 10:30
  • محوشدگی گرادیان در RNN - مدل توجه - اختیاری 06:34
  • تنسورفلو - آشنایی با تنسورفلو 09:57
  • تنسورفلو - مثال طبقه‌بندی متن تنسورفلو با استفاده از RNN 25:55
  • پروژه 1 - نویسنده کتاب‌ - مقدمه 12:15
  • پروژه 1 - نویسنده کتاب‌ - نگاشت داده‌ 14:59
  • پروژه 1 - نویسنده کتاب‌ - مدل‌سازی معماری RNN 17:52
  • پروژه 1 - نویسنده کتاب‌ - مدل‌سازی مدل RNN در تنسورفلو 11:15
  • پروژه 1 - نویسنده کتاب‌ - مدل‌سازی آموزش مدل RNN 07:46
  • پروژه 1 - نویسنده کتاب‌ - مدل‌سازی تولید متن مدل RNN 13:28
  • پروژه 1 - نویسنده کتاب‌ - فعالیت‌ 07:44
  • پروژه 2 - پیش‌بینی قیمت سهام - بیان مسئله 06:06
  • پروژه 2 - پیش‌بینی قیمت سهام - مجموعه داده‌ 11:53
  • پروژه 2 - پیش‌بینی قیمت سهام - آماده‌سازی داده‌ 19:06
  • پروژه 2 - پیش‌بینی قیمت سهام - آموزش و ارزیابی مدل RNN 20:05
  • پروژه 2 - پیش‌بینی قیمت سهام - فعالیت 06:15
  • مطالب و منابع بیشتر - بخش 1 10:30
  • مقدمه - آشنایی با دوره 00:55
  • مقدمه - آشنایی با مدرس 05:44
  • مقدمه - آشنایی با کمک مدرس 01:30
  • مقدمه - مقدمه دوره 11:16
  • مقدمه (عبارات منظم) - عبارت منظم چیست؟ 05:56
  • مقدمه (عبارات منظم) - چرا عبارت منظم؟ 06:31
  • مقدمه (عبارات منظم) - چت‌بات ELIZA 04:23
  • مقدمه (عبارات منظم) - پکیج عبارات منظم پایتون 04:24
  • متا کاراکترها (عبارات منظم) - متا کاراکترها 02:27
  • متا کاراکترها (عبارات منظم) - متا کاراکترها - پرانتز - تمرین 04:18
  • متا کاراکترها (عبارات منظم) - متا کاراکترها - پرانتز - راه‌حل تمرین 03:58
  • متا کاراکترها (عبارات منظم) - متا کاراکترها - پرانتز - تمرین 2 02:11
  • متا کاراکترها (عبارات منظم) - متا کاراکترها - پرانتز - راه‌حل تمرین 2 04:37
  • متا کاراکترها (عبارات منظم) - متا کاراکترها - Cap 03:18
  • متا کاراکترها (عبارات منظم) - متا کاراکترها - Cap - تمرین 3 02:03
  • متا کاراکترها (عبارات منظم) - متا کاراکترها - Cap - راه‌حل تمرین 3 04:44
  • متا کاراکترها (عبارات منظم) - بک‌اسلش 05:02
  • متا کاراکترها (عبارات منظم) - ادامه بک‌اسلش 07:59
  • متا کاراکترها (عبارات منظم) - ادامه بک‌اسلش - بخش 1 03:51
  • متا کاراکترها (عبارات منظم) - بک‌اسلش و براکت‌های مربعی - تمرین 01:38
  • متا کاراکترها (عبارات منظم) - بک‌اسلش و براکت‌های مربعی - راه‌حل تمرین 03:58
  • متا کاراکترها (عبارات منظم) - تمرین بک‌اسلش - راه‌حل دیگر 04:43
  • متا کاراکترها (عبارات منظم) - تمرین بک‌اسلش 01:43
  • متا کاراکترها (عبارات منظم) - تمرین بک‌اسلش - راه‌حل و تمرین توالی ویژه 05:12
  • متا کاراکترها (عبارات منظم) - راه‌حل و تمرین توالی ویژه 04:57
  • متا کاراکترها (عبارات منظم) - متا کاراکتر ستاره 05:18
  • متا کاراکترها (عبارات منظم) - متا کاراکتر ستاره - تمرین 04:53
  • متا کاراکترها (عبارات منظم) - متا کاراکتر ستاره - راه‌حل تمرین 05:04
  • متا کاراکترها (عبارات منظم) - تکلیف متا کاراکتر ستاره 04:28
  • متا کاراکترها (عبارات منظم) - متا کاراکتر ستاره برای Greedymatching 05:54
  • متا کاراکترها (عبارات منظم) - متا کاراکتر با علامت جمع و علامت سوال 05:46
  • متا کاراکترها (عبارات منظم) - آکولادهای متا کاراکتر - تمرین 03:25
  • متا کاراکترها (عبارات منظم) - آکولادهای متا کاراکتر - راه‌حل تمرین 05:18
  • آبجکت‌های الگو 05:05
  • آبجکت‌های الگو - متد تطبیق آبجکت‌ها - تمرین 02:43
  • آبجکت‌های الگو - متد تطبیق آبجکت‌ها - راه‌حل تمرین 07:11
  • آبجکت‌های الگو - متد تطبیق آبجکت‌های الگو و متد جستجو 05:18
  • آبجکت‌های الگو - متد Finditer آبجکت‌های الگو - تمرین 03:20
  • آبجکت‌های الگو - متد Finditer آبجکت‌های الگو - راه‌حل تمرین 06:22
  • متا کاراکترهای بیشتر - متا کاراکترهای منطقی Or 06:28
  • متا کاراکترهای بیشتر - الگوهای شروع و پایان متا کاراکترها 04:57
  • متا کاراکترهای بیشتر - متا کاراکترها در پرانتز 07:03
  • اصلاح رشته - اصلاح رشته 03:49
  • اصلاح رشته - تمرین متد Sub 04:44
  • اصلاح رشته - راه‌حل تمرین متد Sub 04:30
  • کلمات و توکن‌ها - کلمه چیست؟ 04:41
  • کلمات و توکن‌ها - تعریف کلمه به تسک بستگی دارد 05:20
  • کلمات و توکن‌ها - واژگان و Corpus 05:38
  • کلمات و توکن‌ها - توکن‌ها 03:14
  • کلمات و توکن‌ها - استفاده از توکن‌ها در Spacy 09:10
  • طبقه‌بندی احساسات - مقدمه پروژه کوچک طبقه‌بندی نظرات Yelp 05:35
  • طبقه‌بندی احساسات - مقداردهی اولیه واژگان پروژه کوچک طبقه‌بندی نظرات Yelp 06:48
  • طبقه‌بندی احساسات - افزودن توکن‌ها به واژگان پروژه کوچک طبقه‌بندی نظرات Yelp 04:54
  • طبقه‌بندی احساسات - پروژه کوچک طبقه‌بندی نظرات Yelp - جستجوی توابع در واژگان 05:57
  • طبقه‌بندی احساسات - پروژه کوچک طبقه‌بندی نظرات Yelp - ساخت واژگان از داده‌ 09:16
  • طبقه‌بندی احساسات - پروژه کوچک طبقه‌بندی نظرات Yelp - کدنویسی One Hot 06:51
  • طبقه‌بندی احساسات - طبقه‌بندی نظرات Yelp، پیاده‌سازی پروژه کوچک کدنویسی One Hot 09:46
  • طبقه‌بندی احساسات - طبقه‌بندی نظرات Yelp، مستندات کدنویسی پروژه کوچک 06:50
  • طبقه‌بندی احساسات - طبقه‌بندی نظرات Yelp، پیاده‌سازی مستندات کدنویسی پروژه کوچک 06:28
  • طبقه‌بندی احساسات - طبقه‌بندی نظرات Yelp و Train Test Splits پروژه کوچک 04:20
  • طبقه‌بندی احساسات - پروژه کوچک طبقه‌بندی نظرات Yelp، محاسبه ویژگی 06:08
  • طبقه‌بندی احساسات - پروژه کوچک طبقه‌بندی نظرات Yelp 10:45
  • توکن‌سازی مستقل از زبان - مقدمه‌ جامع بر توکن‌سازی 04:28
  • توکن‌سازی مستقل از زبان - توکن‌سازی سخت است 05:16
  • توکن‌سازی مستقل از زبان - کدگذاری جفت بایت توکن‌سازی 06:08
  • توکن‌سازی مستقل از زبان - مثال کدگذاری جفت بایت توکن‌سازی 08:33
  • توکن‌سازی مستقل از زبان - کدگذاری جفت بایت توکن‌سازی روی داده‌ تست 07:14
  • توکن‌سازی مستقل از زبان - پیاده‌سازی کدگذاری جفت بایت توکن‌سازی در Getpaircounts 08:11
  • توکن‌سازی مستقل از زبان - توکن‌سازی، کدگذاری جفت بایت، پیاده‌سازی، Mergeincorpus 07:49
  • توکن‌سازی مستقل از زبان - آموزش BFE، پیاده‌سازی کدگذاری جفت بایت و توکن‌سازی 06:09
  • توکن‌سازی مستقل از زبان - توکن‌سازی، کدگذاری جفت بایت، پیاده‌سازی، کدگذاری BFE 06:25
  • توکن‌سازی مستقل از زبان - رمزگذاری جفت بایت‌ها، پیاده‌سازی رمزگذاری BFE، جفت تکی 09:11
  • توکن‌سازی مستقل از زبان - رمزگذاری جفت بایت‌ها، پیاده‌سازی رمزگذاری BFE، جفت تکی - بخش 1 07:53
  • نرمال‌سازی متن - نرمال‌سازی کلمات - Case Folding 04:43
  • نرمال‌سازی متن - نرمال‌سازی کلمات - Lematization 06:48
  • نرمال‌سازی متن - نرمال‌سازی کلمات - Stemming 02:31
  • نرمال‌سازی متن - نرمال‌سازی کلمات - بخش‌بندی جمله 06:27
  • تطبیق رشته و تصحیح املا - ویرایش حداقل فاصله 07:59
  • تطبیق رشته و تصحیح املا - مثال ویرایش حداقل فاصله 09:04
  • تطبیق رشته و تصحیح املا - ویرایش حداقل فاصله - پر کردن جدول 09:10
  • تطبیق رشته و تصحیح املا - ویرایش حداقل فاصله - برنامه‌نویسی پویا 07:17
  • تطبیق رشته و تصحیح املا - ویرایش حداقل فاصله - شبه‌کد 03:55
  • تطبیق رشته و تصحیح املا - پیاده‌سازی ویرایش حداقل فاصله 06:57
  • تطبیق رشته و تصحیح املا - پیاده‌سازی ویرایش حداقل فاصله - فیکس کردن باگ 02:40
  • تطبیق رشته و تصحیح املا - پیاده‌سازی تصحیح املا 07:42
  • مدل‌سازی زبان - مدل زبانی چیست؟ 05:50
  • مدل‌سازی زبان - تعریف رسمی یک مدل زبانی 06:31
  • مدل‌سازی زبان - نفرین ابعاد مدل زبانی 04:27
  • مدل‌سازی زبان - فرضیه مارکوف و N-Grams یک مدل زبانی 07:06
  • مدل‌سازی زبان - راه‌اندازی پیاده‌سازی مدل زبانی 04:24
  • مدل‌سازی زبان - تابع Ngrams در پیاده‌سازی مدل زبانی 08:42
  • مدل‌سازی زبان - تابعی از تعداد بروزرسانی‌ها در پیاده‌سازی مدل زبانی 05:46
  • مدل‌سازی زبان - تابعی از مدل احتمال در پیاده‌سازی مدل زبانی 06:35
  • مدل‌سازی زبان - پیاده‌سازی مدل زبانی - خواندن Corpus 12:17
  • مدل‌سازی زبان - پیاده‌سازی مدل زبانی، نمونه‌برداری متن 18:17
  • مدل‌سازی موضوع با نمایش‌های کلمه و سند - بردارهای One Hot 04:10
  • مدل‌سازی موضوع با نمایش‌های کلمه و سند - پیاده‌سازی بردارهای One Hot 05:41
  • مدل‌سازی موضوع با از نمایش‌های کلمه و سند - محدودیت‌های بردار One Hot 04:45
  • مدل‌سازی موضوع با نمایش‌های کلمه و سند - استفاده از بردارهای One Hot به عنوان برچسب‌گذاری هدف 03:42
  • مدل‌سازی موضوع با نمایش‌های کلمه و سند - فراوانی اصطلاح در نمایش‌های سند 03:12
  • مدل‌سازی موضوع با از نمایش‌های کلمه و سند - پیاده‌سازی فراوانی اصطلاح برای نمایش‌های سند 05:31
  • مدل‌سازی موضوع با نمایش‌های کلمه و سند - فراوانی اصطلاح برای نمایش‌های کلمه 05:17
  • مدل‌سازی موضوع با نمایش کلمه و سند - TFIDF برای نمایش مستندات 05:01
  • مدل‌سازی موضوع با نمایش کلمه و سند - پیاده‌سازی TFIDF برای نمایش مستندات برای خواندن متن 04:24
  • مدل‌سازی موضوع با نمایش کلمه و سند - TFIDF برای نمایش مستندات، پیاده‌سازی، محاسبه، فراوانی مستندات 04:59
  • مدل‌سازی موضوع با نمایش کلمه و سند - پیاده‌سازی TFIDF برای نمایش مستندات و محاسبه TFIDF 07:21
  • مدل‌سازی موضوع با نمایش کلمه و سند - مدل‌سازی موضوع با TFIDF - بخش 1 04:20
  • مدل‌سازی موضوع با نمایش کلمه و سند - مدل‌سازی موضوع با TFIDF - بخش 3 04:27
  • مدل‌سازی موضوع با نمایش کلمه و سند - مدل‌سازی موضوع با TFIDF - بخش 4 04:51
  • مدل‌سازی موضوع با نمایش کلمه و سند - مدل‌سازی موضوع با TFIDF - بخش 5 04:40
  • مدل‌سازی موضوع با نمایش‌های کلمه و سند - مدل‌سازی موضوع با استفاده از Gensim 13:26
  • تعبیه کلمات در LSI - ماتریس هم‌رخدادی کلمات 06:25
  • تعبیه کلمات در LSI - ماتریس هم‌رخدادی کلمات و ماتریس اصطلاحات سند 05:46
  • تعبیه کلمات در LSI - پیاده‌سازی ماتریس هم‌رخدادی کلمات - آماده‌سازی داده‌ 05:08
  • تعبیه کلمات در LSI - پیاده‌سازی ماتریس هم‌رخدادی کلمات - آماده‌سازی داده‌ - بخش 2 04:12
  • تعبیه کلمات در LSI - پیاده‌سازی ماتریس هم‌رخدادی کلمات - آماده‌سازی داده‌ و دریافت واژگان 04:26
  • تعبیه کلمات در LSI - پیاده‌سازی تابع نهایی ماتریس هم‌رخدادی کلمات 11:37
  • تعبیه کلمات در LSI - پیاده‌سازی ماتریس هم‌رخدادی کلمات برای مدیریت مشکلات حافظه در شرکت‌های بزرگ 09:19
  • تعبیه کلمات در LSI - ماتریس پراکندگی برای هم‌رخدادی کلمات 05:19
  • تعبیه کلمات در LSI - ماتریس هم‌رخدادی کلمات اطلاعات متقابل نقطه مثبت PPMI 07:58
  • تعبیه کلمات در LSI - تحلیل مؤلفه‌های اصلی (PCA) برای تعبیه متراکم 05:31
  • تعبیه کلمات در LSI - تحلیل معنایی نهفته 04:25
  • تعبیه کلمات در LSI - پیاده‌سازی تحلیل معنایی نهفته 06:50
  • سمانتیک کلمات - شباهت کسینوسی 07:05
  • سمانتیک کلمات - شباهت کسینوسی و محاسبه نرم‌های بردارها 09:18
  • سمانتیک کلمات - بردارهای نرمال‌سازی شباهت کسینوسی 06:36
  • سمانتیک کلمات - شباهت کسینوسی با بیش از یک بردار 11:00
  • سمانتیک کلمات - شباهت کسینوسی - یافتن کلماتی که بیشترین شباهت را در یک واژگان دارند 10:05
  • سمانتیک کلمات - شباهت کسینوسی - یافتن کلماتی که بیشترین شباهت را در یک واژگان دارند - فیکس کردن باگ 06:23
  • سمانتیک کلمات - شباهت کسینوسی، تعبیه های Word2Vec 08:21
  • سمانتیک کلمات - قیاس‌های کلمه 04:50
  • سمانتیک کلمات - پیاده‌سازی قیاس‌های کلمه - بخش 1 05:55
  • سمانتیک کلمات - پیاده‌سازی قیاس‌های کلمه - بخش 2 06:13
  • سمانتیک کلمات - مصورسازی‌های کلمه 02:37
  • سمانتیک کلمات - پیاده‌سازی مصورسازی‌های کلمه - بخش 1 04:28
  • سمانتیک کلمات - پیاده‌سازی مصورسازی‌های کلمه - بخش 2 06:36
  • Word2vec - تعبیه‌های استاتیک و پویا 06:17
  • Word2vec - خود-نظارتی 04:23
  • Word2vec - الگوریتم انتزاعی Word2Vec 05:21
  • Word2Vec - چرا از نمونه‌برداری منفی استفاده می‌شود؟ 03:49
  • Word2vec - معرفی Skip Gram 04:42
  • Word2Vec - چگونه قانون احتمال را تعریف کنیم؟ 04:00
  • Word2vec - سیگموئید Word2Vec 05:21
  • Word2Vec - فرمولاسیون تابع ضرر Word2vec 05:49
  • Word2Vec - تابع ضرر 03:25
  • Word2Vec - گام گرادیان کاهشی Word2Vec 04:21
  • Word2Vec - پیاده‌سازی Word2Vec و آماده‌سازی داده‌ 10:37
  • Word2vec - گام گرادیان در پیاده‌سازی Word2Vec 07:18
  • Word2vec - تابع Driver در پیاده‌سازی Word2Vec 13:38
  • نیاز به یادگیری عمیق برای NLP - چرا RNNs برای NLP خوب هستند؟ 13:25
  • نیاز به یادگیری عمیق برای NLP - نصب Pytorch و مقدمه‌ تانسورها 10:32
  • نیاز به یادگیری عمیق برای NLP - بررسی Pytorch برای تمایز خودکار 08:26
  • مقدمه (NLP با یادگیری عمیق DNN) - چرا DNNs در یادگیری ماشین استفاده می‌شوند؟ 04:13
  • مقدمه (NLP با یادگیری عمیق DNN) - قدرت بازنمایی و قابلیت‌های استفاده از داده DNN 07:13
  • مقدمه (NLP با یادگیری عمیق DNN) - پرسپترون 05:08
  • مقدمه (NLP با یادگیری عمیق DNN) - پیاده‌سازی پرسپترون 07:26
  • مقدمه (NLP با یادگیری عمیق DNN) - معماری DNN 03:52
  • مقدمه (NLP با یادگیری عمیق DNN) - پیاده‌سازی پیشخور DNN 08:21
  • مقدمه (NLP با یادگیری عمیق DNN) - چرا تابع فعال‌سازی نیاز است؟ 04:47
  • مقدمه (NLP با یادگیری عمیق DNN) - ویژگی‌های تابع فعال‌سازی DNN 06:04
  • مقدمه (NLP با یادگیری عمیق DNN) - توابع فعال‌سازی DNN در PyTorch 03:49
  • مقدمه (NLP با یادگیری عمیق DNN) - تابع ضرر DNN چیست؟ 07:10
  • مقدمه (NLP با یادگیری عمیق DNN) - تابع ضرر DNN در Pytorch 05:45
  • آموزش (NLP با DNN) - گرادیان کاهشی DNN 05:58
  • آموزش (NLP با DNN) - پیاده‌سازی گرادیان کاهشی DNN 06:51
  • آموزش (NLP با DNN) - گرادیان کاهشی DNN - بررسی Minibatch دسته‌ای استوکاستیک 07:07
  • آموزش (NLP با DNN) - خلاصه گرادیان کاهشی DNN 02:37
  • آموزش (NLP با DNN) - پیاده‌سازی مرحله گرادیان DNN 04:02
  • آموزش (NLP با DNN) - پیاده‌سازی DNN، گرادیان کاهشی استوکاستیک 13:53
  • آموزش (NLP با DNN) - پیاده‌سازی DNN، گرادیان کاهشی دسته‌ای 06:46
  • آموزش (NLP با DNN) - پیاده‌سازی DNN، گرادیان کاهشی دسته‌ای کوچک 09:04
  • آموزش (NLP با DNN) - پیاده‌سازی DNN در Pytorch 15:19
  • هایپرپارامترها (NLP با DNN) - مقداردهی اولیه وزن‌های DNN 04:35
  • هایپرپارامترها (NLP با DNN) - نرخ یادگیری DNN 04:03
  • هایپرپارامترها (NLP با DNN) - نرمال‌سازی دسته‌ای DNN 02:05
  • هایپرپارامترها (NLP با DNN) - پیاده‌سازی نرمال‌سازی دسته‌ای DNN 02:41
  • هایپرپارامترها (NLP با DNN) - بهینه‌سازی‌های DNN 04:08
  • هایپرپارامترها (NLP با DNN) - بررسی DNN Dropout 03:58
  • هایپرپارامترها (NLP با DNN) - بررسی DNN Dropout در Pytorch 02:03
  • هایپرپارامترها (NLP با DNN) - توقف زودهنگام DNN 03:34
  • هایپرپارامترها (NLP با DNN) - هایپرپارامترهای DNN 03:33
  • هایپرپارامترها (NLP با DNN) - مثال DNN Pytorch CIFAR10 15:56
  • مقدمه (NLP با یادگیری عمیق RNN) - RNN چیست؟ 04:54
  • مقدمه (NLP با یادگیری عمیق RNN) - درک RNN با یک مثال ساده 08:29
  • مقدمه (NLP با یادگیری عمیق RNN) - کاربردهای RNN - تشخیص فعالیت انسان 02:53
  • مقدمه (NLP با یادگیری عمیق RNN) - کاربردهای RNN - ایچاد کپشن برای تصویر 02:37
  • مقدمه (NLP با یادگیری عمیق RNN) - کاربردهای RNN - ترجمه ماشینی 15:56
  • مقدمه (NLP با یادگیری عمیق RNN) - کاربردهای RNN - تشخیص گفتار و پیش‌بینی قیمت سهام 04:04
  • مقدمه (NLP با یادگیری عمیق RNN) - مدل‌های RNN 07:07
  • پروژه کوچک مدل‌سازی زبان - مدل‌سازی زبانی - پیش‌بینی کلمه بعدی 03:43
  • پروژه کوچک مدل‌سازی زبان - مدل‌سازی زبانی - پیش‌بینی کلمه بعدی و ایندکس واژگان 04:04
  • پروژه کوچک مدل‌سازی زبان - مدل‌سازی زبانی - پیش‌بینی کلمه بعدی و تعبیه ایندکس واژگان 03:16
  • پروژه کوچک مدل‌سازی زبان - مدل‌سازی زبانی - پیش‌بینی کلمه بعدی و معماری RNN 04:08
  • پروژه کوچک مدل‌سازی زبان - مدل‌سازی زبانی - پیش‌بینی کلمه بعدی با پایتون - بخش 1 07:12
  • پروژه کوچک مدل‌سازی زبان - مدل‌سازی زبانی - پیش‌بینی کلمه بعدی با پایتون - بخش 2 09:02
  • پروژه کوچک مدل‌سازی زبان - مدل‌سازی زبانی - پیش‌بینی کلمه بعدی با پایتون - بخش 3 07:27
  • پروژه کوچک مدل‌سازی زبان - مدل‌سازی زبانی - پیش‌بینی کلمه بعدی با پایتون - بخش 4 09:02
  • پروژه کوچک مدل‌سازی زبان - مدل‌سازی زبانی - پیش‌بینی کلمه بعدی با پایتون - بخش 5 04:35
  • پروژه کوچک مدل‌سازی زبان - مدل‌سازی زبانی - پیش‌بینی کلمه بعدی با پایتون - بخش 6 13:34
  • پروژه کوچک طبقه‌بندی احساسات - پیاده‌سازی واژگان 09:46
  • پروژه کوچک طبقه‌بندی احساسات - Helpers پیاده‌سازی واژگان 05:49
  • پروژه کوچک طبقه‌بندی احساسات - پیاده‌سازی واژگان از فایل 06:26
  • پروژه کوچک طبقه‌بندی احساسات - بردارساز 05:17
  • پروژه کوچک طبقه‌بندی احساسات - راه‌اندازی RNN 07:20
  • پروژه کوچک طبقه‌بندی احساسات - راه‌اندازی RNN - بخش 1 21:23
  • RNN در PyTorch - مقدمه‌ RNN در Pytorch 02:04
  • RNN در PyTorch - لایه تعبیه RNN در PyTorch 07:21
  • RNN در PyTorch - بررسی NN در Pytorch Nn Rnn 08:47
  • RNN در PyTorch - شکل‌های خروجی RNN در PyTorch 04:11
  • RNN در PyTorch - بررسی Gatedunits 03:39
  • RNN در PyTorch - بررسی Gatedunits GRU LSTM 03:55
  • RNN در PyTorch - بررسی RNN دوطرفه 02:44
  • RNN در PyTorch - شکل‌های خروجی RNN دوطرفه 04:26
  • RNN در PyTorch - جداسازی شکل‌های خروجی RNN دوطرفه 04:33
  • RNN در PyTorch - مثال RNN در PyTorch 09:48
  • مدل‌های پیشرفته RNN - رمزگذار و رمزگشای RNN 03:01
  • مدل‌های پیشرفته RNN - توجه RNN 03:28
  • ترجمه ماشینی عصبی - آشنایی با مجموعه داده‌ و پکیج‌ها 05:09
  • ترجمه ماشینی عصبی - پیاده‌سازی کلاس زبان 05:22
  • ترجمه ماشینی عصبی - تست و پیاده‌سازی نرمال‌سازی کلاس زبانی 09:44
  • ترجمه ماشینی عصبی - خواندن فایل داده 05:17
  • ترجمه ماشینی عصبی - ایجاد و خواندن واژگان 07:56
  • ترجمه ماشینی عصبی - EncoderRNN 06:14
  • ترجمه ماشینی عصبی - DecoderRNN 06:13
  • ترجمه ماشینی عصبی - DecoderRNN پیشخور 12:08
  • ترجمه ماشینی عصبی - DecoderRNN توابع Helper 04:54
  • ترجمه ماشینی عصبی - ماژول آموزش 13:30
  • ترجمه ماشینی عصبی - گرادیان کاهشی استوکاستیک 07:12
  • ترجمه ماشینی عصبی - آموزش NMT 05:06
  • ترجمه ماشینی عصبی - ارزیابی NMT 11:13
  • مقدمه - مقدمه دوره و مدرس 02:16
  • مقدمه - مقدمه علوم هوش مصنوعی 01:28
  • مقدمه - توضیحات دوره 03:19
  • اصول چت‌بات‌ها برای یادگیری عمیق - مقدمه ماژول 04:10
  • اصول چت‌بات‌ها برای یادگیری عمیق - چت‌بات‌های معمولی در مقابل چت‌بات‌های هوش مصنوعی 05:48
  • اصول چت‌بات‌ها برای یادگیری عمیق - چت‌بات‌های مولد در مقابل چت‌بات‌های بازیاب 04:06
  • اصول چت‌بات‌ها برای یادگیری عمیق - مزایای چت‌بات‌های یادگیری عمیق 04:30
  • اصول چت‌بات‌ها برای یادگیری عمیق - چت‌بات‌ها در حوزه پزشکی 04:35
  • اصول چت‌بات‌ها برای یادگیری عمیق - چت‌بات‌ها در کسب‌وکار 04:36
  • اصول چت‌بات‌ها برای یادگیری عمیق - چت‌بات‌ها در تجارت الکترونیک 02:51
  • معماری و توسعه چت‌بات‌ مبتنی بر یادگیری عمیق - مقدمه ماژول 02:55
  • معماری و توسعه چت‌بات‌ مبتنی بر یادگیری عمیق - معمار یادگیری عمیق 02:18
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - رمزگذار-رمزگشا 01:44
  • معماری و توسعه چت‌بات‌ مبتنی بر یادگیری عمیق - مراحل دخیل 01:56
  • معماری و توسعه چت‌بات‌ مبتنی بر یادگیری عمیق - بررسی پروژه و پکیج‌ها 03:50
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - ایمپورت کتابخانه‌ها 05:19
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - آماده‌سازی داده‌ 06:43
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - توسعه واژگان 05:08
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - حداکثر طول سوال و داستان 03:46
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - Tokenizer 02:58
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - جداسازی و توالی 05:06
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - بردارسازی داستان‌ها 09:35
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - بردارسازی آموزش و داده تست 05:43
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - کدگذاری 06:49
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - سوال و جواب 05:39
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - تکمیل مدل 05:02
  • معماری و توسعه چت‌بات مبتنی بر یادگیری عمیق - پیش‌بینی‌ها 04:26
  • مقدمه - خلاصه دوره 02:22
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - مقدمه ماژول 02:35
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - بررسی 03:32
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - یادگیری عمیق در سیستم‌های توصیه‌گر 03:49
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - استنتاج پس از آموزش 03:02
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - مکانیسم استنتاج 03:09
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - تعبیه‌ها و کانتکس کاربر 05:25
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - فیلترینگ مشارکتی خنثی 03:17
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - فیلترینگ مشارکتی VAE 03:09
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - نقاط قوت و ضعف مدل‌های یادگیری عمیق 03:49
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - آزمون یادگیری عمیق 00:30
  • اصول یادگیری عمیق برای سیستم‌های توصیه‌گر - راه‌حل آزمون یادگیری عمیق 01:52
  • پروژه سیستم توصیه محصول آمازون - بررسی ماژول 01:56
  • پروژه سیستم توصیه محصول آمازون - توصیه‌گرهای تنسورفلو 01:11
  • پروژه سیستم توصیه محصول آمازون - مدل دو برج 02:26
  • پروژه سیستم توصیه محصول آمازون - بررسی پروژه 01:41
  • پروژه سیستم توصیه محصول آمازون - دانلود کتابخانه‌ها 04:08
  • پروژه سیستم توصیه محصول آمازون - مصورسازی داده‌ با WordCloud 08:35
  • پروژه سیستم توصیه محصول آمازون - ساخت تانسورها از دیتافریم‌ 06:07
  • پروژه سیستم توصیه محصول آمازون - نمره‌دهی به داده‌ 06:06
  • پروژه سیستم توصیه محصول آمازون - Train-Test Split تصادفی 05:04
  • پروژه سیستم توصیه محصول آمازون - ساخت مدل و برج کوئری 08:14
  • پروژه سیستم توصیه محصول آمازون - برج داوطلب و سیستم بازیابی 05:56
  • پروژه سیستم توصیه محصول آمازون - محاسبه ضرر 03:04
  • پروژه سیستم توصیه محصول آمازون - آموزش و اعتبارسنجی 10:58
  • پروژه سیستم توصیه محصول آمازون - دقت و توصیه‌ها 08:00
  • پروژه سیستم توصیه محصول آمازون - ارائه پیشنهادها 07:10

25,220,500 5,044,100 تومان

مشخصات آموزش

یادگیری عمیق - مسترکلاس یادگیری عمیق با پایتون

  • تاریخ به روز رسانی: 1404/06/21
  • سطح دوره:همه سطوح
  • تعداد درس:653
  • مدت زمان :63:51:14
  • حجم :25.05GB
  • زبان:دوبله زبان فارسی
  • دوره آموزشی:AI Academy

آموزش های مرتبط

The Great Courses
651,500 130,300 تومان
  • زمان: 01:39:55
  • تعداد درس: 6
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,889,000 377,800 تومان
  • زمان: 04:47:39
  • تعداد درس: 30
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,501,000 300,200 تومان
  • زمان: 03:48:11
  • تعداد درس: 47
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
10,289,500 2,057,900 تومان
  • زمان: 26:03:06
  • تعداد درس: 121
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
490,000 98,000 تومان
  • زمان: 54:55
  • تعداد درس: 18
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,797,000 359,400 تومان
  • زمان: 04:33:59
  • تعداد درس: 86
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
2,659,500 531,900 تومان
  • زمان: 06:44:45
  • تعداد درس: 35
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
7,300,500 1,460,100 تومان
  • زمان: 18:29:24
  • تعداد درس: 115
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
2,113,000 422,600 تومان
  • زمان: 05:21:41
  • تعداد درس: 51
  • سطح دوره:
  • زبان: دوبله فارسی

آیا سوالی دارید؟

ما به شما کمک خواهیم کرد تا شغل و رشد خود را افزایش دهید.
امروز با ما تماس بگیرید