یادگیری عمیق - مسترکلاس یادگیری عمیق با پایتون
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- پروژههای عملی - مشارکت در پروژههای کاربردی شامل تحلیل تصویر، ترجمه زبان، ساخت چتبات و سیستمهای توصیهگر
- اصول یادگیری عمیق - درک اصول اساسی یادگیری عمیق و کاربردهای آن در حوزههای مختلف
- شبکههای عصبی کانولوشن (CNN) - تسلط به پردازش تصویر، تشخیص آبجکت و معماریهای پیشرفته CNN مانند LeNet و AlexNet و ResNet
- شبکههای عصبی بازگشتی (RNN) و مدلسازی دنباله - بررسی پردازش دنباله، درک زبانی و انواع مدرن RNN مثل LSTM
- ملزومات پردازش زبان طبیعی (NLP) - آشنایی با پیشپردازش متن، تعبیه کلمات و کاربردهای یادگیری عمیق در درک زبان
- یکپارچهسازی و کاربرد - ترکیب دانش از ماژولهای مختلف برای توسعه راهحلهای جامع یادگیری عمیق از طریق پروژه capstone
توضیحات دوره
به دوره جامع و تخصصی یادگیری عمیق خوش آمدید! این دوره شامل شش ماژول است که هرکدام به بررسی عمیق جنبههای مختلف یادگیری عمیق با پایتون میپردازد. چه شما مبتدی باشید که به دنبال پایهای قوی هستید و چه یادگیرنده سطح متوسط که میخواهید مهارتهای خود را ارتقا دهید، این دوره بینشهای کاربردی، دانش نظری و پروژههای عملی را ارائه میکند تا نیازهای شما را برطرف کند.
چه کسانی باید این دوره را بگذرانند؟
- مبتدیانی که علاقهمند به ورود به دنیای یادگیری عمیق با پایتون هستند.
- یادگیرندگان سطح متوسط که میخواهند مهارتهای یادگیری عمیق خود را افزایش دهند.
- کسی که قصد دارد مفاهیم یادگیری عمیق را در پروژههای واقعی درک کرده و به کار گیرد.
چرا این دوره؟
این دوره منبعی جامع است که دامنه وسیعی از مباحث یادگیری عمیق را پوشش میدهد و برای یادگیرندگان در سطوح مختلف مناسب است. از مبانی تا مفاهیم پیشرفته، در این دوره درک کاملی از یادگیری عمیق با پایتون از طریق کاربردهای عملی خواهید داشت.
آنچه یاد خواهید گرفت:
ماژول 1 - اصول یادگیری عمیق با پایتون
- آشنایی با یادگیری عمیق
- مبانی پایتون برای یادگیری عمیق
- پیشپردازش داده برای الگوریتمهای یادگیری عمیق
- مفاهیم عمومی یادگیری ماشین
ماژول 2 - بررسی عمیق شبکههای عصبی کانولوشن (CNN)
- درک عمیق CNNs
- تکنیکهای کلاسیک بینایی کامپیوتری
- مبانی شبکههای عصبی عمیق
- معماریهایی مانند LeNet و AlexNet و InceptionNet و ResNet
- یادگیری انتقالی و مطالعه موردی YOLO
ماژول 3 - شبکههای عصبی بازگشتی (RNN) و مدلسازی دنباله
- بررسی RNNs
- کاربردها و اهمیت RNNs
- پرداختن به محوشدگی گرادیان در RNNs
- RNNs مدرن - LSTM و RNNsدوطرفه و مدلهای توجه
- پیادهسازی RNNs با تنسورفلو
ماژول 4 - اصول پردازش زبان طبیعی (NLP)
- تسلط به NLP
- اصول و اهمیت NLP
- تکنیکهای پیشپردازش متن
- تعبیه کلمات - Word2Vec و GloVe و BERT
- یادگیری عمیق در NLP - شبکههای عصبی، RNNs و مدلهای پیشرفته
ماژول 5 - توسعه چتباتها با استفاده از یادگیری عمیق
- ساخت سیستمهای چتبات
- اصول یادگیری عمیق برای چتباتها
- مقایسه چتباتهای سنتی و مبتنی بر یادگیری عمیق
- پیادهسازی عملی چتباتهای مبتنی بر RNN
- پکیج کامل - پروژهها و مدلهای پیشرفته
ماژول 6 - سیستمهای توصیهگر با یادگیری عمیق
- کاربردهای سیستمهای توصیهگر
- نقش یادگیری عمیق در سیستمهای توصیهگر
- مزایا و چالشها
- توسعه سیستمهای توصیهگر با تنسورفلو
- پروژه واقعی - سیستم پیشنهاد محصول آمازون
پروژه Capstone
- یکپارچهسازی و کاربرد دانش
- پروژه عملی - توسعه یک راهحل جامع یادگیری عمیق
- ارزیابی و سنجش نهایی
این دوره جامع ملزومات یادگیری عمیق را با پوشش CNNs و RNNs و NLP، چتباتها و سیستمهای توصیهگر در پیادهسازیهای مبتنی بر پایتون ارائه میدهد. هماکنون در دوره شرکت کنید تا در حوزههای مختلف یادگیری عمیق از طریق پروژههای عملی و دانش نظری متخصص شوید.
کلیدواژهها و مهارتها:
- تسلط به یادگیری عمیق
- دوره یادگیری عمیق پایتون
- آموزش CNNs و RNNs
- مبانی NLP
- کارگاه توسعه چتبات
- سیستمهای توصیهگر با تنسورفلو
- دوره هوش مصنوعی برای مبتدیان
- پروژههای عملی یادگیری عمیق
- برنامهنویسی پایتون برای هوش مصنوعی
- برنامه درسی جامع یادگیری عمیق
این دوره برای چه کسانی مناسب است؟
- دانشمندان مشتاق داده - افرادی که قصد تخصص در یادگیری عمیق و گسترش دانش در کاربردهای هوش مصنوعی را دارند.
- برنامهنویسان و توسعهدهندگان - کسانی که میخواهند وارد حوزه هوش مصنوعی شده و از پایتون در پروژههای یادگیری عمیق استفاده کنند.
- علاقهمندان به هوش مصنوعی و یادگیرندگان - کسی که دغدغه درک CNNs و RNNs و NLP، چتباتها و سیستمهای توصیهگر را دارد.
- دانشجویان و پژوهشگران - افرادی که در زمینههای یادگیری ماشین و هوش مصنوعی تحقیق و آموزش میکنند.
- حرفهایهای در حال تغییر مسیر شغلی - کسانی که میخواهند به هوش مصنوعی و یادگیری عمیق وارد شده یا در آن پیشرفت کنند.
- علاقهمندان به فناوری - کسانی که میخواهند فناوریهای نوین و کاربردهای هوش مصنوعی را بررسی کنند.
یادگیری عمیق - مسترکلاس یادگیری عمیق با پایتون
-
مقدمه - آشنایی با مدرس 02:53
-
مقدمه - آشنایی با دوره 03:36
-
مبانی یادگیری عمیق - حل مسئله - بخش 1 02:00
-
مبانی یادگیری عمیق - حل مسئله - بخش 2 02:26
-
مبانی یادگیری عمیق - حل مسئله - بخش 3 01:42
-
مبانی یادگیری عمیق - معادله خطی 03:18
-
مبانی یادگیری عمیق - معادله خطی برداری 03:00
-
مبانی یادگیری عمیق - فضای ویژگی سهبعدی 03:46
-
مبانی یادگیری عمیق - فضای N بعدی 02:30
-
مبانی یادگیری عمیق - تئوری پرسپترون 01:45
-
مبانی یادگیری عمیق - پیادهسازی پرسپترون اولیه 05:37
-
مبانی یادگیری عمیق - دروازههای منطقی برای پرسپترونها 02:46
-
مبانی یادگیری عمیق - آموزش پرسپترون - بخش 1 01:39
-
مبانی یادگیری عمیق - آموزش پرسپترون - بخش 2 03:40
-
مبانی یادگیری عمیق - نرخ یادگیری 03:14
-
مبانی یادگیری عمیق - آموزش پرسپترون - بخش 3 03:31
-
مبانی یادگیری عمیق - الگوریتم پرسپترون 01:00
-
مبانی یادگیری عمیق - کدنویسی الگوریتم پرسپترون (خواندن داده و مصورسازی) 07:22
-
مبانی یادگیری عمیق - کدنویسی الگوریتم پرسپترون (مرحله پرسپترون) 07:22
-
مبانی یادگیری عمیق - کدنویسی الگوریتم پرسپترون (آموزش پرسپترون) 06:42
-
مبانی یادگیری عمیق - کدنویسی الگوریتم پرسپترون (مصورسازی نتایج) 03:53
-
مبانی یادگیری عمیق - مسئله با راهحلهای خطی 02:32
-
مبانی یادگیری عمیق - راهحل مسئله 01:03
-
مبانی یادگیری عمیق - توابع خطا 02:21
-
مبانی یادگیری عمیق - تابع خطای گسسته در مقابل پیوسته 02:25
-
مبانی یادگیری عمیق - تابع سیگموید 03:01
-
مبانی یادگیری عمیق - مشکل چندکلاسه 01:17
-
مبانی یادگیری عمیق - مشکل امتیازات منفی 03:02
-
مبانی یادگیری عمیق - نیاز به Softmax 01:22
-
مبانی یادگیری عمیق - کدنویسی Softmax 04:05
-
مبانی یادگیری عمیق - کدگذاری One Hot 02:40
-
مبانی یادگیری عمیق - بیشینه درستنمایی - بخش 1 05:30
-
مبانی یادگیری عمیق - بیشینه درستنمایی - بخش 2 03:47
-
مبانی یادگیری عمیق - انتروپی متقاطع 04:06
-
مبانی یادگیری عمیق - فرمولاسیون انتروپی متقاطع 07:38
-
مبانی یادگیری عمیق - انتروپی متقاطع چندکلاسه 03:51
-
مبانی یادگیری عمیق - پیادهسازی انتروپی متقاطع 04:14
-
مبانی یادگیری عمیق - پیادهسازی تابع سیگموید 00:57
-
مبانی یادگیری عمیق - پیادهسازی تابع خروجی 02:10
-
یادگیری عمیق - آشنایی با گرادیان کاهشی 05:21
-
یادگیری عمیق - توابع محدب 02:31
-
یادگیری عمیق - استفاده از مشتقات 03:12
-
یادگیری عمیق - گرادیان کاهشی چگونه کار میکند؟ 03:34
-
یادگیری عمیق - گام گرادیان 01:54
-
یادگیری عمیق - الگوریتم رگرسیون لجستیک 01:37
-
یادگیری عمیق - خواندن و مصورسازی داده 06:10
-
یادگیری عمیق - بروزرسانی وزنها در پایتون 04:14
-
یادگیری عمیق - پیادهسازی رگرسیون لجستیک 12:44
-
یادگیری عمیق - مصورسازی و نتایج 08:43
-
یادگیری عمیق - گرادیان کاهشی در مقابل پرسپترون 04:35
-
یادگیری عمیق - مرزهای خطی به غیرخطی 04:42
-
یادگیری عمیق - ترکیب احتمالات 02:07
-
یادگیری عمیق - مجموعهای وزنی 03:01
-
یادگیری عمیق - معماری شبکه عصبی 12:09
-
یادگیری عمیق - لایهها و شبکههای عمیق 04:44
-
یادگیری عمیق - طبقهبندی چندکلاسه 02:48
-
یادگیری عمیق - مبانی پیشخور 07:50
-
یادگیری عمیق - پیشخور برای شبکه عمیق 04:57
-
یادگیری عمیق - بررسی الگوریتم یادگیری عمیق 01:57
-
یادگیری عمیق - مبانی پس انتشار 06:32
-
یادگیری عمیق - بروزرسانی وزنها 02:46
-
یادگیری عمیق - قاعده زنجیرهای برای پس انتشار 05:53
-
یادگیری عمیق - سیگما پرایم 02:23
-
یادگیری عمیق - پیادهسازی شبکه عصبی تحلیل داده 05:25
-
یادگیری عمیق - کدگذاری One Hot (پیادهسازی شبکه عصبی) 03:11
-
یادگیری عمیق - مقیاسبندی داده (پیادهسازی شبکه عصبی) 01:47
-
یادگیری عمیق - تقسیم داده (پیادهسازی شبکه عصبی) 04:55
-
یادگیری عمیق - توابع Helper (پیادهسازی شبکه عصبی) 02:18
-
یادگیری عمیق - آموزش (پیادهسازی شبکه عصبی) 12:25
-
یادگیری عمیق - تست (پیادهسازی شبکه عصبی) 03:21
-
بهینهسازیها - کمبرازش در مقابل بیشبرازش 05:19
-
بهینهسازیها - توقف زودهنگام 03:51
-
بهینهسازیها - آزمون 00:58
-
بهینهسازیها - راهحل و منظمسازی 05:59
-
بهینهسازیها - منظمسازی L1 و L2 03:12
-
بهینهسازیها - Dropout 02:59
-
بهینهسازیها - مشکل کمینه محلی 02:55
-
بهینهسازیها - راهحل ریاستارت تصادفی 04:27
-
بهینهسازیها - سایر توابع فعالسازی 03:19
-
پروژه نهایی - بخش 1 11:19
-
پروژه نهایی - بخش 2 13:16
-
پروژه نهایی - بخش 3 12:58
-
پروژه نهایی - بخش 4 12:19
-
پروژه نهایی - بخش 5 08:06
-
مقدمه - مقدمه مدرس 02:19
-
مقدمه - چرا CNN؟ 07:00
-
مقدمه - تمرکز دوره 07:12
-
پردازش تصویر - تصاویر Gray Scale 07:21
-
پردازش تصویر - آزمون تصاویر Gray Scale 00:27
-
پردازش تصویر - راهحل تصاویر Gray Scale 00:48
-
پردازش تصویر - تصاویر RGB 07:35
-
پردازش تصویر - آزمون تصاویر RGB 00:35
-
پردازش تصویر - راهحل تصاویر RGB 00:45
-
پردازش تصویر - خواندن و نمایش تصاویر در پایتون 09:24
-
پردازش تصویر - آزمون خواندن و نمایش تصاویر در پایتون 00:22
-
پردازش تصویر - راهحل خواندن و نمایش تصاویر در پایتون 00:30
-
پردازش تصویر - تبدیل تصویر به Grayscale در پایتون 07:55
-
پردازش تصویر - آزمون تبدیل تصویر به Grayscale در پایتون 00:35
-
پردازش تصویر - راهحل تبدیل تصویر به Grayscale در پایتون 00:58
-
پردازش تصویر - تشکیل تصویر 05:37
-
پردازش تصویر - آزمون تشکیل تصویر 00:31
-
پردازش تصویر - راهحل تشکیل تصویر 00:33
-
پردازش تصویر - تار کردن تصویر - بخش 1 10:46
-
پردازش تصویر - آزمون تار کردن تصویر - بخش 1 00:43
-
پردازش تصویر - راهحل تار کردن تصویر - بخش 1 00:29
-
پردازش تصویر - تار کردن تصویر - بخش 2 08:23
-
پردازش تصویر - آزمون تار کردن تصویر - بخش 2 00:29
-
پردازش تصویر - راهحل تار کردن تصویر - بخش 2 00:47
-
پردازش تصویر - فیلترینگ عمومی تصویر 04:48
-
پردازش تصویر - کانولوشن 05:13
-
پردازش تصویر - تشخیص لبه 06:43
-
پردازش تصویر - شارپ کردن تصویر 03:40
-
پردازش تصویر - پیادهسازی تار کردن تصویر، تشخیص لبه و شارپ کردن تصویر در پایتون 16:54
-
پردازش تصویر - تشخیص شکل پارامتریک 07:41
-
پردازش تصویر - فعالیت پردازش تصویر 03:48
-
پردازش تصویر - راهحل فعالیت پردازش تصویر 12:03
-
تشخیص آبجکت - آشنایی با تشخیص آبجکت 06:38
-
تشخیص آبجکت - پایپلاین طبقهبندی 10:59
-
تشخیص آبجکت - آزمون پایپلاین طبقهبندی 00:23
-
تشخیص آبجکت - راهحل پایپلاین طبقهبندی 00:40
-
تشخیص آبجکت - پیادهسازی پنجره کشویی 07:19
-
تشخیص آبجکت - تغییرناپذیری چرخش Shift Scale 09:41
-
تشخیص آبجکت - تمرین تغییرناپذیری چرخش Shift Scale 15:38
-
تشخیص آبجکت - تشخیص شخص 09:42
-
تشخیص آبجکت - ویژگیهای HOG 07:02
-
تشخیص آبجکت - تمرین ویژگیهای HOG 10:49
-
تشخیص آبجکت - مهندسی دست در مقابل CNNs 08:40
-
تشخیص آبجکت - فعالیت تشخیص آبجکت 04:51
-
بررسی شبکه عصبی عمیق - نورون و پرسپترون 10:39
-
بررسی شبکه عصبی عمیق - معماری DNN 07:30
-
بررسی شبکه عصبی عمیق - آزمون معماری DNN 00:49
-
بررسی شبکه عصبی عمیق - راهحل معماری DNN 01:11
-
بررسی شبکه عصبی عمیق - MLP پیشخور کاملاً متصل 04:26
-
بررسی شبکه عصبی عمیق - محاسبه تعداد وزنهای DNN 06:04
-
بررسی شبکه عصبی عمیق - آزمون محاسبه تعداد وزنهای DNN 00:22
-
بررسی شبکه عصبی عمیق - راهحل محاسبه تعداد وزنهای DNN 00:58
-
بررسی شبکه عصبی عمیق - تعداد نورونها در مقابل تعداد لایهها 08:26
-
بررسی شبکه عصبی عمیق - یادگیری تشخیصی و مولد 05:11
-
بررسی شبکه عصبی عمیق - قضیه تقریب جهانی 06:20
-
بررسی شبکه عصبی عمیق - چرا عمق؟ 04:14
-
بررسی شبکه عصبی عمیق - مرز تصمیمگیری در DNN 05:48
-
بررسی شبکه عصبی عمیق - آزمون مرز تصمیمگیری در DNN 00:52
-
بررسی شبکه عصبی عمیق - راهحل مرز تصمیمگیری در DNN 02:46
-
بررسی شبکه عصبی عمیق - BiasTerm 05:12
-
بررسی شبکه عصبی عمیق - آزمون BiasTerm 00:28
-
بررسی شبکه عصبی عمیق - راهحل BiasTerm 00:52
-
بررسی شبکه عصبی عمیق - تابع فعالسازی 08:13
-
بررسی شبکه عصبی عمیق - آزمون تابع فعالسازی 00:35
-
بررسی شبکه عصبی عمیق - راهحل تابع فعالسازی 01:11
-
بررسی شبکه عصبی عمیق - پارامترهای آموزش DNN 11:00
-
بررسی شبکه عصبی عمیق - آزمون پارامترهای آموزش DNN 00:36
-
بررسی شبکه عصبی عمیق - راهحل پارامترهای آموزش DNN 00:42
-
بررسی شبکه عصبی عمیق - گرادیان کاهشی 08:11
-
بررسی شبکه عصبی عمیق - پس انتشار 11:07
-
بررسی شبکه عصبی عمیق - آموزش انیمیشن DNN 03:41
-
بررسی شبکه عصبی عمیق - مقداردهی اولیه وزن 09:24
-
بررسی شبکه عصبی عمیق - آزمون مقداردهی اولیه وزن 00:38
-
بررسی شبکه عصبی عمیق - راهحل مقداردهی اولیه وزن 01:01
-
بررسی شبکه عصبی عمیق - گرادیان کاهشی استوکاستیک دستهای miniBatch 08:34
-
بررسی شبکه عصبی عمیق - نرمالسازی دستهای 05:28
-
بررسی شبکه عصبی عمیق - Rprop و مومنتوم 12:26
-
بررسی شبکه عصبی عمیق - آزمون Rprop و مومنتوم 01:05
-
بررسی شبکه عصبی عمیق - راهحل Rprop و مومنتوم 01:14
-
بررسی شبکه عصبی عمیق - انیمیشن همگرایی 03:39
-
بررسی شبکه عصبی عمیق - DropOut، توقف زودهنگام و هایپرپارامترها 13:38
-
بررسی شبکه عصبی عمیق - آزمون DropOut، توقف زودهنگام و هایپرپارامترها 01:08
-
بررسی شبکه عصبی عمیق - راهحل DropOut، توقف زودهنگام و هایپرپارامترها 02:20
-
معماری شبکه عصبی عمیق - بازبینی کانولوشن 08:16
-
معماری شبکه عصبی عمیق - بازبینی پیادهسازی کانولوشن در پایتون 07:07
-
معماری شبکه عصبی عمیق - چرا کانولوشن؟ 07:02
-
معماری شبکه عصبی عمیق - فیلترهای Padding Strides 08:04
-
معماری شبکه عصبی عمیق - تصویر Padding 10:36
-
معماری شبکه عصبی عمیق - تانسورهای Pooling 06:24
-
معماری شبکه عصبی عمیق - مثال CNN 07:04
-
معماری شبکه عصبی عمیق - جزئیات کانولوشن و Pooling 08:30
-
معماری شبکه عصبی عمیق - تمرین Maxpooling 04:11
-
معماری شبکه عصبی عمیق - پیادهسازیهای غیربرداری Conv2d و Pool2d 18:58
-
معماری شبکه عصبی عمیق - فعالیت معماری شبکه عصبی عمیق 02:28
-
گرادیان کاهشی در CNNs - راهاندازی مثال 09:15
-
گرادیان کاهشی در CNNs - چرا مشتقات؟ 10:28
-
گرادیان کاهشی در CNNs - آزمون چرا مشتقات؟ 00:54
-
گرادیان کاهشی در CNNs - راهحل چرا مشتقات؟ 03:05
-
گرادیان کاهشی در CNNs - قاعده زنجیرهای چیست؟ 07:58
-
گرادیان کاهشی در CNNs - اعمال قاعده زنجیرهای 09:05
-
گرادیان کاهشی در CNNs - گرادیانهای لایه MaxPooling 08:20
-
گرادیان کاهشی در CNNs - آزمون گرادیانهای لایه MaxPooling 00:57
-
گرادیان کاهشی در CNNs - راهحل گرادیانهای لایه MaxPooling 01:48
-
گرادیان کاهشی در CNNs - گرادیانهای لایه کانولوشن 09:01
-
گرادیان کاهشی در CNNs - گسترش به فیلترهای چندگانه 05:25
-
گرادیان کاهشی در CNNs - گسترش به لایههای چندگانه 06:50
-
گرادیان کاهشی در CNNs - آزمون گسترش چندلایه 01:24
-
گرادیان کاهشی در CNNs - راهحل گسترش چندلایه 05:40
-
گرادیان کاهشی در CNNs - پیادهسازی در Numpy - معرفی ForwardPass 08:20
-
گرادیان کاهشی در CNNs - پیادهسازی در Numpy - معرفی BackwardPass - بخش 1 06:47
-
گرادیان کاهشی در CNNs - پیادهسازی در Numpy - معرفی BackwardPass - بخش 2 04:36
-
گرادیان کاهشی در CNNs - پیادهسازی در Numpy - معرفی BackwardPass - بخش 3 09:07
-
گرادیان کاهشی در CNNs - پیادهسازی در Numpy - معرفی BackwardPass - بخش 4 12:20
-
گرادیان کاهشی در CNNs - پیادهسازی در Numpy - معرفی BackwardPass - بخش 5 19:41
-
گرادیان کاهشی در CNNs - گرادیان کاهشی در CNNs - فعالیت 02:00
-
آشنایی با تنسورفلو - مقدمه 09:57
-
آشنایی با تنسورفلو - برنامه مثال FashionMNIST - شبکه عصبی 22:44
-
آشنایی با تنسورفلو - FashionMNIST - مثال CNN 20:04
-
آشنایی با تنسورفلو - فعالیت 01:24
-
CNNs کلاسیک - LeNet 07:24
-
CNNs کلاسیک - LeNet - آزمون 01:05
-
CNNs کلاسیک - LeNet - راهحل 01:50
-
CNNs کلاسیک - AlexNet 09:31
-
CNNs کلاسیک - InceptionNet 08:11
-
CNNs کلاسیک - Resnet 09:56
-
CNNs کلاسیک - فعالیت 01:39
-
یادگیری انتقالی چیست؟ 05:02
-
یادگیری انتقالی - نکات عملی 07:10
-
یادگیری انتقالی - پروژه در تنسورفلو 38:03
-
یادگیری انتقالی - چالش ImageNet 03:53
-
یادگیری انتقالی - فعالیت 01:11
-
Yolo - بازبینی طبقهبندی تصویر 05:05
-
Yolo - محلیسازی آبجکت پنجره کشویی 06:36
-
YOLO: پیادهسازی کارآمد پنجره کشویی 06:59
-
Yolo - مقدمه Yolo 07:07
-
Yolo - تولید داده آموزش Yolo 06:15
-
Yolo - انکر باکسهای Yolo 08:34
-
Yolo - الگوریتم Yolo 06:06
-
Yolo - سرکوب غیرحداکثری Yolo 05:22
-
Yolo - بررسی RCNN 04:10
-
Yolo - فعالیت Yolo 01:45
-
اعتبارسنجی چهره - راهاندازی مسئله 06:35
-
اعتبارسنجی چهره - پیادهسازی پروژه 21:27
-
اعتبارسنجی چهره - فعالیت اعتبارسنجی چهره 00:57
-
انتقال سبک با شبکههای عصبی - راهاندازی مسئله 10:32
-
انتقال سبک با شبکههای عصبی - پیادهسازی هاب تنسورفلو 08:44
-
مقدمه - آشنایی با مدرس و Aisciences 12:18
-
مقدمه - آشنایی با مدرس 02:19
-
مقدمه - تمرکز دوره 08:55
-
کاربردهای RNN (انگیزه) - تشخیص فعالیت انسانی 08:05
-
کاربردهای RNN (انگیزه) - ایجاد کپشن برای تصویر 05:50
-
کاربردهای RNN (انگیزه) - ترجمه ماشینی 07:56
-
کاربردهای RNN (انگیزه) - تشخیص گفتار 05:31
-
کاربردهای RNN (انگیزه) - پیشبینیهای قیمت سهام 05:57
-
کاربردهای RNN (انگیزه) - چه زمانی باید RNN را مدلسازی کرد؟ 18:47
-
کاربردهای RNN (انگیزه) - فعالیت 03:19
-
بررسی DNN - چرا PyTorch؟ 04:17
-
بررسی DNN - نصب PyTorch و مقدمه تانسورها 10:32
-
بررسی DNN - مشتقگیری خودکار، یک ویژگی جدید در Pytorch 07:36
-
بررسی DNN - چرا DNNs در یادگیری ماشین؟ 04:13
-
بررسی DNN - قدرت بازنمایی و قابلیتهای استفاده از داده DNN 07:13
-
بررسی DNN - پرسپترون 05:08
-
بررسی DNN - تمرین پرسپترون 02:36
-
بررسی DNN - راهحل تمرین پرسپترون 03:16
-
بررسی DNN - پیادهسازی پرسپترون 07:26
-
بررسی DNN - معماری DNN 03:52
-
بررسی DNN - تمرین معماری DNN 02:06
-
بررسی DNN - راهحل تمرین معماری DNN 04:33
-
بررسی DNN - پیادهسازی DNN ForwardStep 08:21
-
بررسی DNN - چرا DNN به یک تابع فعالسازی نیاز دارد؟ 04:47
-
بررسی DNN - تمرین چرا DNN به یک تابع فعالسازی نیاز دارد؟ 01:48
-
بررسی DNN - راهحل تمرین چرا DNN به یک تابع فعالسازی نیاز دارد؟ 03:39
-
بررسی DNN - ویژگیهای تابع فعالسازی DNN 06:04
-
بررسی DNN - توابع فعالسازی DNN در Pytorch 03:49
-
بررسی DNN - تابع ضرر چیست؟ 07:10
-
بررسی DNN تابع ضرر چیست؟ - تمرین 00:58
-
بررسی DNN - تابع ضرر چیست؟ - راهحل تمرین 04:25
-
بررسی DNN - تابع ضرر چیست؟ - تمرین 2 00:54
-
بررسی DNN - تابع ضرر چیست؟ - راهحل تمرین 2 03:15
-
بررسی DNN - تابع ضرر DNN در Pytorch 05:45
-
بررسی DNN - گرادیان کاهشی DNN 05:58
-
بررسی DNN - تمرین گرادیان کاهشی DNN 03:02
-
بررسی DNN - راهحل تمرین گرادیان کاهشی DNN 04:15
-
بررسی DNN - پیادهسازی گرادیان کاهشی DNN 06:51
-
بررسی DNN - گرادیان کاهشی DNN استوکاستیک دستهای Minibatch 07:07
-
بررسی DNN - پیادهسازی DNN - گام گرادیان 04:02
-
بررسی DNN - پیادهسازی DNN - گرادیان کاهشی استوکاستیک 13:53
-
بررسی DNN - خلاصه گرادیان کاهشی DNN 02:37
-
بررسی DNN - پیادهسازی DNN - گرادیان کاهشی دستهای 06:46
-
بررسی DNN - پیادهسازی DNN - گرادیان کاهشی Minibatch 09:04
-
بررسی DNN - پیادهسازی DNN در PyTorch 15:19
-
بررسی DNN - مقداردهی اولیه وزن DNN 04:35
-
بررسی DNN - نرخ یادگیری DNN 04:03
-
بررسی DNN - نرمالسازی دستهای DNN 02:05
-
بررسی DNN - پیادهسازی نرمالسازی دستهای DNN 02:41
-
بررسی DNN - بهینهسازیهای DNN 04:08
-
بررسی DNN - بررسی DNN Dropout 03:58
-
بررسی DNN - بررسی DNN Dropout در PyTorch 02:03
-
بررسی DNN - توقف زودهنگام DNN 03:34
-
بررسی DNN - هایپرپارامترهای DNN 03:33
-
معماری RNN - آشنایی با ماژول 05:41
-
معماری RNN - مدل حافظه با طول ثابت 10:06
-
معماری RNN - تمرین مدل حافظه با طول ثابت 00:46
-
معماری RNN - راهحل تمرین مدل حافظه با طول ثابت - بخش 1 03:37
-
معماری RNN - راهحل تمرین مدل حافظه با طول ثابت - بخش 2 03:54
-
معماری RNN - معماری حافظه بی نهایت 10:43
-
معماری RNN - تمرین معماری حافظه بی نهایت 01:06
-
معماری RNN - راهحل معماری حافظه بی نهایت 04:45
-
معماری RNN - اشتراکگذاری وزن 14:51
-
معماری RNN - حاشیهنویسیها 08:49
-
معماری RNN - مدل ManyToMany 11:57
-
معماری RNN - تمرین مدل ManyToMany - بخش 1 02:05
-
معماری RNN - راهحل مدل ManyToMany - بخش 1 02:40
-
معماری RNN - تمرین مدل ManyToMany - بخش 2 00:49
-
معماری RNN - راهحل مدل ManyToMany - بخش 2 03:20
-
معماری RNN - مدل ManyToOne 07:56
-
معماری RNN - تمرین مدل OneToMany 00:32
-
معماری RNN - راهحل مدل OneToMany 02:31
-
معماری RNN - مدل OneToMany 05:56
-
معماری RNN - تمرین مدل ManyToOne 01:49
-
معماری RNN - راهحل مدل ManyToOne 01:22
-
معماری RNN - فعالیت - Many to One 06:47
-
معماری RNN - فعالیت تمرین رابط Many to One 00:40
-
معماری RNN - فعالیت راهحل تمرین رابطه Many to One 01:50
-
معماری RNN - مدل اندازههای مختلف ManyToMany 09:07
-
معماری RNN - فعالیت - Many to Many در Nmt 04:50
-
معماری RNN - خلاصه مدلها 03:33
-
معماری RNN - بررسی RNNs عمیق 08:12
-
معماری RNN - تمرین بررسی RNNs عمیق 00:51
-
معماری RNN - راهحل بررسی RNNs عمیق 02:50
-
گرادیان کاهشی در RNN - مقدمه ماژول گرادیان کاهشی 07:51
-
گرادیان کاهشی در RNN - راهاندازی مثال 08:20
-
گرادیان کاهشی در RNN - معادلات 06:03
-
گرادیان کاهشی در RNN - تمرین معادلات 01:45
-
گرادیان کاهشی در RNN - راهحل معادلات 02:13
-
گرادیان کاهشی در RNN - تابع ضرر 08:06
-
گرادیان کاهشی در RNN - چرا گرادیانها؟ 06:06
-
گرادیان کاهشی در RNN - تمرین چرا گرادیانها؟ 00:26
-
گرادیان کاهشی در RNN - راهحل تمرین چرا گرادیانها؟ 02:49
-
گرادیان کاهشی در RNN - قاعده زنجیرهای 07:28
-
گرادیان کاهشی در RNN - قاعده زنجیرهای در عمل 05:58
-
گرادیان کاهشی در RNN - پس انتشار در طول زمان 09:37
-
گرادیان کاهشی در RNN - فعالیت 02:18
-
پیادهسازی RNN - مشتقگیری خودکار 04:07
-
پیادهسازی RNN - مشتقگیری خودکار در Pytorch 08:26
-
پیادهسازی RNN - مدلسازی زبان، پیشبینی کلمه بعدی و ایندکس واژگان 04:04
-
پیادهسازی RNN - مدلسازی زبان، پیشبینی کلمه بعدی و تعبیه ایندکس واژگان 03:16
-
پیادهسازی RNN - مدلسازی زبان، پیشبینی کلمه بعدی و معماری RNN 04:08
-
پیادهسازی RNN - مدلسازی زبان و پیشبینی کلمه بعدی با پایتون - بخش 1 07:12
-
پیادهسازی RNN - مدلسازی زبان و پیشبینی کلمه بعدی با پایتون - بخش 2 09:02
-
پیادهسازی RNN - مدلسازی زبان و پیشبینی کلمه بعدی با پایتون - بخش 3 07:27
-
پیادهسازی RNN - مدلسازی زبان و پیشبینی کلمه بعدی با پایتون - بخش 4 05:33
-
پیادهسازی RNN - مدلسازی زبان و پیشبینی کلمه بعدی با پایتون - بخش 5 04:35
-
پیادهسازی RNN - مدلسازی زبان و پیشبینی کلمه بعدی با پایتون - بخش 6 13:34
-
طبقهبندی احساسات با استفاده از RNN - پیادهسازی واژگان 09:46
-
طبقهبندی احساسات با استفاده از RNN - بررسی Helpers پیادهسازی واژگان 05:49
-
طبقهبندی احساسات با استفاده از RNN - پیادهسازی واژگان از فایل 06:26
-
طبقهبندی احساسات با استفاده از RNN - بردارساز 05:17
-
طبقهبندی احساسات با استفاده از RNN - راهاندازی RNN - بخش 1 07:20
-
طبقهبندی احساسات با استفاده از RNN - راهاندازی RNN - بخش 2 03:27
-
طبقهبندی احساسات با استفاده از RNN - بررسی WhatNext 03:27
-
محوشدگی گرادیان در RNN - آشنایی با ماژول RNNs بهتر 07:22
-
محوشدگی گرادیان در RNN - مقدمه محوشدگی گرادیان در RNN 07:52
-
محوشدگی گرادیان در RNN - بررسی GRU 11:59
-
محوشدگی گرادیان در RNN - بررسی GRU (اختیاری) 06:08
-
محوشدگی گرادیان در RNN - بررسی LSTM 08:44
-
محوشدگی گرادیان در RNN - بررسی LSTM - اختیاری 06:04
-
محوشدگی گرادیان در RNN - RNN دوطرفه 08:23
-
محوشدگی گرادیان در RNN - مدل توجه 10:30
-
محوشدگی گرادیان در RNN - مدل توجه - اختیاری 06:34
-
تنسورفلو - آشنایی با تنسورفلو 09:57
-
تنسورفلو - مثال طبقهبندی متن تنسورفلو با استفاده از RNN 25:55
-
پروژه 1 - نویسنده کتاب - مقدمه 12:15
-
پروژه 1 - نویسنده کتاب - نگاشت داده 14:59
-
پروژه 1 - نویسنده کتاب - مدلسازی معماری RNN 17:52
-
پروژه 1 - نویسنده کتاب - مدلسازی مدل RNN در تنسورفلو 11:15
-
پروژه 1 - نویسنده کتاب - مدلسازی آموزش مدل RNN 07:46
-
پروژه 1 - نویسنده کتاب - مدلسازی تولید متن مدل RNN 13:28
-
پروژه 1 - نویسنده کتاب - فعالیت 07:44
-
پروژه 2 - پیشبینی قیمت سهام - بیان مسئله 06:06
-
پروژه 2 - پیشبینی قیمت سهام - مجموعه داده 11:53
-
پروژه 2 - پیشبینی قیمت سهام - آمادهسازی داده 19:06
-
پروژه 2 - پیشبینی قیمت سهام - آموزش و ارزیابی مدل RNN 20:05
-
پروژه 2 - پیشبینی قیمت سهام - فعالیت 06:15
-
مطالب و منابع بیشتر - بخش 1 10:30
-
مقدمه - آشنایی با دوره 00:55
-
مقدمه - آشنایی با مدرس 05:44
-
مقدمه - آشنایی با کمک مدرس 01:30
-
مقدمه - مقدمه دوره 11:16
-
مقدمه (عبارات منظم) - عبارت منظم چیست؟ 05:56
-
مقدمه (عبارات منظم) - چرا عبارت منظم؟ 06:31
-
مقدمه (عبارات منظم) - چتبات ELIZA 04:23
-
مقدمه (عبارات منظم) - پکیج عبارات منظم پایتون 04:24
-
متا کاراکترها (عبارات منظم) - متا کاراکترها 02:27
-
متا کاراکترها (عبارات منظم) - متا کاراکترها - پرانتز - تمرین 04:18
-
متا کاراکترها (عبارات منظم) - متا کاراکترها - پرانتز - راهحل تمرین 03:58
-
متا کاراکترها (عبارات منظم) - متا کاراکترها - پرانتز - تمرین 2 02:11
-
متا کاراکترها (عبارات منظم) - متا کاراکترها - پرانتز - راهحل تمرین 2 04:37
-
متا کاراکترها (عبارات منظم) - متا کاراکترها - Cap 03:18
-
متا کاراکترها (عبارات منظم) - متا کاراکترها - Cap - تمرین 3 02:03
-
متا کاراکترها (عبارات منظم) - متا کاراکترها - Cap - راهحل تمرین 3 04:44
-
متا کاراکترها (عبارات منظم) - بکاسلش 05:02
-
متا کاراکترها (عبارات منظم) - ادامه بکاسلش 07:59
-
متا کاراکترها (عبارات منظم) - ادامه بکاسلش - بخش 1 03:51
-
متا کاراکترها (عبارات منظم) - بکاسلش و براکتهای مربعی - تمرین 01:38
-
متا کاراکترها (عبارات منظم) - بکاسلش و براکتهای مربعی - راهحل تمرین 03:58
-
متا کاراکترها (عبارات منظم) - تمرین بکاسلش - راهحل دیگر 04:43
-
متا کاراکترها (عبارات منظم) - تمرین بکاسلش 01:43
-
متا کاراکترها (عبارات منظم) - تمرین بکاسلش - راهحل و تمرین توالی ویژه 05:12
-
متا کاراکترها (عبارات منظم) - راهحل و تمرین توالی ویژه 04:57
-
متا کاراکترها (عبارات منظم) - متا کاراکتر ستاره 05:18
-
متا کاراکترها (عبارات منظم) - متا کاراکتر ستاره - تمرین 04:53
-
متا کاراکترها (عبارات منظم) - متا کاراکتر ستاره - راهحل تمرین 05:04
-
متا کاراکترها (عبارات منظم) - تکلیف متا کاراکتر ستاره 04:28
-
متا کاراکترها (عبارات منظم) - متا کاراکتر ستاره برای Greedymatching 05:54
-
متا کاراکترها (عبارات منظم) - متا کاراکتر با علامت جمع و علامت سوال 05:46
-
متا کاراکترها (عبارات منظم) - آکولادهای متا کاراکتر - تمرین 03:25
-
متا کاراکترها (عبارات منظم) - آکولادهای متا کاراکتر - راهحل تمرین 05:18
-
آبجکتهای الگو 05:05
-
آبجکتهای الگو - متد تطبیق آبجکتها - تمرین 02:43
-
آبجکتهای الگو - متد تطبیق آبجکتها - راهحل تمرین 07:11
-
آبجکتهای الگو - متد تطبیق آبجکتهای الگو و متد جستجو 05:18
-
آبجکتهای الگو - متد Finditer آبجکتهای الگو - تمرین 03:20
-
آبجکتهای الگو - متد Finditer آبجکتهای الگو - راهحل تمرین 06:22
-
متا کاراکترهای بیشتر - متا کاراکترهای منطقی Or 06:28
-
متا کاراکترهای بیشتر - الگوهای شروع و پایان متا کاراکترها 04:57
-
متا کاراکترهای بیشتر - متا کاراکترها در پرانتز 07:03
-
اصلاح رشته - اصلاح رشته 03:49
-
اصلاح رشته - تمرین متد Sub 04:44
-
اصلاح رشته - راهحل تمرین متد Sub 04:30
-
کلمات و توکنها - کلمه چیست؟ 04:41
-
کلمات و توکنها - تعریف کلمه به تسک بستگی دارد 05:20
-
کلمات و توکنها - واژگان و Corpus 05:38
-
کلمات و توکنها - توکنها 03:14
-
کلمات و توکنها - استفاده از توکنها در Spacy 09:10
-
طبقهبندی احساسات - مقدمه پروژه کوچک طبقهبندی نظرات Yelp 05:35
-
طبقهبندی احساسات - مقداردهی اولیه واژگان پروژه کوچک طبقهبندی نظرات Yelp 06:48
-
طبقهبندی احساسات - افزودن توکنها به واژگان پروژه کوچک طبقهبندی نظرات Yelp 04:54
-
طبقهبندی احساسات - پروژه کوچک طبقهبندی نظرات Yelp - جستجوی توابع در واژگان 05:57
-
طبقهبندی احساسات - پروژه کوچک طبقهبندی نظرات Yelp - ساخت واژگان از داده 09:16
-
طبقهبندی احساسات - پروژه کوچک طبقهبندی نظرات Yelp - کدنویسی One Hot 06:51
-
طبقهبندی احساسات - طبقهبندی نظرات Yelp، پیادهسازی پروژه کوچک کدنویسی One Hot 09:46
-
طبقهبندی احساسات - طبقهبندی نظرات Yelp، مستندات کدنویسی پروژه کوچک 06:50
-
طبقهبندی احساسات - طبقهبندی نظرات Yelp، پیادهسازی مستندات کدنویسی پروژه کوچک 06:28
-
طبقهبندی احساسات - طبقهبندی نظرات Yelp و Train Test Splits پروژه کوچک 04:20
-
طبقهبندی احساسات - پروژه کوچک طبقهبندی نظرات Yelp، محاسبه ویژگی 06:08
-
طبقهبندی احساسات - پروژه کوچک طبقهبندی نظرات Yelp 10:45
-
توکنسازی مستقل از زبان - مقدمه جامع بر توکنسازی 04:28
-
توکنسازی مستقل از زبان - توکنسازی سخت است 05:16
-
توکنسازی مستقل از زبان - کدگذاری جفت بایت توکنسازی 06:08
-
توکنسازی مستقل از زبان - مثال کدگذاری جفت بایت توکنسازی 08:33
-
توکنسازی مستقل از زبان - کدگذاری جفت بایت توکنسازی روی داده تست 07:14
-
توکنسازی مستقل از زبان - پیادهسازی کدگذاری جفت بایت توکنسازی در Getpaircounts 08:11
-
توکنسازی مستقل از زبان - توکنسازی، کدگذاری جفت بایت، پیادهسازی، Mergeincorpus 07:49
-
توکنسازی مستقل از زبان - آموزش BFE، پیادهسازی کدگذاری جفت بایت و توکنسازی 06:09
-
توکنسازی مستقل از زبان - توکنسازی، کدگذاری جفت بایت، پیادهسازی، کدگذاری BFE 06:25
-
توکنسازی مستقل از زبان - رمزگذاری جفت بایتها، پیادهسازی رمزگذاری BFE، جفت تکی 09:11
-
توکنسازی مستقل از زبان - رمزگذاری جفت بایتها، پیادهسازی رمزگذاری BFE، جفت تکی - بخش 1 07:53
-
نرمالسازی متن - نرمالسازی کلمات - Case Folding 04:43
-
نرمالسازی متن - نرمالسازی کلمات - Lematization 06:48
-
نرمالسازی متن - نرمالسازی کلمات - Stemming 02:31
-
نرمالسازی متن - نرمالسازی کلمات - بخشبندی جمله 06:27
-
تطبیق رشته و تصحیح املا - ویرایش حداقل فاصله 07:59
-
تطبیق رشته و تصحیح املا - مثال ویرایش حداقل فاصله 09:04
-
تطبیق رشته و تصحیح املا - ویرایش حداقل فاصله - پر کردن جدول 09:10
-
تطبیق رشته و تصحیح املا - ویرایش حداقل فاصله - برنامهنویسی پویا 07:17
-
تطبیق رشته و تصحیح املا - ویرایش حداقل فاصله - شبهکد 03:55
-
تطبیق رشته و تصحیح املا - پیادهسازی ویرایش حداقل فاصله 06:57
-
تطبیق رشته و تصحیح املا - پیادهسازی ویرایش حداقل فاصله - فیکس کردن باگ 02:40
-
تطبیق رشته و تصحیح املا - پیادهسازی تصحیح املا 07:42
-
مدلسازی زبان - مدل زبانی چیست؟ 05:50
-
مدلسازی زبان - تعریف رسمی یک مدل زبانی 06:31
-
مدلسازی زبان - نفرین ابعاد مدل زبانی 04:27
-
مدلسازی زبان - فرضیه مارکوف و N-Grams یک مدل زبانی 07:06
-
مدلسازی زبان - راهاندازی پیادهسازی مدل زبانی 04:24
-
مدلسازی زبان - تابع Ngrams در پیادهسازی مدل زبانی 08:42
-
مدلسازی زبان - تابعی از تعداد بروزرسانیها در پیادهسازی مدل زبانی 05:46
-
مدلسازی زبان - تابعی از مدل احتمال در پیادهسازی مدل زبانی 06:35
-
مدلسازی زبان - پیادهسازی مدل زبانی - خواندن Corpus 12:17
-
مدلسازی زبان - پیادهسازی مدل زبانی، نمونهبرداری متن 18:17
-
مدلسازی موضوع با نمایشهای کلمه و سند - بردارهای One Hot 04:10
-
مدلسازی موضوع با نمایشهای کلمه و سند - پیادهسازی بردارهای One Hot 05:41
-
مدلسازی موضوع با از نمایشهای کلمه و سند - محدودیتهای بردار One Hot 04:45
-
مدلسازی موضوع با نمایشهای کلمه و سند - استفاده از بردارهای One Hot به عنوان برچسبگذاری هدف 03:42
-
مدلسازی موضوع با نمایشهای کلمه و سند - فراوانی اصطلاح در نمایشهای سند 03:12
-
مدلسازی موضوع با از نمایشهای کلمه و سند - پیادهسازی فراوانی اصطلاح برای نمایشهای سند 05:31
-
مدلسازی موضوع با نمایشهای کلمه و سند - فراوانی اصطلاح برای نمایشهای کلمه 05:17
-
مدلسازی موضوع با نمایش کلمه و سند - TFIDF برای نمایش مستندات 05:01
-
مدلسازی موضوع با نمایش کلمه و سند - پیادهسازی TFIDF برای نمایش مستندات برای خواندن متن 04:24
-
مدلسازی موضوع با نمایش کلمه و سند - TFIDF برای نمایش مستندات، پیادهسازی، محاسبه، فراوانی مستندات 04:59
-
مدلسازی موضوع با نمایش کلمه و سند - پیادهسازی TFIDF برای نمایش مستندات و محاسبه TFIDF 07:21
-
مدلسازی موضوع با نمایش کلمه و سند - مدلسازی موضوع با TFIDF - بخش 1 04:20
-
مدلسازی موضوع با نمایش کلمه و سند - مدلسازی موضوع با TFIDF - بخش 3 04:27
-
مدلسازی موضوع با نمایش کلمه و سند - مدلسازی موضوع با TFIDF - بخش 4 04:51
-
مدلسازی موضوع با نمایش کلمه و سند - مدلسازی موضوع با TFIDF - بخش 5 04:40
-
مدلسازی موضوع با نمایشهای کلمه و سند - مدلسازی موضوع با استفاده از Gensim 13:26
-
تعبیه کلمات در LSI - ماتریس همرخدادی کلمات 06:25
-
تعبیه کلمات در LSI - ماتریس همرخدادی کلمات و ماتریس اصطلاحات سند 05:46
-
تعبیه کلمات در LSI - پیادهسازی ماتریس همرخدادی کلمات - آمادهسازی داده 05:08
-
تعبیه کلمات در LSI - پیادهسازی ماتریس همرخدادی کلمات - آمادهسازی داده - بخش 2 04:12
-
تعبیه کلمات در LSI - پیادهسازی ماتریس همرخدادی کلمات - آمادهسازی داده و دریافت واژگان 04:26
-
تعبیه کلمات در LSI - پیادهسازی تابع نهایی ماتریس همرخدادی کلمات 11:37
-
تعبیه کلمات در LSI - پیادهسازی ماتریس همرخدادی کلمات برای مدیریت مشکلات حافظه در شرکتهای بزرگ 09:19
-
تعبیه کلمات در LSI - ماتریس پراکندگی برای همرخدادی کلمات 05:19
-
تعبیه کلمات در LSI - ماتریس همرخدادی کلمات اطلاعات متقابل نقطه مثبت PPMI 07:58
-
تعبیه کلمات در LSI - تحلیل مؤلفههای اصلی (PCA) برای تعبیه متراکم 05:31
-
تعبیه کلمات در LSI - تحلیل معنایی نهفته 04:25
-
تعبیه کلمات در LSI - پیادهسازی تحلیل معنایی نهفته 06:50
-
سمانتیک کلمات - شباهت کسینوسی 07:05
-
سمانتیک کلمات - شباهت کسینوسی و محاسبه نرمهای بردارها 09:18
-
سمانتیک کلمات - بردارهای نرمالسازی شباهت کسینوسی 06:36
-
سمانتیک کلمات - شباهت کسینوسی با بیش از یک بردار 11:00
-
سمانتیک کلمات - شباهت کسینوسی - یافتن کلماتی که بیشترین شباهت را در یک واژگان دارند 10:05
-
سمانتیک کلمات - شباهت کسینوسی - یافتن کلماتی که بیشترین شباهت را در یک واژگان دارند - فیکس کردن باگ 06:23
-
سمانتیک کلمات - شباهت کسینوسی، تعبیه های Word2Vec 08:21
-
سمانتیک کلمات - قیاسهای کلمه 04:50
-
سمانتیک کلمات - پیادهسازی قیاسهای کلمه - بخش 1 05:55
-
سمانتیک کلمات - پیادهسازی قیاسهای کلمه - بخش 2 06:13
-
سمانتیک کلمات - مصورسازیهای کلمه 02:37
-
سمانتیک کلمات - پیادهسازی مصورسازیهای کلمه - بخش 1 04:28
-
سمانتیک کلمات - پیادهسازی مصورسازیهای کلمه - بخش 2 06:36
-
Word2vec - تعبیههای استاتیک و پویا 06:17
-
Word2vec - خود-نظارتی 04:23
-
Word2vec - الگوریتم انتزاعی Word2Vec 05:21
-
Word2Vec - چرا از نمونهبرداری منفی استفاده میشود؟ 03:49
-
Word2vec - معرفی Skip Gram 04:42
-
Word2Vec - چگونه قانون احتمال را تعریف کنیم؟ 04:00
-
Word2vec - سیگموئید Word2Vec 05:21
-
Word2Vec - فرمولاسیون تابع ضرر Word2vec 05:49
-
Word2Vec - تابع ضرر 03:25
-
Word2Vec - گام گرادیان کاهشی Word2Vec 04:21
-
Word2Vec - پیادهسازی Word2Vec و آمادهسازی داده 10:37
-
Word2vec - گام گرادیان در پیادهسازی Word2Vec 07:18
-
Word2vec - تابع Driver در پیادهسازی Word2Vec 13:38
-
نیاز به یادگیری عمیق برای NLP - چرا RNNs برای NLP خوب هستند؟ 13:25
-
نیاز به یادگیری عمیق برای NLP - نصب Pytorch و مقدمه تانسورها 10:32
-
نیاز به یادگیری عمیق برای NLP - بررسی Pytorch برای تمایز خودکار 08:26
-
مقدمه (NLP با یادگیری عمیق DNN) - چرا DNNs در یادگیری ماشین استفاده میشوند؟ 04:13
-
مقدمه (NLP با یادگیری عمیق DNN) - قدرت بازنمایی و قابلیتهای استفاده از داده DNN 07:13
-
مقدمه (NLP با یادگیری عمیق DNN) - پرسپترون 05:08
-
مقدمه (NLP با یادگیری عمیق DNN) - پیادهسازی پرسپترون 07:26
-
مقدمه (NLP با یادگیری عمیق DNN) - معماری DNN 03:52
-
مقدمه (NLP با یادگیری عمیق DNN) - پیادهسازی پیشخور DNN 08:21
-
مقدمه (NLP با یادگیری عمیق DNN) - چرا تابع فعالسازی نیاز است؟ 04:47
-
مقدمه (NLP با یادگیری عمیق DNN) - ویژگیهای تابع فعالسازی DNN 06:04
-
مقدمه (NLP با یادگیری عمیق DNN) - توابع فعالسازی DNN در PyTorch 03:49
-
مقدمه (NLP با یادگیری عمیق DNN) - تابع ضرر DNN چیست؟ 07:10
-
مقدمه (NLP با یادگیری عمیق DNN) - تابع ضرر DNN در Pytorch 05:45
-
آموزش (NLP با DNN) - گرادیان کاهشی DNN 05:58
-
آموزش (NLP با DNN) - پیادهسازی گرادیان کاهشی DNN 06:51
-
آموزش (NLP با DNN) - گرادیان کاهشی DNN - بررسی Minibatch دستهای استوکاستیک 07:07
-
آموزش (NLP با DNN) - خلاصه گرادیان کاهشی DNN 02:37
-
آموزش (NLP با DNN) - پیادهسازی مرحله گرادیان DNN 04:02
-
آموزش (NLP با DNN) - پیادهسازی DNN، گرادیان کاهشی استوکاستیک 13:53
-
آموزش (NLP با DNN) - پیادهسازی DNN، گرادیان کاهشی دستهای 06:46
-
آموزش (NLP با DNN) - پیادهسازی DNN، گرادیان کاهشی دستهای کوچک 09:04
-
آموزش (NLP با DNN) - پیادهسازی DNN در Pytorch 15:19
-
هایپرپارامترها (NLP با DNN) - مقداردهی اولیه وزنهای DNN 04:35
-
هایپرپارامترها (NLP با DNN) - نرخ یادگیری DNN 04:03
-
هایپرپارامترها (NLP با DNN) - نرمالسازی دستهای DNN 02:05
-
هایپرپارامترها (NLP با DNN) - پیادهسازی نرمالسازی دستهای DNN 02:41
-
هایپرپارامترها (NLP با DNN) - بهینهسازیهای DNN 04:08
-
هایپرپارامترها (NLP با DNN) - بررسی DNN Dropout 03:58
-
هایپرپارامترها (NLP با DNN) - بررسی DNN Dropout در Pytorch 02:03
-
هایپرپارامترها (NLP با DNN) - توقف زودهنگام DNN 03:34
-
هایپرپارامترها (NLP با DNN) - هایپرپارامترهای DNN 03:33
-
هایپرپارامترها (NLP با DNN) - مثال DNN Pytorch CIFAR10 15:56
-
مقدمه (NLP با یادگیری عمیق RNN) - RNN چیست؟ 04:54
-
مقدمه (NLP با یادگیری عمیق RNN) - درک RNN با یک مثال ساده 08:29
-
مقدمه (NLP با یادگیری عمیق RNN) - کاربردهای RNN - تشخیص فعالیت انسان 02:53
-
مقدمه (NLP با یادگیری عمیق RNN) - کاربردهای RNN - ایچاد کپشن برای تصویر 02:37
-
مقدمه (NLP با یادگیری عمیق RNN) - کاربردهای RNN - ترجمه ماشینی 15:56
-
مقدمه (NLP با یادگیری عمیق RNN) - کاربردهای RNN - تشخیص گفتار و پیشبینی قیمت سهام 04:04
-
مقدمه (NLP با یادگیری عمیق RNN) - مدلهای RNN 07:07
-
پروژه کوچک مدلسازی زبان - مدلسازی زبانی - پیشبینی کلمه بعدی 03:43
-
پروژه کوچک مدلسازی زبان - مدلسازی زبانی - پیشبینی کلمه بعدی و ایندکس واژگان 04:04
-
پروژه کوچک مدلسازی زبان - مدلسازی زبانی - پیشبینی کلمه بعدی و تعبیه ایندکس واژگان 03:16
-
پروژه کوچک مدلسازی زبان - مدلسازی زبانی - پیشبینی کلمه بعدی و معماری RNN 04:08
-
پروژه کوچک مدلسازی زبان - مدلسازی زبانی - پیشبینی کلمه بعدی با پایتون - بخش 1 07:12
-
پروژه کوچک مدلسازی زبان - مدلسازی زبانی - پیشبینی کلمه بعدی با پایتون - بخش 2 09:02
-
پروژه کوچک مدلسازی زبان - مدلسازی زبانی - پیشبینی کلمه بعدی با پایتون - بخش 3 07:27
-
پروژه کوچک مدلسازی زبان - مدلسازی زبانی - پیشبینی کلمه بعدی با پایتون - بخش 4 09:02
-
پروژه کوچک مدلسازی زبان - مدلسازی زبانی - پیشبینی کلمه بعدی با پایتون - بخش 5 04:35
-
پروژه کوچک مدلسازی زبان - مدلسازی زبانی - پیشبینی کلمه بعدی با پایتون - بخش 6 13:34
-
پروژه کوچک طبقهبندی احساسات - پیادهسازی واژگان 09:46
-
پروژه کوچک طبقهبندی احساسات - Helpers پیادهسازی واژگان 05:49
-
پروژه کوچک طبقهبندی احساسات - پیادهسازی واژگان از فایل 06:26
-
پروژه کوچک طبقهبندی احساسات - بردارساز 05:17
-
پروژه کوچک طبقهبندی احساسات - راهاندازی RNN 07:20
-
پروژه کوچک طبقهبندی احساسات - راهاندازی RNN - بخش 1 21:23
-
RNN در PyTorch - مقدمه RNN در Pytorch 02:04
-
RNN در PyTorch - لایه تعبیه RNN در PyTorch 07:21
-
RNN در PyTorch - بررسی NN در Pytorch Nn Rnn 08:47
-
RNN در PyTorch - شکلهای خروجی RNN در PyTorch 04:11
-
RNN در PyTorch - بررسی Gatedunits 03:39
-
RNN در PyTorch - بررسی Gatedunits GRU LSTM 03:55
-
RNN در PyTorch - بررسی RNN دوطرفه 02:44
-
RNN در PyTorch - شکلهای خروجی RNN دوطرفه 04:26
-
RNN در PyTorch - جداسازی شکلهای خروجی RNN دوطرفه 04:33
-
RNN در PyTorch - مثال RNN در PyTorch 09:48
-
مدلهای پیشرفته RNN - رمزگذار و رمزگشای RNN 03:01
-
مدلهای پیشرفته RNN - توجه RNN 03:28
-
ترجمه ماشینی عصبی - آشنایی با مجموعه داده و پکیجها 05:09
-
ترجمه ماشینی عصبی - پیادهسازی کلاس زبان 05:22
-
ترجمه ماشینی عصبی - تست و پیادهسازی نرمالسازی کلاس زبانی 09:44
-
ترجمه ماشینی عصبی - خواندن فایل داده 05:17
-
ترجمه ماشینی عصبی - ایجاد و خواندن واژگان 07:56
-
ترجمه ماشینی عصبی - EncoderRNN 06:14
-
ترجمه ماشینی عصبی - DecoderRNN 06:13
-
ترجمه ماشینی عصبی - DecoderRNN پیشخور 12:08
-
ترجمه ماشینی عصبی - DecoderRNN توابع Helper 04:54
-
ترجمه ماشینی عصبی - ماژول آموزش 13:30
-
ترجمه ماشینی عصبی - گرادیان کاهشی استوکاستیک 07:12
-
ترجمه ماشینی عصبی - آموزش NMT 05:06
-
ترجمه ماشینی عصبی - ارزیابی NMT 11:13
-
مقدمه - مقدمه دوره و مدرس 02:16
-
مقدمه - مقدمه علوم هوش مصنوعی 01:28
-
مقدمه - توضیحات دوره 03:19
-
اصول چتباتها برای یادگیری عمیق - مقدمه ماژول 04:10
-
اصول چتباتها برای یادگیری عمیق - چتباتهای معمولی در مقابل چتباتهای هوش مصنوعی 05:48
-
اصول چتباتها برای یادگیری عمیق - چتباتهای مولد در مقابل چتباتهای بازیاب 04:06
-
اصول چتباتها برای یادگیری عمیق - مزایای چتباتهای یادگیری عمیق 04:30
-
اصول چتباتها برای یادگیری عمیق - چتباتها در حوزه پزشکی 04:35
-
اصول چتباتها برای یادگیری عمیق - چتباتها در کسبوکار 04:36
-
اصول چتباتها برای یادگیری عمیق - چتباتها در تجارت الکترونیک 02:51
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - مقدمه ماژول 02:55
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - معمار یادگیری عمیق 02:18
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - رمزگذار-رمزگشا 01:44
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - مراحل دخیل 01:56
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - بررسی پروژه و پکیجها 03:50
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - ایمپورت کتابخانهها 05:19
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - آمادهسازی داده 06:43
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - توسعه واژگان 05:08
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - حداکثر طول سوال و داستان 03:46
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - Tokenizer 02:58
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - جداسازی و توالی 05:06
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - بردارسازی داستانها 09:35
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - بردارسازی آموزش و داده تست 05:43
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - کدگذاری 06:49
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - سوال و جواب 05:39
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - تکمیل مدل 05:02
-
معماری و توسعه چتبات مبتنی بر یادگیری عمیق - پیشبینیها 04:26
-
مقدمه - خلاصه دوره 02:22
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - مقدمه ماژول 02:35
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - بررسی 03:32
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - یادگیری عمیق در سیستمهای توصیهگر 03:49
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - استنتاج پس از آموزش 03:02
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - مکانیسم استنتاج 03:09
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - تعبیهها و کانتکس کاربر 05:25
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - فیلترینگ مشارکتی خنثی 03:17
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - فیلترینگ مشارکتی VAE 03:09
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - نقاط قوت و ضعف مدلهای یادگیری عمیق 03:49
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - آزمون یادگیری عمیق 00:30
-
اصول یادگیری عمیق برای سیستمهای توصیهگر - راهحل آزمون یادگیری عمیق 01:52
-
پروژه سیستم توصیه محصول آمازون - بررسی ماژول 01:56
-
پروژه سیستم توصیه محصول آمازون - توصیهگرهای تنسورفلو 01:11
-
پروژه سیستم توصیه محصول آمازون - مدل دو برج 02:26
-
پروژه سیستم توصیه محصول آمازون - بررسی پروژه 01:41
-
پروژه سیستم توصیه محصول آمازون - دانلود کتابخانهها 04:08
-
پروژه سیستم توصیه محصول آمازون - مصورسازی داده با WordCloud 08:35
-
پروژه سیستم توصیه محصول آمازون - ساخت تانسورها از دیتافریم 06:07
-
پروژه سیستم توصیه محصول آمازون - نمرهدهی به داده 06:06
-
پروژه سیستم توصیه محصول آمازون - Train-Test Split تصادفی 05:04
-
پروژه سیستم توصیه محصول آمازون - ساخت مدل و برج کوئری 08:14
-
پروژه سیستم توصیه محصول آمازون - برج داوطلب و سیستم بازیابی 05:56
-
پروژه سیستم توصیه محصول آمازون - محاسبه ضرر 03:04
-
پروژه سیستم توصیه محصول آمازون - آموزش و اعتبارسنجی 10:58
-
پروژه سیستم توصیه محصول آمازون - دقت و توصیهها 08:00
-
پروژه سیستم توصیه محصول آمازون - ارائه پیشنهادها 07:10
مشخصات آموزش
یادگیری عمیق - مسترکلاس یادگیری عمیق با پایتون
- تاریخ به روز رسانی: 1404/06/21
- سطح دوره:همه سطوح
- تعداد درس:653
- مدت زمان :63:51:14
- حجم :25.05GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy