بررسی عمیق اقیانوس یادگیری عمیق با Pytorch و تنسورفلو
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- تئوری، ریاضیات و پیادهسازی تمامی مدلهای یادگیری عمیق
- پیشنیازهای یادگیری عمیق مانند پیشپردازش داده، تحلیل رگرسیون و رگرسیون لجستیک
- ساخت شبکههای عصبی مصنوعی و استفاده از آنها برای مسائل رگرسیون و طبقهبندی
- استفاده از GPU در مدلهای یادگیری عمیق
- ایجاد توابع ضرر سفارشی و لایههای سفارشی برای مدلهای یادگیری عمیق
- شبکه عصبی کانولوشن (CNN)
- شبکه عصبی کانولوشن یکبعدی
- تنظیم معیار توقف زودهنگام در مدلهای یادگیری عمیق
- یادگیری انتقالی
- شبکههای عصبی بازگشتی (RNN)
- پیشبینی و طبقهبندی سریهای زمانی
- خودرمزگذارها و خودرمزگذار متغیر (VAE)
- خودرمزگذار CNN و خودرمزگذار LSTM
- شبکههای متخاصم مولد (GANs)
- LSTM و LSTM دوطرفه
- ترنسفرمر
- ترنسفرمر بینایی
- ترنسفرمر سری زمانی
- انتقال سبک با شبکههای عصبی
- پیادهسازی مدلهای یادگیری عمیق در Pytorch و تنسورفلو
پیشنیازهای دوره
- کمی دانش برنامهنویسی مطلوب است، اما الزامی نیست.
- حساب جیمیل (برای استفاده از Google Colab)
- دانش اولیه ریاضیات
توضیحات دوره
محتویات دوره
یادگیری عمیق انقلابی در هوش مصنوعی و علم داده ایجاد کرده است. یادگیری عمیق به کامپیوترها میآموزد داده را به شکلی پردازش کنند که از مغز انسان الهام گرفته شده است.
این دوره جامع و کامل یادگیری عمیق است. در این دوره تئوری و شهود پشت مدلهای یادگیری عمیق بررسی شده و سپس تمام مدلها به صورت پیادهسازی شده در Pytorch و تنسورفلو آموزش داده میشوند.
توضیحات عملی و کاربردی مدلهای یادگیری عمیق همراه با پیادهسازی در Pytorch و تنسورفلو ارائه شده است.
نیازی به پیشنیاز نیست. همه مطالب از ابتدا آموزش داده میشود و دارای ساختار شغل محور است.
بخشهای دوره
- آشنایی با دوره
- آشنایی با Google Colab
- دوره فشرده پایتون
- پیشپردازش داده
- تحلیل رگرسیون
- رگرسیون لجستیک
- آشنایی با شبکههای عصبی و یادگیری عمیق
- توابع فعالسازی
- توابع ضرر
- پس انتشار
- شبکههای عصبی برای تحلیل رگرسیون
- شبکههای عصبی برای طبقهبندی
- منظمسازی Dropout و نرمالسازی دستهای
- Optimizers
- افزودن توابع ضرر و لایههای سفارشی به شبکههای عصبی
- شبکه عصبی کانولوشن (CNN)
- شبکه عصبی کانولوشن تک بعدی
- تنظیم معیار توقف زودهنگام در CNN
- شبکه عصبی بازگشتی (RNN)
- شبکه حافظه بلند کوتاه مدت (LSTM)
- LSTM دوطرفه
- شبکههای متخاصم مولد (GAN)
- DCGANs
- خودرمزگذارها
- خودرمزگذارهای LSTM
- خودرمزگذارهای متغیر
- انتقال سبک با شبکههای عصبی
- ترنسفرمرها
- ترنسفرمر بینایی
- ترنسفرمر سری زمانی
- خوشهبندی K-means
- تحلیل مولفه اصلی (PCA)
- مدلهای یادگیری عمیق با پیادهسازی در Pytorch و تنسورفلو
این دوره برای چه کسانی مناسب است؟
- مبتدیانی که میخواهند یادگیری عمیق را از ابتدا بیاموزند.
- دانشجویانی که در دورههای یادگیری عمیق در دانشگاهها و کالجها ثبتنام کردهاند.
- پژوهشگران در حوزه یادگیری عمیق و Generative AI
- دانشجویان و پژوهشگرانی که میخواهند مهارتهای برنامهنویسی پایتون را توسعه دهند و مدلهای یادگیری عمیق را در Pytorch و تنسورفلو پیاده کنند.
- افرادی که میدانند چگونه یادگیری عمیق را در Matlab پیاده کنند اما میخواهند به Pytorch و تنسورفلو سوئیچ کنند.
بررسی عمیق اقیانوس یادگیری عمیق با Pytorch و تنسورفلو
-
مقدمه دوره 10:42
-
چگونه در این دوره موفق شویم؟ 01:14
-
مقدمه بخش 02:23
-
نصب درایو و خواندن داده 13:51
-
خواندن و نمایش تصاویر 08:01
-
خواندن مجموعه دادههای بیشتر 04:43
-
آپلود مطالب دوره در گوگل درایو و بررسی ساختار دوره 06:13
-
مقدمه بخش 02:50
-
حساب با پایتون 10:09
-
عملیاتهای مقایسه و منطقی 05:52
-
دستورات شرطی 08:14
-
آرایهها با Numpy - بخش 1 11:31
-
آرایهها با Numpy - بخش 2 15:02
-
آرایهها با Numpy - بخش 3 10:52
-
ترسیم نمودار و مصورسازی - بخش 1 17:51
-
ترسیم نمودار و مصورسازی - بخش 2 15:03
-
ترسیم نمودار و مصورسازی - بخش 3 13:34
-
ترسیم نمودار و مصورسازی - بخش 4 07:35
-
لیستها در پایتون 20:27
-
حلقه For - بخش 1 21:03
-
حلقه For - بخش 2 20:36
-
حلقه while 12:16
-
رشتهها در پایتون 12:39
-
فرمتبندی چاپ با رشتهها 03:36
-
دیکشنریها - بخش 1 07:11
-
دیکشنریها - بخش 2 08:04
-
Seaborn - بخش 1 08:21
-
Seaborn - بخش 2 06:50
-
Seaborn - بخش 3 07:16
-
Pandas - بخش 1 06:24
-
Pandas - بخش 2 05:20
-
Pandas - بخش 3 08:54
-
Pandas - بخش 4 05:54
-
توابع در پایتون - بخش 1 08:15
-
توابع در پایتون - بخش 2 07:59
-
کلاسها در پایتون 15:50
-
تاپل ها در پایتون 06:25
-
تابع لامبدا 08:48
-
تابع map 07:47
-
تابع reduce 05:13
-
تابع فیلتر 04:47
-
تابع Zip 08:31
-
تابع join 04:13
-
بخش پیشنیازها 01:51
-
مقدمه بخش 03:09
-
نیاز به پیشپردازش داده 04:02
-
نرمالسازی داده و مقیاسبندی MinMax 06:27
-
پروژه 1 - نرمالسازی داده و مقیاسبندی MinMax - بخش 1 09:16
-
پروژه 1 - نرمالسازی داده و مقیاسبندی MinMax - بخش 2 11:25
-
استانداردسازی داده 04:23
-
پروژه 2 - استانداردسازی داده 08:21
-
پروژه 3 - برخورد با مقادیر گمشده 16:37
-
پروژه 4 - برخورد با ویژگیهای دستهبندی شده 14:53
-
پروژه 5 - مهندسی ویژگی 09:05
-
پروژه 6 - مهندسی ویژگی با متد window 12:48
-
مقدمه بخش 05:03
-
منشا رگرسیون 13:11
-
تعریف رگرسیون 03:49
-
الزامات از رگرسیون 03:23
-
رگرسیون خطی ساده 06:38
-
رگرسیون خطی چندگانه 04:32
-
مقادیر هدف و پیشبینی شده 03:50
-
تابع ضرر 04:08
-
روش حداقل مربعات 14:32
-
مثال عددی روش حداقل مربعات 05:07
-
متریکهای ارزیابی برای رگرسیون 08:07
-
پروژه 1 - رگرسیون ساده - بخش 1 09:41
-
پروژه 1 - رگرسیون ساده - بخش 2 08:46
-
پروژه 1 - رگرسیون ساده - بخش 3 18:26
-
پروژه 2 - رگرسیون چندگانه - بخش 1 10:49
-
پروژه 2 - رگرسیون چندگانه - بخش 2 10:37
-
پروژه 2 - رگرسیون چندگانه - بخش 3 15:46
-
پروژه 3 - رگرسیون چندگانه 15:04
-
رگرسیون با گرادیان کاهشی 09:58
-
پروژه 4 - گرادیان کاهشی روی رگرسیون خطی ساده 19:31
-
پروژه 5 - گرادیان کاهشی در رگرسیون خطی چندگانه 15:31
-
رگرسیون چندجملهای 06:30
-
پروژه 6 - رگرسیون چندجملهای 12:10
-
اعتبارسنجی متقابل 03:32
-
پروژه 7 - اعتبارسنجی متقابل 13:57
-
مبادله بایاس و واریانس (بیشبرازش و کمبرازش) 12:04
-
مفهوم منظمسازی 04:31
-
رگرسیون ریج یا منظمسازی L2 09:55
-
رگرسیون لاسو یا منظمسازی L1 08:02
-
مقایسه منظمسازی ریج و لاسو 03:06
-
منظمسازی Elastic Net 03:16
-
پروژه 8 - منظمسازی 21:18
-
جستجوی گرید اعتبارسنجی متقابل 04:02
-
پروژه 9 - جستجوی گرید CV 20:31
-
مقدمه بخش 02:21
-
مفهوم اولیه 07:34
-
محدودیتهای مدلهای رگرسیون 09:26
-
تبدیل رگرسیون خطی به رگرسیون لجستیک 08:05
-
پروژه 1 - دریافت احتمالات کلاس - بخش 1 08:23
-
پروژه 1 - بخش 2 11:31
-
تابع ضرر برای رگرسیون لجستیک 05:33
-
ارزیابی مدل - ماتریس درهمریختگی 10:14
-
دقت، صحت، بازیابی و امتیاز F1 14:02
-
منحنی ROC و مساحت زیر منحنی ROC 03:42
-
پروژه 2 - ارزیابی مدل رگرسیون لجستیک 21:27
-
پروژه 3 - مدل رگرسیون لجستیک با اعتبارسنجی متقابل 17:01
-
پروژه 4 - طبقهبندی چندکلاسه با رگرسیون لجستیک 21:46
-
پروژه 5 - رگرسیون لجستیک روی داده چالشبرانگیز - بخش 1 07:14
-
پروژه 5 - رگرسیون لجستیک روی داده چالشبرانگیز - بخش 2 05:56
-
پروژه 5 - رگرسیون لجستیک روی داده چالشبرانگیز - بخش 3 07:45
-
جستجوی گرید CV 13:14
-
مقدمه بخش 01:57
-
پرسپترون 16:03
-
ویژگیها، وزنها و تابع فعالسازی 07:01
-
یادگیری شبکه عصبی 09:34
-
ظهور یادگیری عمیق 07:40
-
مقدمه بخش 01:49
-
طبقهبندی با پرسپترون - بخش 1 07:27
-
طبقهبندی با پرسپترون - بخش 2 07:07
-
چرا به توابع فعالسازی نیاز داریم؟ 06:54
-
افزودن تابع فعالسازی به شبکه عصبی 04:58
-
سیگموئید به عنوان تابع فعالسازی 08:01
-
تابع تانژانت هایپربولیک 05:08
-
توابع ReLU و Leaky ReLU 06:19
-
مقدمه بخش 02:11
-
تابع ضرر MSE 04:14
-
تابع ضرر آنتروپی متقابل 09:41
-
تابع Softmax 08:34
-
مقدمه بخش 02:12
-
انتشار رو به جلو 08:41
-
پس انتشار - بخش 1 18:26
-
پس انتشار - بخش 2 09:47
-
مقدمه بخش 01:58
-
گرادیان کاهشی 06:40
-
گرادیان کاهشی تصادفی (SGD) 07:20
-
میانگین وزنی نمایی 04:54
-
مفهوم مومنتوم 05:45
-
RMS Prop 02:56
-
ADAM Optimizer 03:56
-
مقدمه بخش 01:43
-
پروژه 1 - شبکه عصبی برای رگرسیون ساده - بخش 1 20:55
-
پروژه 1 - شبکه عصبی برای رگرسیون ساده - بخش 2 18:54
-
پروژه 2 - شبکه عصبی برای رگرسیون چندگانه 14:04
-
ایجاد شبکه عصبی با استفاده از کلاس 07:35
-
مقدمه بخش 01:00
-
پروژه 1 - شبکه عصبی برای رگرسیون ساده 13:41
-
پروژه 2 - شبکه عصبی برای رگرسیون چندگانه 21:34
-
مقدمه بخش 02:59
-
Epoch ،Batchsize و Iteration 04:15
-
پروژه 0 - مجموعه داده تانسور و dataloader تانسور 15:40
-
آمادهسازی کد برای مجموعه داده Iris 06:12
-
پروژه 1 - شبکه عصبی برای طبقهبندی داده Iris 16:42
-
آمادهسازی کد برای مجموعه داده MNIST 05:22
-
پروژه 2 - شبکه عصبی برای طبقهبندی MNIST - بخش 1 17:58
-
پروژه 1 - شبکه عصبی برای رگرسیون ساده - بخش 2 23:46
-
ذخیره و بارگذاری مدل آموزش دیده 05:20
-
آمادهسازی کد برای تصاویر سفارشی 05:29
-
پروژه 3 - شبکه عصبی برای طبقهبندی تصاویر سفارشی 22:02
-
آمادهسازی کد برای مجموعه داده تشخیص رفتار انسان 01:54
-
پروژه 4 - شبکه عصبی برای تشخیص رفتار انسان 16:51
-
پروژه 5 - شبکه عصبی روی مجموعه داده مهندسی ویژگی 10:14
-
مقدمه بخش 01:35
-
پروژه 1 - شبکه عصبی برای طبقهبندی داده Iris 13:32
-
پروژه 2 - شبکه عصبی برای طبقهبندی داده MNIST 17:40
-
پروژه 3 - شبکه عصبی برای طبقهبندی تصاویر سفارشی 13:09
-
مقدمه بخش 01:46
-
منظمسازی Dropout 11:35
-
معرفی مجموعه داده WESAD 03:27
-
پروژه 1 - منظمسازی Dropout 27:12
-
پروژه 2 - منظمسازی Dropout 14:10
-
نرمالسازی دستهای 05:54
-
پروژه 3 - نرمالسازی دستهای 23:54
-
پروژه 4 - نرمالسازی دستهای 12:30
-
مقدمه بخش 01:52
-
ایجاد تابع ضرر سفارشی با Pytorch 07:34
-
ایجاد تابع ضرر سفارشی با تنسورفلو 05:27
-
مقدمه بخش 02:53
-
زمانبندی نرخ یادگیری با Pytorch 12:08
-
زمانبندی نرخ یادگیری با تنسورفلو 07:52
-
مقدمه بخش 01:15
-
ایجاد لایه سفارشی با Pytorch 06:58
-
ایجاد لایه سفارشی با تنسورفلو 05:35
-
مقدمه بخش 02:20
-
معماری CNN و عملیاتهای اصلی 03:22
-
کانولوشن دو بعدی 09:51
-
شکلهای نقشههای ویژگی پس از کانولوشن 12:04
-
pooling میانگین و حداکثری 06:24
-
Pooling تا طبقهبندی 03:54
-
پروژه 0 - شکلهای CNN 15:08
-
پروژه 1 - CNN برای طبقهبندی MNIST - بخش 1 24:12
-
پروژه 1 - CNN برای طبقهبندی MNIST - بخش 2 11:04
-
لایه خطی Lazy کارآمد 04:56
-
پروژه 2 - CNN برای طبقهبندی تصاویر سفارشی 13:33
-
یادگیری انتقالی 05:57
-
پروژه 3 - یادگیری انتقالی با ResNet-18 14:30
-
پروژه 3 - یادگیری انتقالی با VGG-16 06:59
-
مقدمه بخش 01:32
-
پروژه 1 - شکلهای CNN 08:41
-
پروژه 2 - CNN برای طبقهبندی تصاویر سفارشی 10:23
-
پروژه 3 - یادگیری انتقالی 11:28
-
مقدمه بخش 01:23
-
معیار توقف زودهنگام - بخش 1 08:37
-
معیار توقف زودهنگام - بخش 2 02:01
-
پروژه 1 - معیار توقف زودهنگام با Pytorch 12:14
-
پروژه 2 - معیار توقف زودهنگام با تنسورفلو 04:59
-
مقدمه بخش 02:12
-
چرا به RNN نیاز داریم؟ 03:00
-
داده دنبالهای 05:15
-
ANN به RNN 07:40
-
پس انتشار در طول زمان 13:29
-
شبکه حافظه بلند-کوتاهمدت (LSTM) 04:25
-
دروازههای LSTM 10:09
-
پروژه 1 - شکلهای LSTM 24:58
-
پروژه 2 - مبانی LSTM 13:40
-
مفهوم اندازه بچ، طول دنباله و ابعاد ویژگی 11:30
-
پروژه 3 - درونیابی و برونیابی با LSTM 22:14
-
پروژه 4 - طبقهبندی سریهای زمانی با LSTM 16:38
-
پروژه 5 - طبقهبندی سریهای زمانی چندمتغیره با LSTM - بخش 1 15:39
-
پروژه 5 - طبقهبندی سریهای زمانی چندمتغیره با LSTM - بخش 2 03:23
-
مقدمه بخش 02:22
-
پروژه 1 - شکلهای LSTM 21:54
-
پروژه 2 - پیشبینی سری زمانی با LSTM 13:02
-
طبقهبندی MNIST با LSTM 02:52
-
پروژه 3 - طبقهبندی MNIST با LSTM - بخش 1 05:39
-
پروژه 3 - طبقهبندی MNIST با LSTM - بخش 2 02:51
-
طبقهبندی متن 07:07
-
پروژه 4 - پیشپردازش متن 07:03
-
پروژه 5 - طبقهبندی متن با LSTM 16:41
-
مقدمه بخش 02:05
-
نحوه عملکرد LSTM دوطرفه 04:26
-
پروژه 1 - شکلهای LSTM دوطرفه 08:56
-
پروژه 2 - LSTM دوطرفه برای طبقهبندی داده MNIST 07:06
-
LSTM دوطرفه دوگانه برای طبقهبندی تصویر 03:09
-
پروژه 3 - LSTM دوطرفه دوگانه برای طبقهبندی MNIST 11:33
-
مقدمه بخش 01:36
-
پروژه 1 - شکلهای LSTM دوطرفه 07:23
-
پروژه 2 - LSTM دوطرفه برای طبقهبندی سری زمانی 18:06
-
مقدمه بخش 03:33
-
پروژه 1 - شکلهای 1DCNN 07:58
-
پروژه 1 - شبکه عصبی کانولوشن تک بعدی برای طبقهبندی سری زمانی تک متغیره 11:53
-
پروژه 2 - شبکه عصبی کانولوشن تک بعدی برای طبقهبندی سریهای زمانی چندمتغیره 12:22
-
مقدمه بخش 01:19
-
پروژه 1 - شکلهای IDCNN 05:41
-
پروژه 2 - شبکه عصبی کانولوشن تک بعدی برای طبقهبندی سریهای زمانی چندمتغیره 17:26
-
مقدمه بخش 01:46
-
معماری خودرمزگذار 08:11
-
کاربردهای خودرمزگذار 07:03
-
پروژه 1 - خودرمزگذار به عنوان حذف نویز تصویر 16:39
-
پروژه 2 - خودرمزگذار به عنوان حذف پوشش تصویر 05:24
-
پروژه 3 - خودرمزگذار به عنوان classifier تصویر 13:29
-
مقدمه بخش 02:10
-
پروژه 1 - شکلهای خودرمزگذار CNN 05:15
-
پروژه 2 - بازسازی و طبقهبندی تصویر با خودرمزگذار CNN 16:04
-
مقدمه بخش 02:26
-
پروژه 1 - شکلهای خودرمزگذار LSTM 12:50
-
پروژه 2 - خودرمزگذار LSTM برای بازسازی موج سینوسی - بخش 1 06:31
-
پروژه 2 - خودرمزگذار LSTM برای بازسازی موج سینوسی - بخش 2 03:28
-
پروژه 3 - خودرمزگذار LSTM برای بازسازی موج ارهای 06:44
-
آشنایی با VAE 06:55
-
پروژه 1 - VAE مبتنی بر لایههای کاملاً متصل 18:34
-
پروژه 2 - شکلهای CNN VAE 16:40
-
پروژه 3 - CNN VAE برای بازتولید تصاویر MNIST از نویز 07:20
-
مقدمه بخش 01:06
-
مدلهای تمایزی و مولد 02:41
-
آموزش GAN 06:14
-
پروژه 1 - GAN برای بازتولید داده MNIST 23:26
-
شکلهای DCGAN 11:10
-
پروژه 1 - DCGAN روی داده MNIST 10:55
-
پروژه 2 - DCGAN برای تصاویر 64 در 64 08:49
-
آشنایی با بخشهای ترنسفرمر 04:36
-
مقدمه بخش 07:28
-
پروژه 1 - تحلیل احساسات 14:57
-
پروژه 2 - تولید متن 09:12
-
پروژه 3 - مدلسازی زبان ماسک شده 08:21
-
پروژه 4 - خلاصهسازی متن 07:58
-
پروژه 5 - ترجمه ماشینی 06:45
-
پروژه 6 - پاسخ به سوالات 09:59
-
بلوکهای سازنده بنیادی یک ترنسفرمر 06:58
-
رمزگذار و رمزگشا 10:10
-
انکودینگ پوزیشنال 05:46
-
مکانیزم توجه 12:25
-
مقدمه بخش 03:55
-
پروژه 1 - مدل و توکنسازی 15:58
-
پروژه 2 - تیونینگ دقیق ترنسفرمر برای تحلیل احساسات 15:15
-
پروژه 3 - تیونینگ دقیق ترنسفرمر روی مجموعه داده سفارشی 14:42
-
مقدمه بخش 04:27
-
پروژه 1 - تیونینگ دقیق ترنسفرمر بینایی (ViT) روی مجموعه داده CIFAR-10 21:05
-
پروژه 2 - تیونینگ دقیق ترنسفرمر بینایی (ViT) روی مجموعه داده سفارشی 09:40
-
خودرمزگذارهای ماسک شده 03:57
-
پروژه 3 - خودرمزگذار ماسک شده (MAE) روی مجموعه داده CIFAR-10 12:48
-
پروژه 4 - خودرمزگذار ماسک شده (MAE) روی مجموعه داده سفارشی 09:21
-
مقدمه بخش 03:53
-
پروژه 1 - شکلهای رمزگذار 11:06
-
پروژه 2 - طبقهبندی سریهای زمانی 17:21
-
پروژه 3 - شکلهای ترنسفرمر سریهای زمانی 05:07
-
پروژه 4 - بازسازی سریهای زمانی با استفاده از ترنسفرمر سریهای زمانی 12:44
-
آشنایی با انتقال سبک با شبکههای عصبی 08:36
-
پروژه 1 - انتقال سبک با شبکههای عصبی با VGG-16 18:34
-
پروژه 2 - انتقال سبک با شبکههای عصبی با AlexNet 08:18
-
آشنایی با بخشهای یادگیری ماشین نظارت نشده 01:16
-
مقدمه بخش 01:41
-
تعریف، شهود و مراحل خوشهبندی K-means 07:56
-
الگوریتم K-means در یک بعد (مثال عددی) 09:24
-
الگوریتم K-means در دو بعد (مثال عددی) 11:50
-
تابع هدف الگوریتم K-means 01:59
-
انتخاب خوشههای بهینه (روش آرنج) 08:20
-
ارزیابی خوشهبندی K-means 10:45
-
پروژه 1 - خوشهبندی K-means - بخش 1 14:14
-
پروژه 1 - خوشهبندی K-means - بخش 2 12:08
-
پروژه 1 - خوشهبندی K-means - بخش 3 03:09
-
پروژه 2 - خوشهبندی K-means 09:34
-
پروژه 3 - خوشهبندی K-means 08:00
-
مقدمه بخش 01:49
-
مفاهیم کلیدی PCA 05:19
-
چرا به PCA نیاز داریم؟ 07:30
-
درک PCA با مثال عددی 23:03
-
پروژه 1 - PCA 12:47
-
پروژه 2 - PCA 10:04
-
پروژه 3 - PCA 04:54
-
پروژه 4 - PCA 07:26
-
پروژه 5 - PCA 06:11
-
پروژه 6 - PCA 08:28
مشخصات آموزش
بررسی عمیق اقیانوس یادگیری عمیق با Pytorch و تنسورفلو
- تاریخ به روز رسانی: 1404/06/21
- سطح دوره:همه سطوح
- تعداد درس:317
- مدت زمان :48:30:08
- حجم :18.88GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy