دوره آموزشی
آموزش های یودمی
دوبله زبان فارسی

گواهینامه Microsoft DP-203 Certified: Azure Data Engineer Associate

گواهینامه Microsoft DP-203 Certified: Azure Data Engineer Associate

✅ سرفصل و جزئیات آموزش

با کمک این دوره برای گواهینامه Azure Data Engineer Certification: DP-203 Data Engineering در آزمون مایکروسافت آژور آماده می شوید.

آنچه یاد خواهید گرفت

  • این دوره برای دانشجویانی که مشتاق دریافت گواهینامه Microsoft Certified: Azure Data Engineer Associate" Dp-203 certification هستند ایده آل است.
  • این دوره شامل محتوای جامع هماهنگ برای قبولی در آزمون DP-203 است.
  • دانشجویان در پیاده سازی و مدیریت حجم های کاری مهندسی داده با استفاده از مایکروسافت آژور، تجربه عملی کسب خواهند کرد.
  • این دوره سرویس های کلیدی آژور، از جمله Azure Synapse Analytics و ADF و Azure Data Lake Storage Gen2 و Azure Stream Analytics و Azure Databricks را پوشش می دهد.
  • مقالات گذشته و تمرین - دسترسی به 500 سوال آزمون برای تقویت دانش و آمادگی برای آزمون گواهینامه

پیش نیازهای دوره

  • آشنایی با هر سیستم پایگاه داده و مهارت اولیه در SQL خوب است.
  • دانش اساسی از فرمت های داده انتظار می رود. به عنوان مثال csv و غیره

توضیحات دوره

این ساختار دوره، دوره را در یک پیشرفت منطقی سازماندهی می کند و در عین حال یک تفکیک واضح از مباحث تحت پوشش را ارائه می دهد. در اینجا مباحث ساختار یافته بخش های دوره آمده است:

بخش 1 - مقدمه و راه اندازی

  • بررسی دوره و راه اندازی اولیه

بخش 2 - طراحی و پیاده سازی ذخیره سازی داده 

  • دریاچه داده آژور - درک و پیاده سازی ذخیره سازی داده با دریاچه داده آژور
  • Azure SQL Server - طراحی راه حل های ذخیره سازی با استفاده از Azure SQL Server
  • Cosmos DB - بررسی قابلیت های ذخیره سازی با Cosmos DB
  • Azure Synapse Analytics - ساخت و مدیریت ذخیره سازی در Azure Synapse Analytics

بخش 3 - توسعه پردازش داده 

  • Azure Synapse Spark Pool - استفاده از استخرهای اسپارک در Azure Synapse برای پردازش داده 
  • Azure Data Factory - توسعه پایپ لاین های ETL و جریان های داده در Azure Data Factory
  • Azure Databricks - پیاده سازی گردش کارهای پردازش داده با Azure Databricks
  • هاب های رویداد آژور - استریمینگ و پردازش داده بلادرنگ با استفاده از هاب های رویداد آژور
  • Azure Stream Analytics - پردازش استریمینگ بلادرنگ داده با کوئری های مبتنی بر SQL

بخش 4 - ایمن سازی داده خود

  • امنیت دریاچه داده آژور - پیاده سازی بهترین شیوه های امنیت برای دریاچه داده آژور
  • امنیت Azure Synapse Analytics - ایمن سازی داده در Azure Synapse Analytics
  • Azure Data Factory و Databricks Security - اطمینان از گردش کارهای ایمن داده در Azure Data Factory و Databricks

بخش 4 - نظارت و بهینه سازی

  • ذخیره سازی دریاچه داده آژور - نظارت و بهینه سازی عملکرد ذخیره سازی
  • Azure Data Factory - اطمینان از عملیات های کارآمد با ابزارهای نظارت
  • Azure Synapse Analytics - پرفورمنس تیونینگ و نظارت بر حجم های کاری تحلیل
  • Azure Stream Analytics و Cosmos DB - ساده‌ سازی استریم های داده و عملیات های پایگاه داده
  • حاکمیت داده‌ با Microsoft Purview - مدیریت و حاکمیت داده با استفاده از Microsoft Purview

بخش 5 - آمادگی برای آزمون

  • مقالات گذشته و تمرین - دسترسی به 500 سوال آزمون برای تقویت دانش و آمادگی برای آزمون گواهینامه

این دوره برای چه کسانی مناسب است؟

  • کسی که می خواهد شغل خود را در زمینه مهندسی داده ارتقا دهد.
  • حرفه ای که دوست دارد خود را به مهندس داده ماهر تبدیل کند.
  • تسلط به DP-203 شما را قادر می سازد تا راه حل های تحلیلی را با استفاده از فناوری های پلتفرم داده مایکروسافت آژور بسازید و راه را برای یک حرفه موفق در مهندسی داده هموار کنید.
  • حرفه ای های داده و متخصصان BI و تحلیل داده با هدف تعمیق دانش خود در زمینه مهندسی داده

گواهینامه Microsoft DP-203 Certified: Azure Data Engineer Associate

  • بررسی - رایانش ابری 07:08
  • مفاهیم - آشنایی با رایانش ابری 04:09
  • بررسی - مایکروسافت آژور 04:21
  • بررسی - چگونه می خواهیم به آزمون نزدیک شویم؟ 05:31
  • عملی - ایجاد حساب آژور 02:53
  • عملی - بررسی پورتال آژور 02:17
  • بررسی - نکته مهم - چگونه دوره را کامل کنیم؟ 04:24
  • بررسی - مفاهیم مبانی مهندسی داده 02:38
  • بررسی انواع حساب ذخیره سازی آژور 02:05
  • عملی - ایجاد حساب ذخیره سازی آژور 09:05
  • بررسی حساب ذخیره سازی DataLake Gen2 03:07
  • عملی - ایجاد حساب ذخیره سازی DataLake Gen2 06:03
  • عملی - انواع فرمت های مختلف + آپلود فایل ها در ذخیره سازی آژور 05:59
  • بابت تکمیل بخش تبریک می گوییم 01:15
  • بررسی - پایگاه داده Azure SQL 06:39
  • بررسی - Tier قیمت گذاری و انواع پیکربندی Azure SQL 03:44
  • بررسی - ایجاد SQL Server در آژور 03:35
  • عملی - ایجاد SQL Server 07:50
  • عملی - اتصال با SQL Server با استفاده از SSMS 02:51
  • نصب Azure Data Studio 05:17
  • عملی - مبانی دستور T-SQL Select 03:12
  • عملی - شرطی‌ سازی چندگانه T-SQL با استفاده از Where Clause 02:19
  • عملی - T-SQL Order By Clause 01:07
  • عملی - توابع تجمیع T-SQL 02:13
  • عملی - T-SQL Group By Clause 01:37
  • عملی - پارتیشن T-SQL بر اساس دستور 04:02
  • عملی - دستور LEAD و LAG در T-SQL 02:05
  • عملی - عبارت مشترک جدول T-SQL با استفاده از WITH Clause 03:20
  • عملی - دستور T-SQL CASE 02:49
  • بابت تکمیل بخش تبریک می گوییم 01:27
  • برسی - CosmosDB 05:19
  • مفاهیم - یوزکیس های CosmosDB 04:24
  • مفاهیم - CosmosDB به عنوان یک راه حل 02:07
  • بررسی - قیمت گذاری Cosmos DB 01:35
  • مفاهیم - مدل های توان عملیاتی Cosmos DB 03:37
  • بررسی - Cosmos DB APIs 01:09
  • مفاهیم - مدل سازی داده و APIs آن ها 01:59
  • مفاهیم - یوزکیس های APIs برای Cosmos DB 02:31
  • عملی - ایجاد حساب Cosmos DB 04:01
  • مفاهیم - پایگاه داده ها، کانتینرها و آیتم ها در Cosmos DB 06:12
  • عملی - ایجاد پایگاه داده در حساب Cosmos DB 01:58
  • عملی - ایجاد کانتینر در Cosmos DB 03:37
  • عملی - ایجاد آیتم ها در Cosmos DB 02:49
  • مفاهیم - پارتیشن های فیزیکی در Cosmos DB 04:44
  • مفاهیم - پارتیشن های منطقی در Cosmos DB 03:36
  • مفاهیم - سطوح سازگاری در Cosmos DB 06:39
  • عملی - تنظیم سازگاری برای Cosmos DB 01:24
  • عملی - مقیاس‌ بندی DB Cosmos در سراسر جهان 03:23
  • بابت تکمیل بخش تبریک می گوییم 01:32
  • بررسی - مفاهیم اساسی Azure Synapse Analytics 07:31
  • بررسی - کامپوننت های Azure Synapse 02:00
  • بررسی - Azure Synapse Compute Power 01:40
  • مفهوم - پایگاه داده SQL در مقابل انبار داده SQL 04:15
  • بررسی - استخرهای SQL بدون سرور 02:46
  • بررسی - معماری زیربنایی Synapse SQL 04:52
  • عملی - ایجاد فضای کاری Synapse 07:18
  • عملی - کوئری CSV از دریاچه داده 08:12
  • عملی - تنظیم تخصیص نقش در دریاچه داده برای خواندن داده 05:51
  • بررسی - استخر SQL اختصاصی 02:12
  • عملی - ایجاد و پاز کردن استخر SQL اختصاصی 04:29
  • بررسی - متدهای بارگذاری داده 02:12
  • عملی - فرمت CSV برای SQL بدون سرور جدول خارجی - بخش 1 06:51
  • عملی - فرمت CSV برای SQL بدون سرور جدول خارجی - بخش 2 26:15
  • عملی - فرمت CSV برای SQL بدون سرور جدول خارجی - بخش 3 19:00
  • عملی - فرمت parquet جدول خارجی بدون سرور و اختصاصی 21:29
  • عملی - کپی داده با استفاده از Polybase 04:27
  • عملی - کپی داده با استفاده از دستور Copy into 08:01
  • عملی - کپی داده با تشخیص اسکیمای خودکار با استفاده از دستور Copy into 03:01
  • عملی - کپی داده با استفاده از پایپ لاین ها 04:13
  • مفاهیم - فایل ها و پوشه های متقاطع برای فایل سیستم هدوپ و نیتیو 03:21
  • بررسی - سیستم های OLAP و OLTP 04:24
  • بررسی - جداول حقیقت و ابعاد 04:46
  • بررسی - طراحی اسکیمای ستاره ای و گلوله برفی 03:52
  • عملی - انتقال داده از SQL به استخر اختصاصی Synapse SQL 12:48
  • عملی - انتقال داده از SQL به استخر اختصاصی Synapse SQL 05:45
  • مفاهیم - جدول یا متدهای توزیع داده 03:11
  • مفاهیم - انتخاب توزیع 07:50
  • مفاهیم - هش و توزیع رپلیکیت شده 06:26
  • عملی - ایجاد توزیع جدول در استخر SQL اختصاصی 02:09
  • عملی - تب نظارت و عملکرد کوئری در Synapse 11:05
  • مفاهیم - انواع کاهش آرام ابعاد در حال تغییر 04:53
  • عملی - کلید کسب و کار برای ایجاد جداول ابعاد 07:35
  • عملی - کلید کسب و کار برای ایجاد جداول ابعاد 02:53
  • بررسی - استفاده از ایندکس روی جداول 04:21
  • مفاهیم - پارتیشن و سوئیچینگ پارتیشن 16:10
  • عملی - ایجاد نقطه ریکاوری و بازیابی استخر SQL اختصاصی 02:37
  • بررسی - قالب های پایگاه داده برای Synapse Analytics 03:06
  • بابت تکمیل بخش تبریک می گوییم 03:46
  • بررسی - تاریخچه پردازش کلان داده 02:27
  • بررسی - مزایای آپاچی اسپارک 02:07
  • بررسی - معماری زیربنایی اسپارک 05:48
  • مفاهیم - استخرهای اسپارک داخل Azure Synapse 03:11
  • عملی - ایجاد استخر اسپارک در Synapse 03:29
  • عملی - ایجاد دیتافریم با استفاده از پایتون 03:18
  • عملی - خواندن داده از دریاچه داده با استفاده از پایتون 05:54
  • عملی - کار با تابع بارگذاری با استفاده از pyspark 04:35
  • عملی - نوشتن داده در SQL اختصاصی با استفاده از استخرهای اسپارک 08:11
  • بابت تکمیل بخش تبریک می گوییم 01:46
  • بررسی - Azure Data Factory 11:43
  • بررسی - ETL (استخراج، تبدیل و بارگذاری) 01:51
  • عملی - ایجاد Azure Data Factory در آژور 05:33
  • عملی - کپی فعالیت داده از دریاچه داده به Blob Storage 07:09
  • عملی - کپی فعالیت داده برای تبدیل parquet به جی سان 04:18
  • عملی - ایجاد پایپ لاین csv به جی سان 07:02
  • بررسی - پایپ لاین ها و نگاشت جریان های داده در ADF 03:33
  • عملی - نگاشت جریان داده - SQL به جدول حقیقت در Synapse SQL 19:39
  • عملی - نگاشت جریان داده - SQL به جدول ابعاد در Synapse SQL 07:32
  • عملی - نگاشت جریان داده - SQL به فعالیت رویه ذخیره شده در Synapse SQL 05:43
  • عملی - نگاشت جریان داده - SQL به فعالیت ستون مشتق شده در Synapse SQL 09:20
  • عملی - نگاشت جریان داده - SQL به فعالیت کلید کسب و کار در Synapse SQL 07:17
  • بررسی - نگاشت جریان داده - ویژگی اشکال زدایی داده 03:53
  • بررسی - نگاشت جریان داده - انواع سینک موجود 07:47
  • عملی - نگاشت جریان داده - داده جی سان (آرایه و آبجکت) 11:31
  • مفاهیم - یکپارچه سازی ران تایم ها 05:13
  • عملی - نصب IR خود میزبانی شده 06:23
  • عملی - داده کپی IR خود میزبانی شده از رایانه شخصی به دریاچه داده 09:03
  • سناریوی شکست پایپ لاین 03:15
  • بررسی - انواع تریگر در ADF 08:50
  • نمایش کد کامپوننت های ADF در گیت 02:11
  • گیت چیست؟ - چگونه نسخه ADF را کنترل کنیم؟ 03:42
  • عملی - پیکربندی گیت با ADF 04:52
  • عملی - چگونه تغییرات را در کسب و کار ادغام کرده و Pull request را در ADF ایجاد کنیم؟ 04:54
  • بابت تکمیل بخش تبریک می گوییم 01:35
  • بررسی - آشنایی با Databricks 03:23
  • بررسی - مزایای DataBricks 02:26
  • مفاهیم - Azure Databricks 05:14
  • عملی - ایجاد فضای کاری Databricks 02:55
  • مفاهیم - محاسبه انواع خوشه در Azure Databricsk 03:18
  • عملی - ایجاد محاسبه در فضای کاری DataBricks 03:38
  • عملی - خواندن داده در DBFS 04:23
  • عملی - خواندن داده از حساب ADLS 03:38
  • عملی - مصورسازی ها در نوت بوک در DataBricks 01:55
  • عملی - پردازش داده جی سان 07:20
  • عملی - ذخیره در Databricks به عنوان جدول 02:43
  • عملی - ذخیره جدول در دریاچه داده 08:22
  • عملی - خواندن استریم در Databricks 03:48
  • عملی - کپی استریم در جدول Databricks 03:39
  • عملی - نوشتن داده به Synapse SQL 05:39
  • عملی - خواندن داده از استخر SQL اختصاصی Synapse 02:05
  • عملی - تاریخچه جداول دلتا 03:29
  • عملی - زمانبندی یک Job 01:55
  • عملی - ایجاد منبع فضای نام هاب رویداد 02:37
  • عملی - ایجاد هاب رویداد 01:57
  • عملی - نصب کتابخانه های مورد نیاز 05:32
  • عملی - راه اندازی استریم هاب رویداد در DataBricks 03:23
  • عملی - تبدیل استریم رویداد در DataBricks 03:29
  • عملی - راه اندازی برای اجرای نوت بوک Databricks از ADF 04:06
  • عملی - اجرای نوت بوک Databricks از پایپ لاین ADF 05:14
  • عملی - حذف منابع استفاده نشده 03:13
  • بابت تکمیل بخش تبریک می گوییم 03:39
  • پردازش داده دسته ای در آژور 03:45
  • پردازش داده استریم در آژور 02:41
  • بررسی - هاب های رویداد آژور 02:52
  • مفاهیم - پارتیشن ها در هاب های رویداد 01:31
  • عملی - ایجاد فضای نام هاب رویداد 02:50
  • عملی - ایجاد هاب رویداد در فضای نام هاب رویداد 02:36
  • عملی - دریافت داده در هاب رویداد 08:00
  • عملی - ویژگی ضبط داده در هاب رویداد 07:15
  • بررسی - Azure Stream Analytics 03:46
  • بررسی - هزینه Stream Analytics 03:00
  • عملی - ایجاد فضای کاری Stream Analytics 03:32
  • عملی - تعریف ورودی در Stream Analytics 07:01
  • عملی - ایجاد جدول Synapse SQL 05:04
  • عملی - ایجاد جدول در Synapse SQL 01:17
  • عملی - تنظیم لوکیشن مرحله بندی در Stream Analytics 01:11
  • عملی - تعریف خروجی به عنوان استخر Synapse SQL در Stream Analytics 02:13
  • عملی - ایجاد کوئری و شروع استریمینگ Job 03:31
  • عملی - واکشی داده از ADSL به synapse SQL با استفاده از Stream Analytics 14:09
  • عملی - ارسال لاگ ها به هاب رویداد 07:57
  • عملی - تعریف ورودی در Stream Analytics 04:05
  • عملی - تعریف خروجی برای Stream Analytics 04:41
  • عملی - فرموله سازی کوئری بر اساس ساختار داده خود 11:15
  • عملی - نظارت بر خطاها برای Stream Analytics 02:27
  • بررسی - توابع Window داخلی در Stream Analytics 02:35
  • بررسی - Tumbling و Hopping Window در Stream Analytics 04:49
  • بررسی - توابع Window کشویی، سشن و اسنپ شات 07:20
  • عملی - راه اندازی برای Tumbling Window در Stream Analytics 11:47
  • عملی - استفاده از داده مرجع به عنوان ورودی در Stream Analytics 17:04
  • بابت تکمیل بخش 9 و 10 تبریک می گوییم 02:43
  • عملی - نصب ابزار کلاینت Azure Data Explorer 03:44
  • بررسی - جنبه های امنیت Azure Data Lake Gen2 03:44
  • عملی - اتصال حساب ذخیره‌ سازی به Data Explorer با استفاده از Account KEY 03:57
  • عملی - اتصال حساب ذخیره سازی از طریق توکن SAS 04:05
  • بررسی - فرآیند احراز هویت و مجوز 02:31
  • بررسی - Microsoft Entra ID 03:09
  • عملی - ایجاد کاربر Microsoft Entra ID 03:19
  • بررسی - نقش های RBAC 03:23
  • عملی - تخصیص RBAC به یک کاربر 02:15
  • عملی - لاگین با استفاده از کاربر جدید Entra ID و تخصیص نقش های RBAC 08:04
  • بررسی - انواع مجوزهای لیست کنترل دسترسی (ACLs) 02:41
  • عملی - پیاده سازی ACLs در حساب های ذخیره سازی 10:41
  • مفاهیم - ایمن سازی ذخیره سازی خود با استفاده از اندپوینت سرویس 04:31
  • عملی - ایجاد ماشین مجازی برای شبکه مجازی 04:58
  • عملی - اجرای ماشین مجازی برای اندپوینت سرویس 04:16
  • عملی - راه‌ اندازی برای دسترسی به ذخیره‌ سازی با استفاده از اندپوینت سرویس 09:43
  • بررسی - انواع رمزگذاری امنیت Azure Synapse 02:48
  • بررسی - رمزگذاری شفاف داده برای استخرهای SQL اختصاصی 05:14
  • عملی - ایجاد Key Vault 03:09
  • عملی - پیکربندی Key Vault و ایجاد کلید 04:51
  • عملی - فعال سازی رمزگذاری دوگانه برای فضای کاری Synapse 02:40
  • بررسی - Microsoft Entra ID برای Synapse Analytics 03:39
  • عملی - تنظیم کاربر Entra ID به عنوان کاربر ادمین برای Synapse Analytics 02:25
  • عملی - مجوز کاربر معین Microsoft Entra ID در استخر Sql اختصاصی 10:26
  • بررسی - هویت های مدیریت شده در آژور 03:53
  • عملی - ایجاد جدول خارجی با استفاده از Synapse هویت های مدیریت شده 06:06
  • عملی - کشف داده و طبقه بندی استخر Synapse SQL 05:01
  • عملی - امنیت سطح ستون Synapse SQL 05:55
  • عملی - ماسک کردن داده پویا در Synapse SQL 07:22
  • عملی - امنیت سطح سطر Synapse SQL 05:29
  • عملی - رمزگذاری Azure Data Factory 03:41
  • بررسی - رمزگذاری با استفاده از secret scope در DataBricks 02:44
  • عملی - رجیستر اپلیکیشن در Microsoft EntraID و ایجاد یک secret 03:00
  • عملی - ذخیره secret در Key Vault 02:22
  • عملی - دسترسی به Vault با استفاده از سیاست های دسترسی برای Databricks 01:46
  • عملی - ایجاد secret scope در Databricks 04:26
  • عملی - پیاده سازی اعتبارنامه اسکوپ شده در نوت بوک Databricks 07:07
  • عملی - اجرای یک کد 01:32
  • بابت تکمیل بخش های امنیت تبریک می گوییم 03:03
  • مفاهیم - شیوه‌ های ذخیره‌ سازی دریاچه داده‌ 07:39
  • مفاهیم - Tiers دسترسی دریاچه داده 05:25
  • عملی - انتخاب Tier پیش فرض برای Blobs 01:14
  • عملی - تغییر Tier در سطح فایل برای Blobs 02:21
  • عملی - قوانین مدیریت چرخه عمر برای Blobs 02:07
  • بررسی - Azure Data Factory IR و اشکال زدایی 01:57
  • عملی - حاشیه نویسی ها در ADF 01:12
  • عملی - نظارت بر سرویس در آژور 02:22
  • عملی - ایجاد هشدار برای Data Factory 06:18
  • عملی - نظارت بر لاگ های Data Factory از طریق فضای کاری Log Analytics 08:49
  • بررسی - فرمان های DMV 03:49
  • بررسی - مدیریت حجم کاری در Synapse 02:29
  • عملی - مدیریت حجم کاری در استخر SQL اختصاصی 01:08
  • مفاهیم - کش کردن مجموعه نتایج در Synapse SQL 02:41
  • عملی - فعال سازی کش کردن مجموعه نتایج 01:37
  • عملی - بررسی چولگی داده 02:07
  • عملی - نظارت بر فضای کاری Synapse 01:16
  • عملی - اتصال Synapse با Log Analytics 02:06
  • عملی - حذف تنظیمات تشخیصی 00:28
  • بررسی - واحدهای استریمینگ و نظارت برای Stream Analytics 02:34
  • بررسی - پارتیشن بندی رویداد و پردازش موازی در Stream Analytics 02:34
  • مفاهیم - مدیریت زمان در Azure Stream Analytics 05:06
  • عملی - نظارت بر Stream Analytics Job 03:35
  • عملی - نظارت بر Cosmos DB از طریق ماتریس ها 01:10
  • عملی - راه اندازی Log Analytics با Cosmos DB 01:49
  • مفاهیم - مدیریت و حاکمیت داده با Microsoft Purview 04:10
  • عملی - ایجاد حساب Microsoft Purview 02:21
  • عملی - اسکن دارایی‌ های دریاچه داده با Purview 05:55
  • عملی - اسکن استخر Synapse SQL با Purview 07:31
  • عملی - جستجو در Microsoft Purview 01:09
  • عملی - اتصال DataFactory با Purview 06:36
  • عملی - حذف دارایی ها 03:45
  • بابت تکمیل بخش های نظارت و بهینه سازی تبریک می گوییم 04:22
  • بررسی - آزمون در مایکروسافت برای Dp-203 10:21
  • آزمون تمرینی 1 None
  • آزمون تمرینی 2 None

7,827,500 1,565,500 تومان

مشخصات آموزش

گواهینامه Microsoft DP-203 Certified: Azure Data Engineer Associate

  • تاریخ به روز رسانی: 1404/06/14
  • سطح دوره:همه سطوح
  • تعداد درس:254
  • مدت زمان :19:49:30
  • حجم :10.86GB
  • زبان:دوبله زبان فارسی
  • دوره آموزشی:AI Academy

آموزش های مرتبط

The Great Courses
770,000 154,000 تومان
  • زمان: 01:57:58
  • تعداد درس: 29
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
4,351,500 870,300 تومان
  • زمان: 11:01:32
  • تعداد درس: 53
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
711,000 142,200 تومان
  • زمان: 01:48:43
  • تعداد درس: 14
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,356,000 271,200 تومان
  • زمان: 03:26:02
  • تعداد درس: 29
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
3,930,000 786,000 تومان
  • زمان: 09:57:30
  • تعداد درس: 74
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
4,654,000 930,800 تومان
  • زمان: 11:47:11
  • تعداد درس: 71
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
2,113,000 422,600 تومان
  • زمان: 05:21:45
  • تعداد درس: 49
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,362,500 272,500 تومان
  • زمان: 03:27:39
  • تعداد درس: 60
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
7,156,000 1,431,200 تومان
  • زمان: 18:07:44
  • تعداد درس: 123
  • سطح دوره:
  • زبان: دوبله فارسی

آیا سوالی دارید؟

ما به شما کمک خواهیم کرد تا شغل و رشد خود را افزایش دهید.
امروز با ما تماس بگیرید