دوره آموزشی
دوبله زبان فارسی
گواهینامه Microsoft DP-203 Certified: Azure Data Engineer Associate
✅ سرفصل و جزئیات آموزش
با کمک این دوره برای گواهینامه Azure Data Engineer Certification: DP-203 Data Engineering در آزمون مایکروسافت آژور آماده می شوید.
آنچه یاد خواهید گرفت
- این دوره برای دانشجویانی که مشتاق دریافت گواهینامه Microsoft Certified: Azure Data Engineer Associate" Dp-203 certification هستند ایده آل است.
- این دوره شامل محتوای جامع هماهنگ برای قبولی در آزمون DP-203 است.
- دانشجویان در پیاده سازی و مدیریت حجم های کاری مهندسی داده با استفاده از مایکروسافت آژور، تجربه عملی کسب خواهند کرد.
- این دوره سرویس های کلیدی آژور، از جمله Azure Synapse Analytics و ADF و Azure Data Lake Storage Gen2 و Azure Stream Analytics و Azure Databricks را پوشش می دهد.
- مقالات گذشته و تمرین - دسترسی به 500 سوال آزمون برای تقویت دانش و آمادگی برای آزمون گواهینامه
پیش نیازهای دوره
- آشنایی با هر سیستم پایگاه داده و مهارت اولیه در SQL خوب است.
- دانش اساسی از فرمت های داده انتظار می رود. به عنوان مثال csv و غیره
توضیحات دوره
این ساختار دوره، دوره را در یک پیشرفت منطقی سازماندهی می کند و در عین حال یک تفکیک واضح از مباحث تحت پوشش را ارائه می دهد. در اینجا مباحث ساختار یافته بخش های دوره آمده است:
بخش 1 - مقدمه و راه اندازی
- بررسی دوره و راه اندازی اولیه
بخش 2 - طراحی و پیاده سازی ذخیره سازی داده
- دریاچه داده آژور - درک و پیاده سازی ذخیره سازی داده با دریاچه داده آژور
- Azure SQL Server - طراحی راه حل های ذخیره سازی با استفاده از Azure SQL Server
- Cosmos DB - بررسی قابلیت های ذخیره سازی با Cosmos DB
- Azure Synapse Analytics - ساخت و مدیریت ذخیره سازی در Azure Synapse Analytics
بخش 3 - توسعه پردازش داده
- Azure Synapse Spark Pool - استفاده از استخرهای اسپارک در Azure Synapse برای پردازش داده
- Azure Data Factory - توسعه پایپ لاین های ETL و جریان های داده در Azure Data Factory
- Azure Databricks - پیاده سازی گردش کارهای پردازش داده با Azure Databricks
- هاب های رویداد آژور - استریمینگ و پردازش داده بلادرنگ با استفاده از هاب های رویداد آژور
- Azure Stream Analytics - پردازش استریمینگ بلادرنگ داده با کوئری های مبتنی بر SQL
بخش 4 - ایمن سازی داده خود
- امنیت دریاچه داده آژور - پیاده سازی بهترین شیوه های امنیت برای دریاچه داده آژور
- امنیت Azure Synapse Analytics - ایمن سازی داده در Azure Synapse Analytics
- Azure Data Factory و Databricks Security - اطمینان از گردش کارهای ایمن داده در Azure Data Factory و Databricks
بخش 4 - نظارت و بهینه سازی
- ذخیره سازی دریاچه داده آژور - نظارت و بهینه سازی عملکرد ذخیره سازی
- Azure Data Factory - اطمینان از عملیات های کارآمد با ابزارهای نظارت
- Azure Synapse Analytics - پرفورمنس تیونینگ و نظارت بر حجم های کاری تحلیل
- Azure Stream Analytics و Cosmos DB - ساده سازی استریم های داده و عملیات های پایگاه داده
- حاکمیت داده با Microsoft Purview - مدیریت و حاکمیت داده با استفاده از Microsoft Purview
بخش 5 - آمادگی برای آزمون
- مقالات گذشته و تمرین - دسترسی به 500 سوال آزمون برای تقویت دانش و آمادگی برای آزمون گواهینامه
این دوره برای چه کسانی مناسب است؟
- کسی که می خواهد شغل خود را در زمینه مهندسی داده ارتقا دهد.
- حرفه ای که دوست دارد خود را به مهندس داده ماهر تبدیل کند.
- تسلط به DP-203 شما را قادر می سازد تا راه حل های تحلیلی را با استفاده از فناوری های پلتفرم داده مایکروسافت آژور بسازید و راه را برای یک حرفه موفق در مهندسی داده هموار کنید.
- حرفه ای های داده و متخصصان BI و تحلیل داده با هدف تعمیق دانش خود در زمینه مهندسی داده
گواهینامه Microsoft DP-203 Certified: Azure Data Engineer Associate
-
بررسی - رایانش ابری 07:08
-
مفاهیم - آشنایی با رایانش ابری 04:09
-
بررسی - مایکروسافت آژور 04:21
-
بررسی - چگونه می خواهیم به آزمون نزدیک شویم؟ 05:31
-
عملی - ایجاد حساب آژور 02:53
-
عملی - بررسی پورتال آژور 02:17
-
بررسی - نکته مهم - چگونه دوره را کامل کنیم؟ 04:24
-
بررسی - مفاهیم مبانی مهندسی داده 02:38
-
بررسی انواع حساب ذخیره سازی آژور 02:05
-
عملی - ایجاد حساب ذخیره سازی آژور 09:05
-
بررسی حساب ذخیره سازی DataLake Gen2 03:07
-
عملی - ایجاد حساب ذخیره سازی DataLake Gen2 06:03
-
عملی - انواع فرمت های مختلف + آپلود فایل ها در ذخیره سازی آژور 05:59
-
بابت تکمیل بخش تبریک می گوییم 01:15
-
بررسی - پایگاه داده Azure SQL 06:39
-
بررسی - Tier قیمت گذاری و انواع پیکربندی Azure SQL 03:44
-
بررسی - ایجاد SQL Server در آژور 03:35
-
عملی - ایجاد SQL Server 07:50
-
عملی - اتصال با SQL Server با استفاده از SSMS 02:51
-
نصب Azure Data Studio 05:17
-
عملی - مبانی دستور T-SQL Select 03:12
-
عملی - شرطی سازی چندگانه T-SQL با استفاده از Where Clause 02:19
-
عملی - T-SQL Order By Clause 01:07
-
عملی - توابع تجمیع T-SQL 02:13
-
عملی - T-SQL Group By Clause 01:37
-
عملی - پارتیشن T-SQL بر اساس دستور 04:02
-
عملی - دستور LEAD و LAG در T-SQL 02:05
-
عملی - عبارت مشترک جدول T-SQL با استفاده از WITH Clause 03:20
-
عملی - دستور T-SQL CASE 02:49
-
بابت تکمیل بخش تبریک می گوییم 01:27
-
برسی - CosmosDB 05:19
-
مفاهیم - یوزکیس های CosmosDB 04:24
-
مفاهیم - CosmosDB به عنوان یک راه حل 02:07
-
بررسی - قیمت گذاری Cosmos DB 01:35
-
مفاهیم - مدل های توان عملیاتی Cosmos DB 03:37
-
بررسی - Cosmos DB APIs 01:09
-
مفاهیم - مدل سازی داده و APIs آن ها 01:59
-
مفاهیم - یوزکیس های APIs برای Cosmos DB 02:31
-
عملی - ایجاد حساب Cosmos DB 04:01
-
مفاهیم - پایگاه داده ها، کانتینرها و آیتم ها در Cosmos DB 06:12
-
عملی - ایجاد پایگاه داده در حساب Cosmos DB 01:58
-
عملی - ایجاد کانتینر در Cosmos DB 03:37
-
عملی - ایجاد آیتم ها در Cosmos DB 02:49
-
مفاهیم - پارتیشن های فیزیکی در Cosmos DB 04:44
-
مفاهیم - پارتیشن های منطقی در Cosmos DB 03:36
-
مفاهیم - سطوح سازگاری در Cosmos DB 06:39
-
عملی - تنظیم سازگاری برای Cosmos DB 01:24
-
عملی - مقیاس بندی DB Cosmos در سراسر جهان 03:23
-
بابت تکمیل بخش تبریک می گوییم 01:32
-
بررسی - مفاهیم اساسی Azure Synapse Analytics 07:31
-
بررسی - کامپوننت های Azure Synapse 02:00
-
بررسی - Azure Synapse Compute Power 01:40
-
مفهوم - پایگاه داده SQL در مقابل انبار داده SQL 04:15
-
بررسی - استخرهای SQL بدون سرور 02:46
-
بررسی - معماری زیربنایی Synapse SQL 04:52
-
عملی - ایجاد فضای کاری Synapse 07:18
-
عملی - کوئری CSV از دریاچه داده 08:12
-
عملی - تنظیم تخصیص نقش در دریاچه داده برای خواندن داده 05:51
-
بررسی - استخر SQL اختصاصی 02:12
-
عملی - ایجاد و پاز کردن استخر SQL اختصاصی 04:29
-
بررسی - متدهای بارگذاری داده 02:12
-
عملی - فرمت CSV برای SQL بدون سرور جدول خارجی - بخش 1 06:51
-
عملی - فرمت CSV برای SQL بدون سرور جدول خارجی - بخش 2 26:15
-
عملی - فرمت CSV برای SQL بدون سرور جدول خارجی - بخش 3 19:00
-
عملی - فرمت parquet جدول خارجی بدون سرور و اختصاصی 21:29
-
عملی - کپی داده با استفاده از Polybase 04:27
-
عملی - کپی داده با استفاده از دستور Copy into 08:01
-
عملی - کپی داده با تشخیص اسکیمای خودکار با استفاده از دستور Copy into 03:01
-
عملی - کپی داده با استفاده از پایپ لاین ها 04:13
-
مفاهیم - فایل ها و پوشه های متقاطع برای فایل سیستم هدوپ و نیتیو 03:21
-
بررسی - سیستم های OLAP و OLTP 04:24
-
بررسی - جداول حقیقت و ابعاد 04:46
-
بررسی - طراحی اسکیمای ستاره ای و گلوله برفی 03:52
-
عملی - انتقال داده از SQL به استخر اختصاصی Synapse SQL 12:48
-
عملی - انتقال داده از SQL به استخر اختصاصی Synapse SQL 05:45
-
مفاهیم - جدول یا متدهای توزیع داده 03:11
-
مفاهیم - انتخاب توزیع 07:50
-
مفاهیم - هش و توزیع رپلیکیت شده 06:26
-
عملی - ایجاد توزیع جدول در استخر SQL اختصاصی 02:09
-
عملی - تب نظارت و عملکرد کوئری در Synapse 11:05
-
مفاهیم - انواع کاهش آرام ابعاد در حال تغییر 04:53
-
عملی - کلید کسب و کار برای ایجاد جداول ابعاد 07:35
-
عملی - کلید کسب و کار برای ایجاد جداول ابعاد 02:53
-
بررسی - استفاده از ایندکس روی جداول 04:21
-
مفاهیم - پارتیشن و سوئیچینگ پارتیشن 16:10
-
عملی - ایجاد نقطه ریکاوری و بازیابی استخر SQL اختصاصی 02:37
-
بررسی - قالب های پایگاه داده برای Synapse Analytics 03:06
-
بابت تکمیل بخش تبریک می گوییم 03:46
-
بررسی - تاریخچه پردازش کلان داده 02:27
-
بررسی - مزایای آپاچی اسپارک 02:07
-
بررسی - معماری زیربنایی اسپارک 05:48
-
مفاهیم - استخرهای اسپارک داخل Azure Synapse 03:11
-
عملی - ایجاد استخر اسپارک در Synapse 03:29
-
عملی - ایجاد دیتافریم با استفاده از پایتون 03:18
-
عملی - خواندن داده از دریاچه داده با استفاده از پایتون 05:54
-
عملی - کار با تابع بارگذاری با استفاده از pyspark 04:35
-
عملی - نوشتن داده در SQL اختصاصی با استفاده از استخرهای اسپارک 08:11
-
بابت تکمیل بخش تبریک می گوییم 01:46
-
بررسی - Azure Data Factory 11:43
-
بررسی - ETL (استخراج، تبدیل و بارگذاری) 01:51
-
عملی - ایجاد Azure Data Factory در آژور 05:33
-
عملی - کپی فعالیت داده از دریاچه داده به Blob Storage 07:09
-
عملی - کپی فعالیت داده برای تبدیل parquet به جی سان 04:18
-
عملی - ایجاد پایپ لاین csv به جی سان 07:02
-
بررسی - پایپ لاین ها و نگاشت جریان های داده در ADF 03:33
-
عملی - نگاشت جریان داده - SQL به جدول حقیقت در Synapse SQL 19:39
-
عملی - نگاشت جریان داده - SQL به جدول ابعاد در Synapse SQL 07:32
-
عملی - نگاشت جریان داده - SQL به فعالیت رویه ذخیره شده در Synapse SQL 05:43
-
عملی - نگاشت جریان داده - SQL به فعالیت ستون مشتق شده در Synapse SQL 09:20
-
عملی - نگاشت جریان داده - SQL به فعالیت کلید کسب و کار در Synapse SQL 07:17
-
بررسی - نگاشت جریان داده - ویژگی اشکال زدایی داده 03:53
-
بررسی - نگاشت جریان داده - انواع سینک موجود 07:47
-
عملی - نگاشت جریان داده - داده جی سان (آرایه و آبجکت) 11:31
-
مفاهیم - یکپارچه سازی ران تایم ها 05:13
-
عملی - نصب IR خود میزبانی شده 06:23
-
عملی - داده کپی IR خود میزبانی شده از رایانه شخصی به دریاچه داده 09:03
-
سناریوی شکست پایپ لاین 03:15
-
بررسی - انواع تریگر در ADF 08:50
-
نمایش کد کامپوننت های ADF در گیت 02:11
-
گیت چیست؟ - چگونه نسخه ADF را کنترل کنیم؟ 03:42
-
عملی - پیکربندی گیت با ADF 04:52
-
عملی - چگونه تغییرات را در کسب و کار ادغام کرده و Pull request را در ADF ایجاد کنیم؟ 04:54
-
بابت تکمیل بخش تبریک می گوییم 01:35
-
بررسی - آشنایی با Databricks 03:23
-
بررسی - مزایای DataBricks 02:26
-
مفاهیم - Azure Databricks 05:14
-
عملی - ایجاد فضای کاری Databricks 02:55
-
مفاهیم - محاسبه انواع خوشه در Azure Databricsk 03:18
-
عملی - ایجاد محاسبه در فضای کاری DataBricks 03:38
-
عملی - خواندن داده در DBFS 04:23
-
عملی - خواندن داده از حساب ADLS 03:38
-
عملی - مصورسازی ها در نوت بوک در DataBricks 01:55
-
عملی - پردازش داده جی سان 07:20
-
عملی - ذخیره در Databricks به عنوان جدول 02:43
-
عملی - ذخیره جدول در دریاچه داده 08:22
-
عملی - خواندن استریم در Databricks 03:48
-
عملی - کپی استریم در جدول Databricks 03:39
-
عملی - نوشتن داده به Synapse SQL 05:39
-
عملی - خواندن داده از استخر SQL اختصاصی Synapse 02:05
-
عملی - تاریخچه جداول دلتا 03:29
-
عملی - زمانبندی یک Job 01:55
-
عملی - ایجاد منبع فضای نام هاب رویداد 02:37
-
عملی - ایجاد هاب رویداد 01:57
-
عملی - نصب کتابخانه های مورد نیاز 05:32
-
عملی - راه اندازی استریم هاب رویداد در DataBricks 03:23
-
عملی - تبدیل استریم رویداد در DataBricks 03:29
-
عملی - راه اندازی برای اجرای نوت بوک Databricks از ADF 04:06
-
عملی - اجرای نوت بوک Databricks از پایپ لاین ADF 05:14
-
عملی - حذف منابع استفاده نشده 03:13
-
بابت تکمیل بخش تبریک می گوییم 03:39
-
پردازش داده دسته ای در آژور 03:45
-
پردازش داده استریم در آژور 02:41
-
بررسی - هاب های رویداد آژور 02:52
-
مفاهیم - پارتیشن ها در هاب های رویداد 01:31
-
عملی - ایجاد فضای نام هاب رویداد 02:50
-
عملی - ایجاد هاب رویداد در فضای نام هاب رویداد 02:36
-
عملی - دریافت داده در هاب رویداد 08:00
-
عملی - ویژگی ضبط داده در هاب رویداد 07:15
-
بررسی - Azure Stream Analytics 03:46
-
بررسی - هزینه Stream Analytics 03:00
-
عملی - ایجاد فضای کاری Stream Analytics 03:32
-
عملی - تعریف ورودی در Stream Analytics 07:01
-
عملی - ایجاد جدول Synapse SQL 05:04
-
عملی - ایجاد جدول در Synapse SQL 01:17
-
عملی - تنظیم لوکیشن مرحله بندی در Stream Analytics 01:11
-
عملی - تعریف خروجی به عنوان استخر Synapse SQL در Stream Analytics 02:13
-
عملی - ایجاد کوئری و شروع استریمینگ Job 03:31
-
عملی - واکشی داده از ADSL به synapse SQL با استفاده از Stream Analytics 14:09
-
عملی - ارسال لاگ ها به هاب رویداد 07:57
-
عملی - تعریف ورودی در Stream Analytics 04:05
-
عملی - تعریف خروجی برای Stream Analytics 04:41
-
عملی - فرموله سازی کوئری بر اساس ساختار داده خود 11:15
-
عملی - نظارت بر خطاها برای Stream Analytics 02:27
-
بررسی - توابع Window داخلی در Stream Analytics 02:35
-
بررسی - Tumbling و Hopping Window در Stream Analytics 04:49
-
بررسی - توابع Window کشویی، سشن و اسنپ شات 07:20
-
عملی - راه اندازی برای Tumbling Window در Stream Analytics 11:47
-
عملی - استفاده از داده مرجع به عنوان ورودی در Stream Analytics 17:04
-
بابت تکمیل بخش 9 و 10 تبریک می گوییم 02:43
-
عملی - نصب ابزار کلاینت Azure Data Explorer 03:44
-
بررسی - جنبه های امنیت Azure Data Lake Gen2 03:44
-
عملی - اتصال حساب ذخیره سازی به Data Explorer با استفاده از Account KEY 03:57
-
عملی - اتصال حساب ذخیره سازی از طریق توکن SAS 04:05
-
بررسی - فرآیند احراز هویت و مجوز 02:31
-
بررسی - Microsoft Entra ID 03:09
-
عملی - ایجاد کاربر Microsoft Entra ID 03:19
-
بررسی - نقش های RBAC 03:23
-
عملی - تخصیص RBAC به یک کاربر 02:15
-
عملی - لاگین با استفاده از کاربر جدید Entra ID و تخصیص نقش های RBAC 08:04
-
بررسی - انواع مجوزهای لیست کنترل دسترسی (ACLs) 02:41
-
عملی - پیاده سازی ACLs در حساب های ذخیره سازی 10:41
-
مفاهیم - ایمن سازی ذخیره سازی خود با استفاده از اندپوینت سرویس 04:31
-
عملی - ایجاد ماشین مجازی برای شبکه مجازی 04:58
-
عملی - اجرای ماشین مجازی برای اندپوینت سرویس 04:16
-
عملی - راه اندازی برای دسترسی به ذخیره سازی با استفاده از اندپوینت سرویس 09:43
-
بررسی - انواع رمزگذاری امنیت Azure Synapse 02:48
-
بررسی - رمزگذاری شفاف داده برای استخرهای SQL اختصاصی 05:14
-
عملی - ایجاد Key Vault 03:09
-
عملی - پیکربندی Key Vault و ایجاد کلید 04:51
-
عملی - فعال سازی رمزگذاری دوگانه برای فضای کاری Synapse 02:40
-
بررسی - Microsoft Entra ID برای Synapse Analytics 03:39
-
عملی - تنظیم کاربر Entra ID به عنوان کاربر ادمین برای Synapse Analytics 02:25
-
عملی - مجوز کاربر معین Microsoft Entra ID در استخر Sql اختصاصی 10:26
-
بررسی - هویت های مدیریت شده در آژور 03:53
-
عملی - ایجاد جدول خارجی با استفاده از Synapse هویت های مدیریت شده 06:06
-
عملی - کشف داده و طبقه بندی استخر Synapse SQL 05:01
-
عملی - امنیت سطح ستون Synapse SQL 05:55
-
عملی - ماسک کردن داده پویا در Synapse SQL 07:22
-
عملی - امنیت سطح سطر Synapse SQL 05:29
-
عملی - رمزگذاری Azure Data Factory 03:41
-
بررسی - رمزگذاری با استفاده از secret scope در DataBricks 02:44
-
عملی - رجیستر اپلیکیشن در Microsoft EntraID و ایجاد یک secret 03:00
-
عملی - ذخیره secret در Key Vault 02:22
-
عملی - دسترسی به Vault با استفاده از سیاست های دسترسی برای Databricks 01:46
-
عملی - ایجاد secret scope در Databricks 04:26
-
عملی - پیاده سازی اعتبارنامه اسکوپ شده در نوت بوک Databricks 07:07
-
عملی - اجرای یک کد 01:32
-
بابت تکمیل بخش های امنیت تبریک می گوییم 03:03
-
مفاهیم - شیوه های ذخیره سازی دریاچه داده 07:39
-
مفاهیم - Tiers دسترسی دریاچه داده 05:25
-
عملی - انتخاب Tier پیش فرض برای Blobs 01:14
-
عملی - تغییر Tier در سطح فایل برای Blobs 02:21
-
عملی - قوانین مدیریت چرخه عمر برای Blobs 02:07
-
بررسی - Azure Data Factory IR و اشکال زدایی 01:57
-
عملی - حاشیه نویسی ها در ADF 01:12
-
عملی - نظارت بر سرویس در آژور 02:22
-
عملی - ایجاد هشدار برای Data Factory 06:18
-
عملی - نظارت بر لاگ های Data Factory از طریق فضای کاری Log Analytics 08:49
-
بررسی - فرمان های DMV 03:49
-
بررسی - مدیریت حجم کاری در Synapse 02:29
-
عملی - مدیریت حجم کاری در استخر SQL اختصاصی 01:08
-
مفاهیم - کش کردن مجموعه نتایج در Synapse SQL 02:41
-
عملی - فعال سازی کش کردن مجموعه نتایج 01:37
-
عملی - بررسی چولگی داده 02:07
-
عملی - نظارت بر فضای کاری Synapse 01:16
-
عملی - اتصال Synapse با Log Analytics 02:06
-
عملی - حذف تنظیمات تشخیصی 00:28
-
بررسی - واحدهای استریمینگ و نظارت برای Stream Analytics 02:34
-
بررسی - پارتیشن بندی رویداد و پردازش موازی در Stream Analytics 02:34
-
مفاهیم - مدیریت زمان در Azure Stream Analytics 05:06
-
عملی - نظارت بر Stream Analytics Job 03:35
-
عملی - نظارت بر Cosmos DB از طریق ماتریس ها 01:10
-
عملی - راه اندازی Log Analytics با Cosmos DB 01:49
-
مفاهیم - مدیریت و حاکمیت داده با Microsoft Purview 04:10
-
عملی - ایجاد حساب Microsoft Purview 02:21
-
عملی - اسکن دارایی های دریاچه داده با Purview 05:55
-
عملی - اسکن استخر Synapse SQL با Purview 07:31
-
عملی - جستجو در Microsoft Purview 01:09
-
عملی - اتصال DataFactory با Purview 06:36
-
عملی - حذف دارایی ها 03:45
-
بابت تکمیل بخش های نظارت و بهینه سازی تبریک می گوییم 04:22
-
بررسی - آزمون در مایکروسافت برای Dp-203 10:21
-
آزمون تمرینی 1 None
-
آزمون تمرینی 2 None
مشخصات آموزش
گواهینامه Microsoft DP-203 Certified: Azure Data Engineer Associate
- تاریخ به روز رسانی: 1404/06/14
- سطح دوره:همه سطوح
- تعداد درس:254
- مدت زمان :19:49:30
- حجم :10.86GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy