دوره آموزشی
دوبله زبان فارسی
دوره End-to-end مهندسی داده آژور (انگلیسی)
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- درک جریان end-to-end از استک مهندسی داده آژور
- آمادگی برای شرکت در مصاحبهها و موفقیت راحت در آنها
- مستقل شدن در انجام تسکها تا بیشترین حد ممکن
- یک پروژه End-to-end که تمام چرخه عمر را پوشش میدهد.
پیشنیازهای دوره
- این دوره هیچ پیشنیازی ندارد چون از صفر برای هر فرد و با آموزش تکتک ابزارها و فناوریها ساخته شده است تا یادگیری را آسانتر کند.
توضیحات دوره
- این دوره ابزارها و فناوریهای متعددی را که برای تبدیل شدن به مهندس داده آژور لازم است، پوشش میدهد.
- بهترین قسمت این است که هیچ پیشنیازی وجود ندارد.
- هر کسی میتواند در دوره شرکت کند و با استفاده از این دوره آموزش ببیند.
- ویدئوهای ما ساده، قابل فهم، مختصر و مفید، کوتاه و در عین حال جامع هستند و همه نیازهای شما را پوشش میدهند.
- محتوایی که در این دوره ارائه میکنیم بسیار زیاد است و نیازمند تعهد کامل، انضباط شخصی و یادگیری روزانه است تا بتوانید دوره را به پایان رسانده و به یک متخصص ماهر و مستقل تبدیل شوید.
- ما هزاران دانشجو را آموزش داده و مسیر کاریشان را شکل دادهایم و شما میتوانید نفر بعدی باشید. با شرکت در دوره به ما بپیوندید و از محتوای عالی آن بهرهمند شوید.
- شما بهترین کیفیت و کمیت را دریافت خواهید کرد.
در این دوره ابزارها و فناوریهای زیر را از ابتدا خواهید آموخت:
- SQL - یادگیری زبان کوئری ساختاریافته در Microsoft SQL Server
- انبار داده - یادگیری مفاهیم اساسی انبار داده
- ابر آژور - یادگیری درباره رایانش ابری، مزایا و سرویسهای مختلف آن
- Azure Data Factory - یادگیری ETL در ابر آژور، هیچ کدی وجود ندارد.
- برنامهنویسی پایتون - یادگیری برنامهنویسی به زبان پایتون به روشی ساده
- اصول کلان داده - تسلط به مفاهیم کلان داده برای ایجاد پایهای قوی
- Databricks - یادگیری پلتفرم داده پیشرو Databricks
- PySpark - یادگیری پردازش کلان داده در PySpark روی Databricks
- دریاچه دلتا - یادگیری ویژگیهای دریاچه دلتا
- استریمینگ ساختاریافته اسپارک
- دواپس آژور
- پروژه end-to-end (در حال انتشار)
این دوره برای همه افراد از مبتدی تا سطح معمار مناسب است.
این دوره برای چه کسانی مناسب است؟
- همه میتوانند در این دوره شرکت کتند، چه در سطح مبتدی، متوسط یا معمار
- کسانی که میخواهند به نقش مهندسی داده آژور منتقل شوند یا مهندسان داده فعلی که نه فقط به دنبال افزایش مهارتهای خود هستند بلکه قصد یادگیری عمیقتر را دارند.
دوره End-to-end مهندسی داده آژور (انگلیسی)
-
مقدمه 20:13
-
آشنایی با SQL 04:34
-
نصب SQL Server 16:52
-
ایجاد و حذف پایگاه داده 14:25
-
پایگاه دادههای سیستم 02:05
-
ایجاد و حذف جداول 12:33
-
درج داده در جدول 17:11
-
Select 04:30
-
نصب پایگاه داده نمونه AdventureWorks 07:29
-
دریافت مقادیر منحصربهفرد 09:13
-
مرتبسازی داده 11:51
-
کامنتها 05:09
-
فیلترینگ داده 21:28
-
فیلترینگ با کاراکترهای Wild 10:06
-
تابع تجمیع 13:36
-
گروهبندی سطرها 07:30
-
Select..Into 06:33
-
ایجاد جدول با کلید اصلی 14:28
-
ایجاد جدول با NOT NULL Constraint 04:44
-
ایجاد جدول با Constraint منحصربهفرد 07:17
-
ایجاد جدول با Check Constraint 07:51
-
ایجاد جدول با Constraint پیشفرض 03:45
-
ایجاد جدول با افزایش خودکار 06:04
-
بروزرسانی سطرهای جدول 10:33
-
حذف سطرها از جدول 07:35
-
توابع رشته - بخش 1 13:02
-
توابع رشته - بخش 2 06:16
-
سناریو - ترکیب نامها 11:12
-
سناریو - استخراج نام و نام خانوادگی 11:10
-
توابع تاریخ زمان - بخش 1 07:35
-
توابع تاریخ زمان - بخش 2 13:07
-
توابع تاریخ زمان - بخش 3 05:11
-
تایپ داده - بخش 1 - اعداد صحیح 08:22
-
تایپ داده - بخش 2 - عددی تقریبی 07:14
-
تایپ داده - بخش 3 - تاریخ زمان 01:52
-
تایپ داده - بخش 4 - رشتهها 13:38
-
تایپ داده - بخش 5 - شناسه منحصربهفرد 04:33
-
تایپ داده - بخش 6 - بیت 02:55
-
تبدیل تایپ داده 05:48
-
جوینها - بخش 1 - آشنایی با جوینها 16:52
-
جوینها - بخش 2 - استفاده از جوینها 08:33
-
جوینها - بخش 3 - جوین کردن سه جدول 06:14
-
جوینها - بخش 4 - استفاده از عبارات 04:38
-
جوینها - بخش 4 - Outer Joins 04:46
-
سناریو - جوینها - بخش 6 - Self Join 09:17
-
فکت و ابعاد 15:51
-
تابع IIF 09:40
-
CASE 07:52
-
توابع IIF و CASE با چند شرطی 08:00
-
سناریو - مرتبسازی سفارشی 06:30
-
UNION و UNION ALL 07:17
-
INTERSECT 04:22
-
EXCEPT 02:32
-
constraint کلید خارجی 13:40
-
کوئری فرعی - بخش 1 05:34
-
کوئری فرعی - بخش 2 - IN و NOT IN 05:27
-
کوئری فرعی - بخش 3 - بروزرسانی 05:47
-
کوئری فرعی - بخش 4 - جدول مشتق شده 04:35
-
کوئری فرعی - بخش 5 - EXISTS و کوئری فرعی متصل 06:11
-
سناریو - کوئری فرعی - بخش 6 - محاسبه مشارکت به ازای هر سال 06:37
-
HAVING Clause 04:42
-
TOP Clause 04:46
-
سناریو - دریافت محصولات TOP و BOTTOM 04:43
-
توابع Window - بخش 1 - ROW_NUMBER 11:07
-
توابع Window - بخش 2 - RANK و DENSE_RANK 07:43
-
توابع Window - بخش 3 - LAG و LEAD 05:53
-
توابع Window - بخش 4 - FIRST_VALUE و LAST_VALUE 05:05
-
دستهبندی SQL 02:02
-
تغییر جدول - بخش 1 - ستونها 06:05
-
تغییر جدول - بخش 2 - constraint 07:25
-
OFFSET 04:22
-
تابع COALESCE 05:46
-
MERGE 13:48
-
اسکیما 12:04
-
GROUP BY همراه با ROLLUP 10:28
-
GROUP BY همراه با CUBE 03:04
-
PIVOT 05:19
-
UNPIVOT 04:35
-
VIEWS 11:02
-
عبارت رایج جدول (CTE) - بخش 1 - مقدمه 08:55
-
عبارت رایج جدول (CTE) - بخش 2 - چندبخشی 06:28
-
عبارت رایج جدول (CTE) - بخش 3 - بازگشت 10:02
-
متغیرها 08:32
-
IF..ELSE 07:33
-
حلقه WHILE 10:52
-
جداول موقت 07:36
-
رویههای ذخیره شده 13:56
-
تبدیل جدول به جیسان 09:42
-
ایجاد خروجی جیسان تودرتو 05:42
-
Clause خروجی 10:57
-
تغییرات آهسته ابعاد 19:11
-
یافتن میانگین 02:49
-
چالش جوینها 06:50
-
شناسایی و حذف سطرهای داپلیکیت 09:59
-
ادغام سفارشی 13:25
-
داده گمشده - یافتن دپارتمانهای گمشده 08:58
-
یافتن دومین حقوق بالا 06:07
-
دومین حقوق بالا در هر دپارتمان 02:45
-
شمارهگذاری سطرها 02:53
-
یافتن سطرهای متناوب 04:53
-
پالیندروم 02:38
-
یافتن ایمیلهای داپلیکیت 04:16
-
بروزرسانی جنسیت صحیح 02:00
-
تبدیل اطلاعات دانشآموز 11:29
-
دستهبندی نقصها 05:19
-
توتال روزانه در حال اجرا 05:26
-
توتال ماه جاری تا امروز (MTD) 05:02
-
توتال سه ماهه جاری (QTD) 06:25
-
توتال سال جاری تا امروز (YTD) 05:49
-
فروش سال گذشته و رشد سالانه (YOY) 10:03
-
جمع متحرک 3 ماهه 06:07
-
آشنایی با انبار داده 10:09
-
بارگذاری داده 04:05
-
مدلهای طرحبندی ذخیرهسازی 06:08
-
توزیع Robin Round 03:05
-
توزیع هش 04:50
-
ویژگیهای ACID 11:17
-
نرمالسازی 13:58
-
رایانش ابری 04:31
-
ارائهدهندگان ابر 03:17
-
مقدمه آژور 04:29
-
ایجاد حساب آزمایشی آژور 04:36
-
شروع کار با آژور 06:23
-
ایجاد دریاچه داده 08:50
-
ایجاد Azure SQL Server و پایگاه داده 16:18
-
ایجاد Data Factory 05:00
-
ارتقا به پرداخت به ازای هر بار استفاده 05:23
-
مقدمه 07:10
-
کپی داده داخل دریاچه داده 19:13
-
کپی کل پوشه شامل فایلهای خاص 13:45
-
کپی داده از ADLS به SQLDB و بالعکس 11:39
-
کپی داده همراه با ستونهای اضافی 06:28
-
فعالیت تنظیم متغیر 10:10
-
کپی فایلها در بازه زمانی 12:20
-
فعالیت دریافت متادیتا 10:48
-
فعالیت For Each 17:40
-
کپی هر فایل به جدول جدید 25:16
-
پاکسازی و بارگذاری 08:04
-
کپی داده با قابلیت Upsert 04:20
-
فعالیت افزودن به متغیر 05:42
-
استفاده از کوئریهای SQL در فعالیت کپی داده 06:42
-
نگاشت ستونها در فعالیت کپی داده 06:47
-
فعالیت حذف 05:18
-
کپی داده با استفاده از رویه ذخیره شده 09:37
-
فعالیت رویه ذخیره شده 09:16
-
فعالیت Lookup 05:04
-
فعالیت فیلتر 05:17
-
فعالیت IF 05:17
-
فعالیت Switch 05:46
-
فعالیت اسکریپت 04:02
-
فعالیت اعتبارسنجی 05:47
-
تبدیل CSV به جیسان 05:54
-
کپی جیسان به پایگاه داده SQL 12:27
-
اجرای فعالیت پایپلاین 05:48
-
کپی داده اگر فایل وجود داشته باشد 08:36
-
پارامترها در مقابل متغیرها 03:12
-
حذف فایلهای خالی 18:51
-
کپی فایل CSV بدون هدر 10:45
-
منطق Retry 13:07
-
رفتار کپی 11:38
-
حداکثر سطرها در هر فایل 04:23
-
تقسیم داده بر اساس یک معیار 19:55
-
تقسیم داده بر اساس چندین معیار 17:09
-
تجمیع داده از چند فایل 13:12
-
تجمیع داده از چندین پوشه 27:06
-
کپی داده با نگاشتهای سفارشی برای یک جدول 21:22
-
کپی داده با نگاشتهای سفارشی برای چند جدول 18:53
-
کپی داده با کاراکتر پایپ 05:13
-
کپی داده با کاراکتر نقلقول 03:52
-
آشنایی با DataFlows 17:13
-
تبدیل Select 09:31
-
تبدیل مرتبسازی 07:22
-
تبدیل فیلتر 05:00
-
تبدیل ستون مشتق شده 05:26
-
تبدیل تقسیم شرطی 10:01
-
تبدیل Cast 05:13
-
تبدیل کلید جایگزین 04:29
-
تبدیل تجمیع 07:44
-
تبدیل Pivot 06:17
-
تبدیل Unpivot 05:55
-
تبدیل رنکینگ 05:30
-
تبدیل پنجره 09:24
-
تبدیل اتحاد 12:29
-
تبدیل Lookup 08:23
-
تبدیل جوین 04:47
-
تبدیل Exists 03:41
-
تبدیل مسطح 05:08
-
تبدیل تجزیه 07:41
-
تبدیل Stringify 04:45
-
رانتایم یکپارچهسازی 03:39
-
نصب رانتایم یکپارچهسازی خودمیزبانی شده 06:47
-
کپی داده از محلی به ADLS 14:54
-
کپی داده از محلی به پایگاه داده SQL آژور 03:33
-
کپی داده از SQL محلی به پایگاه داده SQL آژور 06:49
-
کپی چندین جدول از پایگاه داده محلی SQL به پایگاه داده SQL آژور 19:40
-
استفاده از Key Vault 08:45
-
زمانبندی تریگر 10:48
-
آشنایی با Databricks 03:02
-
ثبتنام نسخه کامیونیتی 03:02
-
بررسی پلتفرم Databricks 10:40
-
مقدمه و نصب 07:32
-
چاپ 09:55
-
متغیرها 10:24
-
الحاق 03:45
-
درونیابی 14:30
-
شرطی If..else 12:05
-
ورودی 04:44
-
شرطی IF..ELIF..ELSE 05:50
-
حلقه For 10:10
-
حلقه While 06:01
-
دستورات Break و Continue 08:17
-
لیستها - بخش 1 - مقدمه و ایندکسگذاری 15:40
-
لیستها - بخش 2 - طول، وجود و حلقه 03:51
-
لیستها - بخش 3 - افزودن و حذف آیتمها 10:52
-
لیستها - بخش 4 - شمارش، کپی، معکوس و مرتبسازی 06:38
-
لیستها - بخش 5 - بروزرسانی لیستها 04:03
-
مجموعه 09:03
-
تاپل 03:09
-
دیکشنری 09:52
-
کامنتها 04:33
-
عملیاتهای رشته - بخش 1 08:46
-
عملیاتهای رشته - بخش 2 10:17
-
عملیاتهای رشته - بخش 3 07:52
-
ListComprehensions 16:50
-
dir 03:02
-
توابع تاریخ زمان - بخش 1 - ماژول datetime 11:28
-
توابع تاریخ زمان - بخش 2 - ماژول اختلاف زمانی و timestamp 05:51
-
توابع تاریخ زمان - بخش 3 - ماژول اختلاف ماه 06:54
-
توابع تاریخ زمان - بخش 4 - ماژول relativedelta 09:39
-
توابع تاریخ زمان - بخش 5 - فرمتبندی 06:47
-
مدیریت استثنا 09:58
-
None 02:33
-
تصادفی 04:23
-
توابع - بخش 1 - مقدمه 11:23
-
توابع - بخش 2 - اسکوپ متغیر 05:39
-
توابع - بخش 3 - آرگومانها 14:15
-
توابع - بخش 4 - DocStrings 03:44
-
لامبدا 04:25
-
نقشه 09:29
-
Reduce 04:48
-
بازگشت 17:35
-
ژنراتورها 06:36
-
دکوراتورها 15:54
-
مقدمه کلان داده 05:59
-
تکامل کلان داده 13:44
-
رایانش توزیع شده 05:10
-
ویژگیها 10:50
-
اکوسیستم هدوپ 14:20
-
انواع پردازش 04:37
-
آشنایی با Databricks و PySpark 04:22
-
آشنایی با آپاچی اسپارک 09:22
-
کامپوننتهای اسپارک و API 05:18
-
معماری اسپارک 09:18
-
RDD 10:23
-
ایجاد RDD از لیست 13:51
-
کنترل پارتیشنها در RDD 03:02
-
ایجاد RDD از فایل متنی 07:01
-
تبدیلات روی RDD 12:12
-
نمودار نسب 05:38
-
درک اصول DAG 12:01
-
عملکرد MapReduce 07:33
-
ReduceByKey در مقابل ReduceByKey محلی 05:48
-
کلید GroupBy 08:03
-
تبدیل فیلتر روی RDD 05:43
-
تبدیلات SortBy و SortByKey روی RDD 05:39
-
استخراج Top Bottom از RDD 05:00
-
ذخیره RDD به صورت فایل متنی 03:36
-
Coalesce و پارتیشنبندی مجدد روی RDD 14:14
-
آشنایی با Accumulators 08:33
-
پیادهسازی Accumulators 06:24
-
متغیرهای برودکست 08:39
-
آشنایی با دیتافریمها 03:01
-
خواندن CSV در دیتافریم 14:26
-
بینشهای دیتافریم 02:51
-
انتخاب ستونها از دیتافریم 09:52
-
افزودن و اصلاح ستونها در دیتافریم 13:30
-
حذف ستونها در دیتافریم 02:59
-
تغییر نام ستونها در دیتافریم 03:28
-
مرتبسازی ستونها در دیتافریم 04:11
-
فیلترینگ داده در دیتافریم 05:37
-
حذف داپلیکیتها از دیتافریم 04:20
-
ترکیب دیتافریمها 04:15
-
فیلترهای مبتنی بر الگو در دیتافریم 04:15
-
افزودن ستون بر اساس شرطی در PySpark 04:53
-
تبدیل Case در دیتافریم 03:25
-
تجمیعها روی دیتافریم 05:00
-
تجمیعها با GROUP BY 04:11
-
Pivot و Unpivot کردن روی دیتافریم 07:09
-
توابع Window 09:52
-
پر کردن مقادیر Null در دیتافریم 04:04
-
گزینههای خواندن CSV 07:43
-
اعمال اسکیما در دیتافریم 06:27
-
حالتهای نوشتن در دیتافریم 09:45
-
توابع تاریخ 12:11
-
تبدیل RDD به دیتافریم و بالعکس 06:11
-
Explode 07:38
-
کار با ستون تایپ آرایه 07:04
-
dbutils 13:48
-
دسترسی به ADLS Gen2 با کلید دسترسی 09:19
-
ثبتنام در Azure Databricks 10:36
-
ویجتها 12:35
-
فراخوانی نوتبوکهای دیگر 12:45
-
خواندن فایلهای جیسان 07:09
-
خواندن چند فایل و دریافت نامهای فایل 07:44
-
فرمت فایل Parquet 08:48
-
دسترسی به ADLS با SAS Token 12:13
-
دسترسی به ADLS با OAUTH 11:44
-
خواندن و نوشتن فایلهای Parquet 04:38
-
فرمت دلتا 08:16
-
ایجاد Views موقت 13:24
-
ایجاد جداول مدیریت شده و مدیریت نشده 13:54
-
پارتیشنبندی 17:30
-
Bucketing 10:32
-
کنترل تعداد رکوردها هنگام نوشتن 04:00
-
حداکثر اندازه بایت برای پارتیشن 07:30
-
برنامههای اجرای کوئری اسپارک 06:47
-
جوینها 21:18
-
برنامههای اجرای اسپارک برای تبدیلها 22:52
-
الگوریتم BroadcastHashJoin 21:22
-
الگوریتم SortMergeJoin 09:28
-
الگوریتم ShuffleHashJoin 03:15
-
الگوریتم SortMergeBucketJoin 09:28
-
JoinHints 06:24
-
Spark SQL 15:17
-
مدیریت حافظه اسپارک 13:37
-
Garbage Collection 22:32
-
اصطلاحات CPU 07:47
-
رایانش و خوشههای Databricks 13:51
-
ClusterManager 10:54
-
تخصیص منابع 15:03
-
تخصیص پویا 05:57
-
سریالسازی و سریالزدایی 05:28
-
کش و پایداری 15:52
-
توابع هش 06:33
-
تاریخچه معماری داده 07:21
-
آشایی با دریاچه دلتا 03:53
-
خواندن و نوشتن فرمت دلتا 04:52
-
درک Delta Log 14:19
-
تاریخچه نسخهها و Time Travel 13:34
-
چکپوینتها 09:43
-
ایجاد جدول دلتا 05:44
-
ستونهای تولید شده 02:51
-
ایجاد جدول پارتیشنبندی شده 02:55
-
تکامل اسکیما 08:09
-
CopyInto 05:15
-
ادغام 03:23
-
آمار ستونها 05:55
-
بهینهسازی، پاکسازی و Z-Order 20:56
-
خوشهبندی مایع 12:18
-
تغییر فید داده 12:57
-
سازماندهی مجدد جدول 11:23
-
بردارهای حذف 15:12
-
SCD - نوع 1 09:41
-
SCD - نوع 2 21:08
-
HiveMetaStore 04:57
-
آشنایی با Unity Catalog 05:19
-
راهاندازی Unity Catalog 20:09
-
ایجاد Catalog، اسکیما و جدول 06:31
-
بارگذار خودکار 23:06
-
مقدمه استریمینگ ساختاریافته اسپارک 06:59
-
خواندن استریم 06:01
-
نوشتن استریم 08:53
-
حالتهای خروجی 14:50
-
منابع و Sinks 04:12
-
تریگرها 06:25
-
جوینها 04:59
-
Stateful در مقابل Stateless 17:05
-
عملیاتهای Window 17:33
-
آشنایی با Azure Synapse Analytics 03:36
-
استخرهای SQL 01:42
-
استخر SQL اختصاصی 13:12
-
استخر SQL بدون سرور 06:46
-
انواع توزیع 05:13
-
پیشبینی Azure Synapse Analytics 08:24
-
کار با استخر SQL بدون سرور 12:43
-
مقدمه 12:02
-
درک الزامات 08:23
-
مدل داده خرید 05:21
-
مدل فروش 01:11
-
مدل منابع انسانی 02:13
-
راهاندازی منابع 07:23
-
شروع کار با دواپس آژور 19:49
-
درک منبع داده 08:57
-
آمادهسازی Databricks 37:01
-
توسعه نوتبوکهای خرید 35:39
-
توسعه مدل خرید 26:29
-
برنامهریزی تسک 11:35
-
توسعه نوتبوکهای Bronze خرید 36:05
-
اولین دمو 10:15
-
توسعه نوتبوکهای Silver - بخش 1 01:02:17
-
توسعه نوتبوکهای Silver و سایر - بخش 1 11:46
-
توسعه نوتبوکهای Silver و سایر - بخش 2 08:17
-
ایجاد نوتبوکهای Raw و Bronze فروش 02:29
-
ایجاد نوتبوکهای Silver فروش - بخش 1 20:22
-
ایجاد نوتبوکهای Silver فروش - بخش 2 21:48
-
ایجاد نوتبوکهای مدل منابع انسانی 08:16
-
توسعه گردشکارهای Databricks 38:44
مشخصات آموزش
دوره End-to-end مهندسی داده آژور (انگلیسی)
- تاریخ به روز رسانی: 1404/06/21
- سطح دوره:همه سطوح
- تعداد درس:397
- مدت زمان :60:45:27
- حجم :34.38GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy