مقدمه جامع و عملی درباره Apache Airflow 3
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- ساخت پلاگینها برای افزودن قابلیتهای جدید به Apache Airflow
- استفاده از Docker همراه با Airflow و انواع مختلف اجرکنندگان (Executors)
- تسلط به امکانات اصلی مانند DAGها، Operators ،Tasks ،Workflows و غیره
- درک و پیادهسازی مفاهیم پیشرفتهی Apache Airflow مانند XCOMs ،Branching و SubDAGs
- تفاوت بین Executors محلی، Sequential و Celery، نحوه عملکرد آنها و چگونگی استفاده از آنها
- کاربرد Apache Airflow در اکوسیستم بزرگی داده با Hive ،PostgreSQL ،Elasticsearch و دیگران
- نصب و پیکربندی Apache Airflow
- تفکر، پاسخدهی و پیادهسازی راهحلهای مرتبط با مشکلات واقعی پردازش داده با استفاده از Airflow
پیشنیازهای دوره
- حداقل 8 گیگابایت حافظه
- تجربه قبلی در برنامهنویسی یا اسکریپتنویسی. تجربه در زبان Python به شدت مفید است، هرچند این زبان بسیار ساده است و اگر آشنا نباشید، نباید کار زیاد سختی باشد.
توضیحات دوره
Apache Airflow یک پلتفرم متنباز است که برای ایجاد، زمانبندی و نظارت بر گردش کارها به صورت برنامهنویسی طراحی شده است. اگر مجموعهای از ETLها برای مدیریت دارید، استفاده از Airflow الزامی است.
در این دوره، تمامی موارد لازم برای شروع به کار با Apache Airflow 3 را از طریق ویدئوهای نظری و عملی یاد خواهید گرفت.
در ابتدای دوره با مفاهیمی پایهای مانند موارد زیر آشنا می شوید:
- Apache Airflow چیست؟
- مفاهیم اصلی در Airflow
- معماریهای مختلف برای اجرای Airflow
- زمانی که یک Workflow اجرا میشود چه اتفاقی میافتد
سپس اولین pipeline دادهی خود را ایجاد میکنید، که شامل ویژگیهای متعددی از Airflow است، از جمله:
- سنسورها برای انتظار شرایط خاص
- هاکها برای تعامل با پایگاه دادهها
- Taskflow برای نوشتن DAGهای کارآمد و قابل خواندن
- XCOMs برای اشتراکگذاری دادهها
و موارد دیگر. در پایان پروژه، شما آماده ساختن و طراحی جریانهای کاری خود خواهید بود.
پس از پایان پروژه، با سینتکس Asset جدید آشنا میشوید که کاملاً نحوه تفکر شما درباره Tasks در Airflow 3 را تغییر میدهد:
- Asset چیست؟
- چگونه وابستگیها بین Assets تعریف کنیم؟
- چگونه یک Asset را مادیسازی کنیم؟
و موارد دیگر. همچنین، شما با انواع مختلف اجرکنندگان برای اجرای Airflow در ابعاد بزرگ آشنا میشوید، به خصوص CeleryExecutor که بسیار محبوب است:
- چگونه Airflow را برای استفاده از CeleryExecutor پیکربندی کنیم؟
- چگونه تسک های خود را بر روی Workerهای مختلف توزیع کنیم؟
- چگونه برای Workerهای خود Queue تعریف کنیم؟
و موارد دیگر. در ادامه، ویژگیهای پیشرفته را بررسی میکنید تا DAGهای خود را به سطحی جدید برسانید و در انتها، ایجاد یک ارائهدهنده (provider) جدید برای Airflow و یک دکوراتور (decorator) جدید برای اجرای درخواستهای SQL را انجام میدهید.
اگر در شرکتی با Airflow کار میکنید، قطعاً این بخش مورد علاقهتان خواهد بود.
این دوره برای چه کسانی مناسب است؟
- افرادی که در زمینه مهندسی دادههای کنجکاوند.
- افرادی که میخواهند مفاهیم پایه و پیشرفته Apache Airflow را یاد بگیرند.
- افرادی که علاقهمند به رویکرد عملی و کارگاهی هستند.
مقدمه جامع و عملی درباره Apache Airflow 3
-
پیشنیازها 01:39
-
اهداف دوره 03:00
-
من چه کسی هستم؟ 01:29
-
راهاندازی محیط توسعه 02:42
-
اختیاری: مقدمه سریع بر Docker 03:55
-
چرا Airflow؟ 03:02
-
Airflow چیست؟ 05:36
-
کامپوننت های اصلی 06:34
-
مفاهیم اصلی 06:29
-
Airflow نیست... 03:21
-
معماریهای متفاوت 08:58
-
چگونه کار میکند؟ 04:23
-
نصب Apache Airflow 05:01
-
زمان آزمون! None
-
ویو خانه 02:44
-
ویو DAGها 06:53
-
ویو Asset 04:21
-
ویوهای مهم دیگر 04:07
-
پروژه 00:49
-
راهنماییها 00:53
-
تعریف یک DAG 02:33
-
ایجاد جدول 03:19
-
ایجاد اتصال به Postgres 02:02
-
درایور چیست؟ 01:40
-
سلاح مخفی! 02:06
-
آیا API در دسترس است؟ 07:19
-
سنسورهای مفید دیگر 01:29
-
استخراج کاربران (روش کلاسیک) 07:14
-
استخراج کاربران (روش بهتر) 02:52
-
پردازش کاربران 04:03
-
ذخیرهسازی کاربران 05:09
-
تعریف وابستگیها 04:40
-
DAG در حال اجرا 02:38
-
زمان آزمون! None
-
پارادایم جدید Asset 02:07
-
Asset چیست؟ 06:04
-
ایجاد اولین Asset خود 04:50
-
متریال سازی یک Asset 03:22
-
تعریف وابستگیها بین Assets 03:55
-
نظارت بر Assets 04:02
-
ایجاد چندین Asset همزمان 04:57
-
Executor چیست؟ 03:23
-
پیکربندی پیشفرض 03:56
-
sequential executor 02:30
-
executor محلی 02:35
-
celery executor 04:44
-
اجرای Airflow با Celery 06:12
-
نظارت بر وظایف با Flower 04:14
-
اجرای وظایف با CeleryExecutor 04:47
-
افزودن workerهای جدید 03:28
-
صف چیست؟ 02:46
-
توزیع هوشمند تسک ها 06:31
-
بازگشت به پیکربندی قبلی 01:26
-
زمان آزمون! None
-
گروهبندی وظایف با TaskGroups 03:13
-
TaskGroups در عمل 09:38
-
اشتراکگذاری داده بین تسک ها با XCOM 03:41
-
XCOMها در عمل! 08:57
-
انتخاب تسک ها بر اساس شرایط 08:26
-
آنچه ساخته خواهید شد 03:16
-
برخی مفاهیم مهم 03:32
-
ساخت ارائهدهنده Airflow 03:42
-
تعریف اطلاعات ارائهدهنده 03:32
-
ساخت Operator سفارشی SQL 14:27
-
ایجاد دکوراتور جدید SQL 03:24
-
نصب ارائهدهنده شما 03:39
-
دکوراتور SQL آماده است! 05:07
مشخصات آموزش
مقدمه جامع و عملی درباره Apache Airflow 3
- تاریخ به روز رسانی: 1404/06/21
- سطح دوره:همه سطوح
- تعداد درس:67
- مدت زمان :04:36:49
- حجم :1.36GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy