دوره آموزشی
دوبله زبان فارسی
سفر مهندسی داده خود را آغاز کنید: یادگیری مبتنی بر پروژه
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- نوشتن اسکریپتهای Python برای استخراج داده با تعامل با APIها توسط Postman، بارگذاری در انبار داده و تبدیل (ELT)
- استفاده از PostgreSQL به عنوان انبار داده. تعامل با انبار داده با استفاده از psql و DBeaver
- یادگیری چگونگی کانتینریسازی اپلیکیشن های داده با استفاده از Docker، برای قابلحمل کردن و مقیاسپذیری آسان پایپ لاین های داده
- تسلط به اصول هماهنگسازی و خودکارسازی گردش های کاری داده با Apache Airflow، ابزاری ضروری در مهندسی داده
- درک چگونگی انجام تستهای واحد، یکپارچهسازی و انتها به انتها (E2E) با استفاده از ترکیبی از pytest و تستهای DAG در Airflow برای اعتبارسنجی پایپ لاین های داده
- پیادهسازی تستهای کیفیت داده با استفاده از SODA برای اطمینان از مطابقت دادهها با الزامات تجاری و فنی
- یادگیری خودکارسازی پایپ لاین های استقرار با استفاده از GitHub Actions برای اطمینان از یکپارچهسازی و تحویل مداوم و روان
پیشنیازهای دوره
- حداقل 8 گیگابایت رم، اگرچه 16 گیگابایت برای عملکرد روانتر بهتر است.
- نصب Python ،Docker و Git برای اجرا/دسترسی به کدهای دوره
- دانش پایه Python و SQL مورد نیاز است.
- آشنایی با Docker و CI/CD مزیت محسوب میشود اما ضروری نیست.
توضیحات دوره
مهندسی داده ستون فقرات شرکتهای مدرن دادهمحور است. برای موفقیت، نیاز به تجربه کار با ابزارها و فرآیندهایی دارید که پایپ لاین های داده را در محیطهای واقعی قدرت میبخشند. این دوره یادگیری عملی و مبتنی بر پروژه را با ابزارهای زیر ارائه میدهد: PostgreSQL ،Python ،Docker، Airflow ،Postman ،SODA و Github Actions. مدرس شما را در چگونگی استفاده از این ابزارها راهنمایی خواهد کرد.
آنچه در این دوره خواهید آموخت:
- Python برای مهندسی داده: نوشتن اسکریپتهای Python برای استخراج داده با تعامل با APIها توسط Postman، بارگذاری در انبار داده و تبدیل (ELT)
- SQL برای پایپ لاین های داده: استفاده از PostgreSQL به عنوان انبار داده. تعامل با انبار داده با استفاده از psql و DBeaver
- Docker برای استقرارهای کانتینری: کشف چگونگی کانتینریسازی اپلیکیشن های داده با استفاده از Docker، برای قابلحمل کردن و مقیاسپذیری آسان پایپ لاین های داده
- Airflow برای خودکارسازی گردش کار: تسلط به اصول هماهنگسازی و خودکارسازی گردش های کاری داده با Apache Airflow، ابزاری ضروری در مهندسی داده
- تست و تضمین کیفیت داده: درک چگونگی انجام تستهای واحد، یکپارچهسازی و انتها به انتها (E2E) با استفاده از ترکیبی از pytest و تستهای DAG در Airflow برای اعتبارسنجی پایپ لاین های داده. پیادهسازی تستهای کیفیت داده با استفاده از SODA برای اطمینان از مطابقت دادهها با الزامات تجاری و فنی.
- CI/CD برای تست و استقرار خودکار: یادگیری خودکارسازی پایپ لاین های استقرار با استفاده از GitHub Actions برای اطمینان از یکپارچهسازی و تحویل مداوم و روان
این دوره برای چه کسانی مناسب است؟
- مهندسان داده مشتاق: اگر تازه کار خود را شروع کردهاید و میخواهید مهندسی داده را با کار با ابزارها و پروژههای واقعی بیاموزید، این دوره مهارتهای پایهای مورد نیاز برای شروع شغلتان را فراهم میکند.
- متخصصان داده مبتدی: اگر تجربهای به عنوان مهندس داده/دانشمند داده دارید اما میخواهید درک خود را از ابزارهای ضروری مانند Docker ،CI/CD و تست خودکار عمیقتر کنید، این دوره به شما کمک میکند تا بر دانش قبلی خود بیافزایید.
- علاقهمندان به داده: کسانی که اشتیاق به داده دارند و علاقهمند به کسب تجربه عملی با ابزارهای مورد استفاده مهندسان داده مدرن هستند.
سفر مهندسی داده خود را آغاز کنید: یادگیری مبتنی بر پروژه
-
خوش آمدید! 00:50
-
پیشنیازها 00:39
-
مروری بر پروژه 04:24
-
ساخت کد 00:40
-
مقدمهای بر استخراج داده 00:28
-
API چیست؟ 01:03
-
دریافت کلید Youtube API 03:08
-
Google Cloud Shell 01:17
-
Youtube API Explorer و Postman 06:14
-
راهاندازی Git Remote 02:54
-
ایجاد محیط مجازی 05:38
-
تحلیل متغیرهای استخراج داده 02:30
-
نوشتن اسکریپت آمار ویدئوها - بخش 1 شناسه Playlist 17:47
-
معرفی فایل env. 03:56
-
نوشتن اسکریپت آمار ویدئوها - بخش 2 شناسههای منحصر به فرد ویدئو 15:03
-
نوشتن اسکریپت آمار ویدئوها - بخش 3 دادههای ویدئو 11:55
-
نوشتن اسکریپت آمار ویدئوها - بخش 4 ذخیره در JSON 05:24
-
چرا Docker؟ 00:56
-
Dockerfile 04:20
-
ساخت ایمیج Docker 04:50
-
معماری Airflow 03:45
-
دایرکتوریهای Airflow 02:30
-
اصلاح فایل .env. 06:33
-
Docker Compose 16:22
-
فرمان docker 05:48
-
مقدمهای بر Airflow 00:31
-
بازنویسی اسکریپتها برای استفاده از Airflow 16:27
-
مقدمهای بر انبار داده Postgres 00:31
-
بارگذاری در انبار داده و تبدیلها 01:55
-
راهاندازی اتصال به انبار داده با استفاده از Airflow 06:30
-
ایجاد اسکیماها و جداول 07:31
-
بارگذاری داده JSON 05:06
-
درج، بروزرسانی و حذف 10:14
-
تبدیلها 08:53
-
پر کردن جداول Staging و Core 10:22
-
تعریف DAG انبار داده و اشکالزدایی 06:32
-
تعامل با انبار داده با استفاده از Dbeaver 08:39
-
مقدمهای بر تست 00:43
-
استفاده از Soda برای تستهای کیفیت داده 12:40
-
یکپارچهسازی Airflow برای تستهای کیفیت داده (DQ) 04:35
-
مقدمهای بر تستهای عملکردی 01:26
-
تستهای واحد 16:33
-
تستهای یکپارچهسازی 10:10
-
تست انتها به انتها (E2E) 02:51
-
تجدید ساختار DAGها 06:00
-
مقدمهای بر CI/CD 00:35
-
کامیت و پوش 01:46
-
CI-CD بخش 1 - ساخت ایمیجهای Docker 13:50
-
CI-CD بخش 2 - تست 13:15
-
اجرای Workflow Dispatch در Github Actions 04:25
-
پایان 00:33
مشخصات آموزش
سفر مهندسی داده خود را آغاز کنید: یادگیری مبتنی بر پروژه
- تاریخ به روز رسانی: 1404/10/04
- سطح دوره:مقدماتی
- تعداد درس:51
- مدت زمان :05:10:33
- حجم :2.15GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy