دوره آموزشی
آموزش های یودمی
دوبله زبان فارسی

مهندسی داده با استفاده از تحلیل داده AWS

مهندسی داده با استفاده از تحلیل داده AWS

✅ سرفصل و جزئیات آموزش

در این دوره با ساخت پایپ لاین های مهندسی داده در AWS با استفاده از سرویس های تحلیل داده - Glue ،EMR ،Athena ،Kinesis، لامبدا و Redshift - آشنا می شوید.

آنچه یاد خواهید گرفت

  • استفاده از سرویس های مهندسی داده تحت تحلیل داده AWS
  • مباحث ضروری AWS مانند s3 و IAM و EC2 و غیره
  • درک AWS s3 برای ذخیره سازی مبتنی بر ابر
  • درک جزئیات مربوط به ماشین های مجازی در AWS معروف به EC2
  • مدیریت کاربران، گروه‌ ها، نقش‌ ها و سیاست های AWS IAM برای RBAC (کنترل دسترسی مبتنی بر نقش)
  • مدیریت جداول با استفاده از AWS Glue Catalog
  • مهندسی پایپ لاین های داده دسته ای با استفاده از AWS Glue Jobs
  • ارکستراسیون پایپ لاین های داده دسته ای با استفاده از گردش کارهای AWS Glue
  • اجرای کوئری ها با استفاده از AWS Athena - سرویس موتور کوئری بدون سرور
  • استفاده از خوشه های AWS Elastic Map Reduce (EMR) برای ساخت پایپ لاین های داده
  • استفاده از خوشه های AWS Elastic Map Reduce (EMR) برای گزارش ها و داشبوردها
  • جذب داده با استفاده از توابع لامبدا در AWS 
  • زمانبندی با استفاده از AWS Events Bridge
  • مهندسی پایپ لاین های استریمینگ با استفاده از AWS Kinesis
  • استریمینگ لاگ های وب سرور با استفاده از AWS Kinesis Firehose
  • بررسی پردازش داده با استفاده از AWS Athena
  • اجرای کوئری ها یا فرمان های AWS Athena با استفاده از CLI
  • اجرای کوئری های AWS Athena با استفاده از boto3 پایتون
  • ایجاد خوشه AWS Redshift، ایجاد جداول و انجام عملیات های CRUD
  • کپی داده از s3 به جداول AWS Redshift
  • درک استایل های توزیع و ایجاد جداول با استفاده از Distkeys
  • اجرای کوئری ها روی جداول RDBMS خارجی با استفاده از کوئری های فدرال شده AWS Redshift
  • اجرای کوئری ها در جداول Glue Catalog یا Athena با استفاده از AWS Redshift Spectrum

پیش نیازهای دوره

  • رایانه ای با حداقل 8 گیگابایت رم
  • تجربه برنامه نویسی با استفاده از پایتون بسیار مورد علاقه است زیرا برخی از مباحث با استفاده از پایتون نشان داده می شوند.
  • تجربه SQL بسیار مورد نیاز است زیرا برخی از مباحث با استفاده از SQL نشان داده می شوند.
  • داشتن تجربه در مهندسی داده با استفاده از Pandas یا Pyspark خوب است.
  • این دوره برای مهندسان داده باتجربه ایده آل است تا سرویس های AWS Analytics را به عنوان مهارت های کلیدی به پروفایل خود اضافه کنند.

توضیحات دوره

مهندسی داده در مورد ایجاد پایپ لاین های داده برای دریافت داده از منابع متعدد به دریاچه های داده یا انبارهای داده و سپس از دریاچه های داده یا انبارهای داده به سیستم های پایین دستی است. به عنوان بخشی از این دوره، شما را با نحوه ساخت پایپ لاین های مهندسی داده با استفاده از AWS Data Analytics Stack آشنا خواهیم کرد. این امر شامل سرویس هایی مانند Glue و Elastic Map Reduce (EMR)، توابع لامبدا، Athena ،EMR ،Kinesis و بسیاری دیگر است.

در اینجا مراحل سطح بالایی وجود دارد که به عنوان بخشی از دوره دنبال خواهید کرد.

  • راه اندازی محیط توسعه
  • شروع کار با AWS
  • ذخیره سازی - همه مطالب درباره AWS s3 (سرویس ذخیره سازی ساده)
  • امنیت سطح کاربر - مدیریت کاربران، نقش‌ ها و سیاست‌ ها با استفاده از IAM
  • زیرساخت AWS EC2 (Elastic Cloud Compute)
  • جذب داده با استفاده از توابع لامبدا در AWS 
  • بررسی کامپوننت های AWS Glue
  • راه اندازی سرور Spark History برای AWS Glue Jobs
  • بررسی عمیق AWS Glue Catalog
  • بررسی AWS Glue Job APIs
  • بوک مارک های AWS Glue Job 
  • چرخه عمر توسعه Pyspark
  • شروع کار با AWS EMR
  • استقرار اپلیکیشن های اسپارک با استفاده از AWS EMR
  • پایپ لاین استریمینگ با استفاده از AWS Kinesis
  • Consume کردن داده از AWS s3 با استفاده از boto3 جذب شده با استفاده از AWS Kinesis
  • Populate کردن داده گیت هاب به AWS Dynamodb
  • بررسی Amazon AWS Athena
  • Amazon AWS Athena با استفاده از AWS CLI
  • Amazon AWS Athena با استفاده از boto3 پایتون
  • شروع کار با Amazon AWS Redshift
  • کپی داده از AWS s3 در جداول AWS Redshift
  • توسعه اپلیکیشن ها با استفاده از خوشه AWS Redshift 
  • جداول AWS Redshift با Distkey و Sortkeys
  • Spectrum و کوئری های فدرال در AWS Redshift

این دوره برای چه کسانی مناسب است؟

  • مهندسان داده مبتدی یا متوسط ​​که می خواهند سرویس های AWS Analytics را برای مهندسی داده یاد بگیرند.
  • مهندسان اپلیکیشن سطح متوسط ​​که می خواهند مهندسی داده را با استفاده از سرویس های AWS Analytics بررسی کنند.
  • مهندسان داده و تحلیل داده که می خواهند مهندسی داده را با استفاده از سرویس های AWS Analytics یاد بگیرند.
  • متخصصان تست که می خواهند مهارت های کلیدی را برای تست اپلیکیشن های مهندسی داده که با استفاده از سرویس های AWS Analytics ساخته شده اند، بیاموزند.

مهندسی داده با استفاده از تحلیل داده AWS

  • آشنایی با مهندسی داده با استفاده از سرویس های تحلیل AWS 05:45
  • دروس ویدئویی و مباحث مرجع 03:01
  • گذراندن دوره یودمی برای کاربران جدید یودمی 04:07
  • هزینه های اضافی برای زیرساخت AWS برای تمرین عملی 01:39
  • ثبت نام برای حساب AWS 01:45
  • لاگین به حساب AWS 01:45
  • بررسی داشبورد صورتحساب AWS - معرفی Cost Explorer و بودجه ها 03:16
  • راه اندازی محیط محلی در ویندوز برای AWS 03:22
  • بررسی پاورشل در ویندوز 10 یا ویندوز 11 04:25
  • راه اندازی ماشین مجازی اوبونتو در ویندوز 10 یا 11 با استفاده از wsl 06:07
  • راه اندازی ماشین مجازی اوبونتو در ویندوز 10 یا 11 با استفاده از wsl - ادامه 05:17
  • راه اندازی venv و pip پایتون در اوبونتو 08:49
  • راه اندازی AWS CLI در ویندوز و اوبونتو با استفاده از Pip 03:09
  • ایجاد کاربر AWS IAM و دانلود اعتبارنامه ها 03:49
  • پیکربندی AWS CLI در ویندوز 07:36
  • ایجاد محیط مجازی پایتون برای پروژه های AWS 03:14
  • راه اندازی Boto3 به عنوان بخشی از محیط مجازی پایتون 02:29
  • راه اندازی لابراتوار Jupyter و اعتبارسنجی boto3 06:42
  • راه اندازی محیط محلی برای AWS در مک 02:35
  • راه اندازی AWS CLI در مک 02:08
  • راه اندازی کاربر AWS IAM برای پیکربندی AWS CLI 02:40
  • پیکربندی AWS CLI با استفاده از اعتبارنامه های کاربر IAM 06:25
  • راه اندازی محیط مجازی پایتون در مک با استفاده از پایتون 3 04:43
  • راه اندازی Boto3 به عنوان بخشی از محیط مجازی پایتون 02:29
  • راه اندازی لابراتوار Jupyter و اعتبارسنجی boto3 06:42
  • آشنایی با Cloud9 00:50
  • راه اندازی Cloud9 06:20
  • بررسی Cloud9 IDE 04:40
  • داکر و AWS CLI در Cloud9 03:03
  • Cloud9 و EC2 03:25
  • دسترسی به وب اپلیکیشن ها 03:59
  • تخصیص و اختصاص IP استاتیک 04:11
  • تغییر مجوزها با استفاده از سیاست های IAM 04:03
  • افزایش اندازه EBS Volume 02:46
  • باز کردن پورت ها برای نمونه Cloud9 03:12
  • راه اندازی لابراتوار Jupyter در نمونه Cloud9 07:06
  • باز کردن پورت SSH برای نمونه Cloud9 EC2 03:15
  • اتصال به نمونه Cloud9 EC2 با استفاده از SSH 06:33
  • مقدمه - شروع کار با AWS 01:44
  • ایجاد باکت AWS s3 با استفاده از کنسول وب AWS 03:45
  • ایجاد گروه و کاربر AWS IAM با استفاده از کنسول وب AWS 04:26
  • بررسی نقش‌ های AWS IAM برای اعطای مجوزها بین سرویس‌ های AWS 02:18
  • ایجاد و پیوست سیاست سفارشی AWS IAM با استفاده از کنسول وب AWS 04:36
  • پیکربندی و اعتبارسنجی رابط خط فرمان AWS برای اجرای فرمان های AWS 04:39
  • شروع کار با ذخیره سازی ساده AWS معروف به s3 02:59
  • راه اندازی داده به صورت محلی برای آپلود در AWS s3 02:17
  • افزودن آبجکت ها و باکت های AWS S3 با استفاده از کنسول وب AWS 05:49
  • کنترل نسخه آبجکت ها یا فایل های AWS S3 05:55
  • رپلیکیشن AWS S3 Cross-Region برای تحمل خطا 09:15
  • بررسی کلاس های ذخیره سازی AWS S3 یا Tier های ذخیره سازی 05:58
  • بررسی Glacier در AWS s3 03:08
  • مدیریت آبجکت ها و باکت های AWS S3 با استفاده از AWS CLI 07:07
  • مدیریت آبجکت ها در AWS S3 با استفاده از AWS CLI - لابراتوار 12:17
  • ایجاد کاربران AWS IAM با دسترسی برنامه‌ ای و کنسول وب 06:23
  • لاگ کردن در کنسول مدیریت AWS با استفاده از کاربر AWS IAM 02:24
  • اعتبارسنجی دسترسی برنامه‌ ای به کاربر AWS IAM از طریق AWS CLI 02:15
  • شروع کار با سیاست های مبتنی بر هویت AWS IAM 09:08
  • مدیریت گروه های کاربر AWS IAM 06:20
  • مدیریت نقش های AWS IAM برای دسترسی سطح سرویس 09:38
  • بررسی سیاست های سفارشی AWS برای اعطای مجوز به کاربران، گروه ها و نقش ها 09:00
  • مدیریت گروه ها، کاربران و نقش های AWS IAM با استفاده از AWS CLI 08:56
  • شروع کار با AWS Elastic Cloud Compute معروف به EC2 02:59
  • ایجاد جفت کلید AWS EC2 برای دسترسی به SSH 06:34
  • راه اندازی نمونه AWS EC2 یا ماشین مجازی 10:19
  • اتصال به نمونه AWS EC2 یا ماشین مجازی با استفاده از SSH 03:07
  • بررسی گروه های امنیت AWS برای امنیت فایروال نمونه AWS EC2 08:28
  • بررسی آدرس های IP عمومی و خصوصی نمونه AWS EC2 07:21
  • آشنایی با نمونه AWS EC2 یا چرخه عمر ماشین مجازی 03:46
  • اختصاص و تخصیص و AWS Elastic IP یا آدرس IP استاتیک به نمونه AWS EC2 05:06
  • مدیریت نمونه های AWS EC2 یا ماشین های مجازی با استفاده از AWS CLI 08:52
  • ارتقا یا تنزل رتبه نمونه های AWS EC2 یا ماشین های مجازی 06:46
  • درک نمونه AWS EC2 یا متادیتای ماشین مجازی 04:00
  • کوئری در نمونه AWS EC2 یا متادیتای ماشین مجازی 05:22
  • فیلترینگ نمونه AWS EC2 یا متادیتای ماشین مجازی 05:33
  • استفاده از اسکریپت های بوت استرپینگ در نمونه AWS EC2 یا ماشین مجازی 07:33
  • ایجاد تصویر ماشین آمازون معروف به AMI با استفاده از نمونه AWS EC2 05:52
  • اعتبارسنجی تصویر ماشین آمازون معروف به AMI - لابراتوار 04:08
  • Hello World با استفاده از توابع لامبدا در AWS 04:01
  • راه اندازی پروژه برای توسعه محلی 06:04
  • استقرار پروژه در کنسول لامبدا در AWS 04:23
  • توسعه قابلیت دانلود با استفاده از درخواست ها 07:06
  • استفاده از کتابخانه های شخص ثالث در لامبدا در AWS 06:01
  • اعتبارسنجی دسترسی s3 برای توسعه محلی 09:25
  • توسعه قابلیت آپلود در s3 08:53
  • اعتبارسنجی با استفاده از کنسول لامبدا در AWS 02:46
  • اجرا با استفاده از کنسول لامبدا در AWS 04:26
  • اعتبارسنجی فایل ها به صورت تدریجی 09:44
  • خواندن و نوشتن بوک مارک با استفاده از s3 07:35
  • نگهداری از بوک مارک با استفاده از s3 07:58
  • بررسی منطق آپلود افزایشی 05:55
  • استقرار تابع لامبدا 11:19
  • زمانبندی تابع لامبدا با استفاده از AWS Event Bridge 04:56
  • راه اندازی محیط مجازی و نصب Pyspark 04:45
  • شروع کار با Pycharm 04:56
  • انتقال آرگومان های ران تایم 05:30
  • دسترسی به متغیرهای محیط سیستم عامل 04:39
  • شروع کار با اسپارک 02:53
  • ایجاد تابع برای سشن اسپارک 05:48
  • راه اندازی داده نمونه 02:09
  • خواندن داده از فایل ها 08:46
  • پردازش داده با استفاده از APIs اسپارک 06:27
  • نوشتن داده در فایل ها 07:13
  • اعتبارسنجی نوشتن داده در فایل ها 06:46
  • تولید کد 04:36
  • مقدمه - بررسی کامپوننت های Glue 02:40
  • ایجاد کراولر و جدول کاتالوگ 06:07
  • تحلیل داده استفاده از Athena 03:58
  • ایجاد نقش و باکت S3 04:15
  • ایجاد و اجرای Glue Job 09:01
  • اعتبارسنجی با استفاده از جدول Glue Catalog و Athena 06:53
  • ایجاد و اجرای تریگر Glue 03:53
  • ایجاد گردش کار Glue 06:39
  • اجرا و اعتبارسنجی گردش کار Glue 05:20
  • مقدمه - سرور تاریخچه اسپارک برای Glue 01:44
  • راه اندازی سرور تاریخچه اسپارک در AWS 07:15
  • کلون سازی مخزن نمونه های AWS Glue 01:53
  • ساخت کانتینر رابط کاربری اسپارک Glue 01:01
  • بروزرسانی مجوزهای سیاست IAM 04:25
  • راه اندازی کانتینر رابط کاربری اسپارک Glue 06:06
  • پیش نیازها برای جداول Glue Catalog 01:00
  • مراحل ایجاد جداول Glue Catalog 01:26
  • دانلود مجموعه داده 04:40
  • آپلود داده در s3 06:12
  • ایجاد پایگاه داده Glue Catalog - معرفی itvghlandingdb 01:06
  • ایجاد جدول Glue Catalog - معرفی ghactivity 05:11
  • اجرای کوئری ها با استفاده از Athena - معرفی ghactivity 04:14
  • کراولینگ چندین پوشه 06:49
  • مدیریت Glue Catalog با استفاده از AWS CLI 10:00
  • مدیریت Glue Catalog با استفاده از Python Boto3 12:12
  • بروزرسانی نقش IAM برای Glue Job 02:12
  • ایجاد Glue Job بیس لاین 04:45
  • اجرای Glue Job بیس لاین 09:14
  • اسکریپت Glue برای پارتیشن بندی داده 04:10
  • اعتبارسنجی با استفاده از Athena 05:39
  • آشنایی با بوک مارک های Glue Job 00:59
  • پاکسازی داده 01:51
  • بررسی AWS Glue CLI 03:26
  • اجرای Job با استفاده از بوک مارک 02:34
  • اعتبارسنجی بوک مارک با استفاده از AWS CLI 05:09
  • افزودن داده جدید به لندینگ 02:22
  • اجرای مجدد Glue Job با استفاده از بوک مارک 02:59
  • اعتبارسنجی بوک مارک Job و فایل‌ ها برای اجرای افزایشی 02:02
  • کراولینگ مجدد جدول Glue Catalog با استفاده از CLI 04:52
  • اجرای کوئری های Athena برای اعتبارسنجی داده 04:21
  • برنامه ریزی خوشه EMR 01:20
  • ایجاد جفت کلید EC2 04:30
  • راه اندازی خوشه EMR با اسپارک 05:59
  • درک خلاصه ای از خوشه AWS EMR 03:28
  • بررسی رابط های کاربری اپلیکیشن خوشه EMR 02:23
  • بررسی EMR Cluster Monitoring07 - بررسی نظارت بر خوشه EMR 01:46
  • بررسی سخت‌ افزار خوشه‌ EMR و سیاست مقیاس‌ بندی خوشه 01:16
  • بررسی پیکربندی های خوشه EMR 02:11
  • بررسی رویدادهای خوشه EMR 02:21
  • بررسی استپ های خوشه EMR 01:48
  • بررسی اکشن های بوت استرپ خوشه EMR 02:03
  • اتصال به EMR Master Node با استفاده از SSH 02:20
  • غیرفعال سازی حفاظت از Termination و خاتمه دادن به خوشه 01:41
  • کلون سازی و ایجاد خوشه جدید 03:37
  • لیست بندی آبجکت ها و باکت های AWS S3 با استفاده از AWS CLI در خوشه EMR 03:20
  • لیست بندی آبجکت ها و باکت های AWS S3 با استفاده از HDFS CLI در خوشه EMR 03:32
  • مدیریت فایل ها در AWS s3 با استفاده از HDFS CLI در خوشه EMR 04:51
  • استقرار اپلیکیشن ها با استفاده از AWS EMR - مقدمه 00:26
  • راه اندازی خوشه EMR برای استقرار اپلیکیشن ها 07:18
  • اعتبارسنجی اتصال پذیری SSH به Master node خوشه AWS EMR 02:20
  • راه اندازی محیط Jupyter Notebook در خوشه EMR 05:49
  • ایجاد باکت AWS s3 مورد نیاز 02:40
  • آپلود داده GHActivity در s3 06:19
  • اعتبارسنجی اپلیکیشن با استفاده از نسخه های سازگار AWS EMR 06:30
  • استقرار اپلیکیشن در AWS EMR Master Node 03:13
  • ایجاد فضای کاربری برای ec2-user در خوشه AWS EMR 03:56
  • اجرای اپلیکیشن اسپارک با استفاده از spark-submit در AWS EMR Master Node 07:36
  • اعتبارسنجی داده با استفاده از Jupyter Notebooks در خوشه AWS EMR 08:16
  • کلون سازی و راه اندازی AWS EMR پایان یافته خودکار در خوشه AWS EMR 08:35
  • حذف داده Populate شده توسط اپلیکیشن GHAcitivity با استفاده از خوشه AWS EMR 01:02
  • تفاوت بین کلاینت اسپارک و حالت های استقرار خوشه 09:13
  • اجرای اپلیکیشن اسپارک با استفاده از حالت خوشه در خوشه AWS EMR 05:14
  • بررسی افزودن اپلیکیشن Pyspark به عنوان استپ به خوشه AWS EMR 03:33
  • استقرار اپلیکیشن اسپارک در AWS S3 02:20
  • اجرای اپلیکیشن های اسپارک به عنوان استپ های AWS EMR در حالت کلاینت 03:46
  • اجرای اپلیکیشن های اسپارک به عنوان استپ های AWS EMR در حالت خوشه 06:27
  • اعتبارسنجی اجرای استپ AWS EMR از اپلیکیشن اسپارک 02:58
  • ساخت پایپ لاین استریمینگ با استفاده از Kinesis 02:41
  • چرخش لاگ ها 11:32
  • راه اندازی ایجنت Kinesis Firehose 06:00
  • ایجاد استریم تحویل Kinesis Firehose 07:23
  • برنامه ریزی پایپ لاین 03:46
  • ایجاد گروه و کاربر IAM 07:13
  • اعطای مجوزها به کاربر IAM با استفاده از سیاست 04:47
  • پیکربندی ایجنت Kinesis Firehose 05:26
  • راه اندازی و اعتبارسنجی ایجنت 10:15
  • نتیجه گیری - ساخت پایپ لاین استریمینگ ساده 01:03
  • سفارشی سازی پوشه s3 با استفاده از استریم تحویل Kinesis 05:21
  • ایجاد سیاست برای خواندن از باکت s3 04:25
  • اعتبارسنجی دسترسی به s3 با استفاده از AWS CLI 04:10
  • راه اندازی محیط مجازی پایتون برای بررسی boto3 03:14
  • اعتبارسنجی دسترسی به s3 با استفاده از boto3 پایتون 04:54
  • خواندن محتوا از آبجکت s3 07:47
  • خواندن چندین آبجکت s3 06:04
  • دریافت تعداد آبجکت های s3 با استفاده از نشانگر 06:15
  • دریافت اندازه آبجکت های s3 با استفاده از نشانگر 04:04
  • نصب کتابخانه های مورد نیاز 02:04
  • آشنایی با APIs گیت هاب 05:09
  • راه اندازی توکن API گیت هاب 03:27
  • درک محدودیت نرخ گیت هاب 01:35
  • ایجاد مخزن جدید برای since 02:04
  • استخراج اطلاعات مورد نیاز 06:02
  • پردازش داده 08:51
  • اعطای مجوزها برای ایجاد جداول dynamodb با استفاده از boto3 02:57
  • ایجاد جداول DynamoDB 06:37
  • عملیات های CRUD در DynamoDB 08:08
  • Populate کردن جدول Dynamod 04:58
  • عملیات های دسته ای DynamoDB 05:55
  • شروع کار با Amazon Athena 03:46
  • جمع بندی سریع پایگاه داده ها و جداول Glue Catalog 03:13
  • دسترسی به پایگاه‌ داده ها و جداول Glue Catalog با استفاده از ویرایشگر کوئری Athena 03:32
  • ایجاد پایگاه داده و جدول با استفاده از Athena 04:45
  • Populate کردن داده در جدول با استفاده از Athena 04:19
  • استفاده از CTAS برای ایجاد جداول با استفاده از Athena 08:19
  • بررسی معماری Amazon Athena 04:15
  • منابع Amazon Athena و رابطه با Hive 03:39
  • ایجاد جدول پارتیشن بندی شده با استفاده از Athena 04:13
  • توسعه کوئری برای ستون پارتیشن بندی شده 07:04
  • درج در جداول پارتیشن بندی شده با استفاده از Athena 02:40
  • اعتبارسنجی پارتیشن بندی داده با استفاده از Athena 04:13
  • دراپ کردن جداول Athena و حذف فایل های داده 04:10
  • دراپ کردن جدول پارتیشن بندی شده با استفاده از Athena 01:50
  • پارتیشن بندی داده در Athena با استفاده از CTAS 05:17
  • Amazon Athena با استفاده از AWS CLI - مقدمه 00:49
  • دریافت کمک و لیست بندی پایگاه داده های Athena با استفاده از AWS CLI 02:18
  • مدیریت گروه های کاری Athena با استفاده از AWS CLI 06:48
  • اجرای کوئری های Athena با استفاده از AWS CLI 04:12
  • دریافت متادیتای جدول Athena با استفاده از AWS CLI 03:37
  • اجرای کوئری های Athena با لوکیشن سفارشی با استفاده از AWS CLI 07:19
  • دراپ کردن جدول Athena با استفاده از AWS CLI 03:53
  • اجرای CTAS تحت Athena با استفاده از AWS CLI 04:35
  • Amazon Athena با استفاده از boto3 پایتون - مقدمه 02:30
  • شروع کار با مدیریت Athena با استفاده از boto3 پایتون 06:38
  • لیست بندی پایگاه داده های Amazon Athena با استفاده از boto3 پایتون 05:01
  • لیست بندی جداول Amazon Athena با استفاده از boto3 پایتون 09:02
  • اجرای کوئری های Amazon Athena با استفاده از boto3 پایتون 06:15
  • بررسی نتایج کوئری Athena را با استفاده از boto3 08:12
  • شروع کار با Amazon Redshift - مقدمه 00:56
  • ایجاد خوشه Redshift با استفاده از نسخه آزمایشی رایگان 03:34
  • اتصال به پایگاه داده با استفاده از ویرایشگر کوئری Redshift 03:33
  • دریافت لیست جداولی که اطلاعات اسکیما را کوئری می کنند 03:34
  • اجرای کوئری ها در مقابل جداول Redshift با استفاده از ویرایشگر کوئری 03:37
  • ایجاد جدول Redshift با استفاده از کلید اصلی 03:35
  • درج داده در جداول Redshift 07:17
  • بروزرسانی داده در جداول Redshift 05:13
  • حذف داده از جداول Redshift 04:17
  • کوئری های ذخیره شده Redshift با استفاده از ویرایشگر کوئری 03:40
  • حذف خوشه Redshift 02:37
  • بازیابی خوشه Redshift از اسنپ شات 04:48
  • کپی داده از s3 به Redshift - مقدمه 01:27
  • راه اندازی داده در s3 برای کپی Redshift 04:55
  • کپی پایگاه داده و جدول برای فرمان کپی Redshift 03:33
  • ایجاد کاربر IAM با دسترسی کامل در s3 برای کپی Redshift 03:37
  • اجرای فرمان کپی برای کپی داده از s3 به جدول Reshift 03:15
  • عیب یابی خطاهای مربوط به فرمان کپی Redshift 02:17
  • اجرای فرمان کپی برای کپی از s3 به جدول Reshift 02:12
  • اعتبارسنجی با استفاده از کوئری ها در مقابل جدول Redshift 02:44
  • بررسی فرمان کپی Redshift 05:26
  • ایجاد نقش IAM برای Redshift برای دسترسی به s3 04:49
  • کپی داده از s3 به جدول Redshift با استفاده از نقش IAM 06:05
  • راه اندازی مجموعه داده جی سان در s3 برای فرمان کپی Redshift 03:59
  • کپی داده جی سان از s3 به جدول Redshift با استفاده از نقش IAM 03:57
  • توسعه اپلیکیشن ها با استفاده از خوشه Redshift - مقدمه 00:59
  • تخصیص Elastic Ip برای خوشه Redshift 03:46
  • فعال سازی دسترسی پذیری عمومی برای خوشه Redshift 04:01
  • بروزرسانی قوانین ورودی در گروه امنیت برای دسترسی به خوشه Redshift 05:16
  • ایجاد پایگاه داده و کاربر در خوشه Redshift 04:57
  • اتصال به پایگاه داده در Redshift با استفاده از psql 03:47
  • تغییر مالک در جداول Redshift 03:06
  • دانلود فایل Redshift JDBC Jar 01:51
  • اتصال به پایگاه داده های Redshift با استفاده از IDEs مانند SQL Workbench 04:30
  • راه اندازی محیط مجازی پایتون برای Redshift 04:45
  • اجرای کوئری ساده در مقابل جدول پایگاه داده Redshift با استفاده از پایتون 06:30
  • کوتاه کردن جدول Redshift با استفاده از پایتون 03:56
  • ایجاد کاربر IAM برای کپی از s3 به جداول Redshift 02:23
  • اعتبارسنجی دسترسی کاربر IAM با استفاده از Boto3 04:51
  • اجرای فرمان کپی Redshift با استفاده از پایتون 06:31
  • جداول Redshift با Distkeys و Sortkeys - مقدمه 03:58
  • بررسی سریع معماری Redshift 03:34
  • ایجاد خوشه چند گره Redshift 04:34
  • اتصال به خوشه Redshift با استفاده از ویرایشگر کوئری 02:47
  • ایجاد پایگاه داده Redshift 01:34
  • ایجاد کاربر پایگاه داده Redshift 03:46
  • ایجاد اسکیمای پایگاه داده Redshift 05:37
  • استایل توزیع پیش‌ فرض جدول Redshift 04:14
  • اعطای کاتالوگ های انتخاب به کاربر پایگاه داده Redshift 03:22
  • بروزرسانی مسیر جستجو برای کوئری جداول سیستم Redshift 07:09
  • اعتبارسنجی جدول با DISTSTYLE AUTO 06:27
  • ایجاد خوشه از اسنپ شات به state اورجینال 06:59
  • بررسی اسلایس های Node در خوشه Redshift 03:39
  • بررسی استایل های توزیع 03:48
  • استراتژی های توزیع برای جداول خرده فروشی در Redshift 02:17
  • ایجاد جداول Redshift با تمام استایل های توزیع 05:50
  • عیب یابی و فیکس کردن خطاهای بارگذاری یا کپی 04:03
  • ایجاد جدول Redshift با خودکارسازی استایل توزیع 03:49
  • ایجاد جداول Redshift با استفاده از کلید استایل توزیع 07:50
  • حذف خوشه با اسنپ شات دستی 01:27
  • Spectrum و کوئری های فدرال شده Redshift - مقدمه 01:28
  • بررسی یکپارچه سازی RDS و Redshift برای کوئری های فدرال شده 05:30
  • ایجاد نقش IAM برای خوشه Redshift 02:26
  • راه اندازی سرور پایگاه داده Postgres برای کوئری های فدرال Redshift 07:27
  • ایجاد جداول در پایگاه داده Postgres برای کوئری های فدرال Redshift 06:02
  • ایجاد Secret با استفاده از Secrets Manager برای پایگاه داده Postgres 04:05
  • دسترسی به جزئیات Secret با استفاده از Python Boto3 06:47
  • خواندن داده‌ جی سان در دیتافریم با استفاده از Pandas 08:51
  • نوشتن داده‌ جی سان در جداول پایگاه داده با استفاده از Pandas 10:43
  • ایجاد سیاست IAM برای Secret برقراری ارتباط با نقش Redshift 04:45
  • ایجاد خوشه Redshift با استفاده از نقش IAM با مجوزها در secret 05:01
  • ایجاد اسکیمای خارجی Redshift در پایگاه داده Postgres 06:00
  • بروزرسانی تنظیمات شبکه خوشه Redshift برای کوئری های فدرال شده 09:43
  • انجام ETL با استفاده از کوئری های فدرال شده Redshift 04:46
  • پاکسازی منابع اضافه شده برای کوئری های فدرال شده Redshift 03:09
  • اعطای دسترسی در Glue Data Catalog به خوشه Redshift برای Spectrum 03:51
  • راه اندازی خوشه های Redshift برای اجرای کوئری ها با استفاده از Spectrum 02:33
  • جمع بندی سریع پایگاه داده و جداول Glue Catalog برای Redshift Spectrum 02:25
  • ایجاد اسکیمای خارجی با استفاده از Redshift Spectrum 03:21
  • اجرای کوئری ها با استفاده از Redshift Spectrum 03:37
  • پاکسازی خوشه Redshift 01:10

10,368,500 2,073,700 تومان

مشخصات آموزش

مهندسی داده با استفاده از تحلیل داده AWS

  • تاریخ به روز رسانی: 1404/06/14
  • سطح دوره:متوسط
  • تعداد درس:322
  • مدت زمان :26:15:00
  • حجم :7.73GB
  • زبان:دوبله زبان فارسی
  • دوره آموزشی:AI Academy

آموزش های مرتبط

The Great Courses
1,889,000 377,800 تومان
  • زمان: 04:47:39
  • تعداد درس: 30
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
9,269,000 1,853,800 تومان
  • زمان: 23:28:00
  • تعداد درس: 170
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
770,000 154,000 تومان
  • زمان: 01:57:58
  • تعداد درس: 29
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
4,351,500 870,300 تومان
  • زمان: 11:01:32
  • تعداد درس: 53
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
711,000 142,200 تومان
  • زمان: 01:48:43
  • تعداد درس: 14
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,356,000 271,200 تومان
  • زمان: 03:26:02
  • تعداد درس: 29
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
3,930,000 786,000 تومان
  • زمان: 09:57:30
  • تعداد درس: 74
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
7,379,500 1,475,900 تومان
  • زمان: 18:41:14
  • تعداد درس: 133
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
10,256,500 2,051,300 تومان
  • زمان: 25:58:16
  • تعداد درس: 140
  • سطح دوره:
  • زبان: دوبله فارسی

آیا سوالی دارید؟

ما به شما کمک خواهیم کرد تا شغل و رشد خود را افزایش دهید.
امروز با ما تماس بگیرید