راهنما کامل دریاچه های داده و Lakehouses
✅ سرفصل و جزئیات آموزش
دانش اصلی و مهارت های عملی ضروری برای مهندسان داده، دانشمندان داده و متخصصان مرتبط را بسازید تا بتوانند به طور مؤثر دریاچه های داده را طراحی و استفاده کنند.
در این دوره، مهندس داده و نگارش گر تکنیکال Thalia Barrera یک بررسی جامع مقدماتی از دریاچه های داده ارائه می دهد. مفاهیم کلیدی مانند معماری دریاچه داده، عملکرد و ادغام با سیستم های داده موجود یاد بگیرید.
بررسی کنید که چگونه دریاچه های داده را با گردش کارهای هوش مصنوعی و یادگیری ماشین یکپارچه سازی کنید. تفاوت بین دریاچه های داده، انبارهای داده و پایگاه داده ها را بررسی کنید. فرمت های مختلف داده و کاربرد آنها در محیط دریاچه داده را بررسی کنید.
با استفاده از تمرین های عملی همراه، تمرین کنید تا یک دریاچه داده اولیه را راه اندازی کرده و عملیات ساده داده را انجام دهید. پس از پایان این دوره، شما مجهز خواهید شد تا تصمیمات آگاهانه در مورد پیاده سازی و مدیریت دریاچه های داده در سازمان خود بگیرید.
راهنما کامل دریاچه های داده و Lakehouses
-
دریاچه های داده، lakehouses و موارد دیگر 0:00:40
-
آنچه باید بدانید 0:00:50
-
پیش نمایش پروژه Capstone 0:02:34
-
دریاچه داده چیست؟ 0:03:18
-
منشأ و تکامل 0:03:22
-
کامپوننت های اصلی معماری 0:03:57
-
دریاچه داده در مقابل انبار داده 0:03:19
-
دریاچه داده در مقابل شبکه داده 0:03:12
-
انواع ذخیره سازی 0:02:36
-
میزبانی ذخیره سازی 0:03:28
-
راه حل های ذخیره سازی: S3 ،GC ،Azure Blob Storage و HDFS 0:03:42
-
ساختارهای پوشه 0:04:18
-
فرمت های فایل 0:03:10
-
فشرده سازی داده 0:03:50
-
پارتیشن بندی داده 0:05:42
-
متدهای جذب داده 0:03:10
-
ETL در مقابل ELT 0:02:24
-
تبدیل داده 0:03:27
-
کیفیت داده 0:03:47
-
مدیریت خطا، logging و نظارت 0:03:50
-
ارکستراسیون 0:05:03
-
پلتفرم های جذب داده 0:04:09
-
آشنایی با مدیریت و حاکمیت داده 0:02:40
-
مدیریت متاداده 0:02:43
-
کاتالوگ داده 0:02:50
-
Data lineage 0:01:44
-
امنیت، حریم خصوصی و انطباق داده 0:03:04
-
ابزارها و پلتفرم های مدیریت داده 0:04:21
-
Data Lakehouses چیست؟ 0:04:18
-
تراکنش های ACID 0:04:21
-
مدیریت اسکیما 0:04:34
-
فرمت های جدول: Delta Lake ،Apache Iceberg ،Apache Hudi 0:04:26
-
آشنایی با مصرف داده 0:04:59
-
تحلیل یکپارچه داده: Spark 0:04:17
-
SQL روی Hadoop :Hive و Impala 0:03:19
-
موتورهای کوئری تعاملی: Presto و Trino 0:03:18
-
ايندکس داده 0:04:12
-
بهینه سازی عملکرد کوئری 0:06:12
-
ملاحظات امنیتی مصرف داده 0:03:47
-
پلتفرم های تحلیل یکپارچه: Databricks و Snowflake 0:03:14
-
انبارهای داده ابری: BigQuery ،Azure Synapse و Redshift 0:03:11
-
پلتفرم های سلف سرویس داده: Dremio و Starburst 0:03:29
-
دفترچه های تعاملی: Jupyter ،Zeppelin ،Databricks 0:03:55
-
ابزارهای هوش تجاری (BI): Tableau ،Power BI ،Superset ،Metabase 0:03:58
-
APIs و سرویس ها برای مصرف داده 0:03:25
-
بررسی پروژه Capstone 0:06:12
-
بررسی مدل داده 0:02:31
-
نصب پروژه و بررسی کد 0:05:23
-
راه اندازی زیرساخت 0:05:52
-
جذب داده خام 0:08:09
-
بررسی مدل های تبدیل 0:03:55
-
راه حل: ساخت یک مدل داده با SQL 0:01:17
-
اجرای تبدیلات داده 0:03:27
-
ارکستراسیون داده 0:03:05
-
بررسی Dremio 0:03:07
-
اجرای کوئری ها و ایجاد مجموعه های داده مجازی 0:04:36
-
ایجاد مجموعه داده های مجازی پیچیده با استفاده از SQL 0:03:20
-
اتصال Dremio به Apache Superset 0:02:41
-
ایجاد یک داشبورد بازاریابی 0:09:00
-
اتصال Dremio به Jupyter Notebook 0:03:36
-
تحلیل پیشرفته نظرات محصول 0:08:08
-
راه حل: تحلیل سلامت خودرو در Jupyter 0:03:27
-
آشنایی با LLMs و تعبیه های برداری: Llama 0:03:54
-
آشنایی با RAG (retrieval-augmented generation) 0:01:29
-
آشنایی با تعبیه های برداری: Chroma 0:02:10
-
LangChain چیست؟ 0:01:03
-
بررسی پروژه هوش مصنوعی مولد: Sales copilot 0:03:45
-
نصب و بررسی کد 0:03:30
-
اجرای پروژه: استفاده از copilot 0:07:35
-
خلاصه و نکات کلیدی 0:00:50
-
گام های بعدی در سفر داده شما 0:00:44
مشخصات آموزش
راهنما کامل دریاچه های داده و Lakehouses
- تاریخ به روز رسانی: 1404/06/14
- سطح دوره:پیشرفته
- تعداد درس:71
- مدت زمان :5:39:21
- حجم :546.0MB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy