دوره آموزشی
آموزش های یودمی
دوبله زبان فارسی

مهندسی داده و کلان‌داده با Apache Spark و PySpark

مهندسی داده و کلان‌داده با Apache Spark و PySpark

✅ سرفصل و جزئیات آموزش

آنچه یاد خواهید گرفت:

  • درک اصول کلان‌داده: مفاهیم کلیدی کلان‌داده و تکامل از Hadoop به Spark را توضیح دهید.
  • یادگیری معماری اسپارک: کامپوننت ها و معماری اصلی Apache Spark، شامل RDDs ،DataFrames و Datasets را شرح دهید.
  • راه‌اندازی اسپارک: Spark را در حالت‌های محلی و مستقل برای توسعه و تست نصب و پیکربندی کنید.
  • نوشتن برنامه‌های PySpark: اپلیکیشن های PySpark را با استفاده از پایتون شامل عملیات‌های اولیه بر روی RDDs و DataFrames ایجاد و اجرا کنید.
  • تسلط به عملیات‌های RDD: تبدیل‌ها و عملیات‌هارا ضمن استفاده از کش و پایداری بر روی RDDs مانند map ،filter ،reduce و groupBy انجام دهید.
  • کار با SparkContext و SparkSession: نقش آن‌ها را درک کرده و آن‌ها را به طور مؤثر در اپلیکیشن های PySpark مدیریت کنید.
  • کار با DataFrames: DataFrames را برای پردازش داده‌ ساختاریافته ایجاد، دستکاری و بهینه کنید.
  • اجرای کوئری‌های SQL در SparkSQL: از SparkSQL برای کوئری گرفتن از DataFrames استفاده کنید و SQL را با عملیات‌های DataFrame یکپارچه کنید.
  • مدیریت فرمت‌های مختلف داده: داده‌ را ضمن بهینه‌سازی ذخیره‌سازی داده با پارتیشن‌بندی و باکتینگ در فرمت‌هایی مانند CSV ،JSON ،Parquet و Avro بخوانید و بنویسید.
  • ساخت پایپ‌لاین‌های داده: پایپ‌لاین‌های داده دسته‌ای و بلادرنگ را برای دریافت، تبدیل و تجمیع داده طراحی و پیاده‌سازی کنید.
  • یادگیری مبانی Spark Streaming: داده‌ بلادرنگ را با استفاده از Spark Streaming شامل کار با استریمینگ ساختاریافته و یکپارچه‌سازی با Kafka پردازش کنید.
  • بهینه‌سازی اپلیکیشن های اسپارک: با درک مدل‌های اجرایی، DAGs، عملیات‌های shuffle و مدیریت حافظه، اپلیکیشن های Spark را برای عملکرد بهینه تنظیم کنید.
  • استفاده از ویژگی‌های پیشرفته اسپارک: از عملیات‌های پیشرفته DataFrame، شامل joins، تجمیع‌ها و توابع پنجره‌ای، برای تبدیل‌های پیچیده داده استفاده کنید.
  • بررسی در جزئیات داخلی اسپارک: درک عمیقی از مدل اجرایی Spark ،Catalyst Optimizer و تکنیک‌هایی مانند Broadcasting و Partitioning به دست آورید.
  • یادگیری مبانی Spark MLlib: پایپ‌لاین‌های یادگیری ماشین را با استفاده از Spark MLlib بسازید و الگوریتم‌هایی مانند رگرسیون خطی و رگرسیون لجستیک را اعمال کنید.
  • توسعه اپلیکیشن های استریمینگ بلادرنگ: استریمینگ حالت‌مند را پیاده‌سازی کنید، داده‌ دیرهنگام را مدیریت کنید و تحمل خطا را با Checkpointing در Spark Streaming مدیریت کنید.
  • کار بر روی پروژه‌های پایانی: یک پایپ‌لاین داده کامل را طراحی و پیاده‌سازی کنید، که پردازش داده‌ دسته‌ای و استریمینگ را با یادگیری ماشین یکپارچه کند.
  • آماده شدن برای نقش‌های صنعتی: Spark را در موارد استفاده واقعی به کار ببرید، رزومه خود را با مهارت‌های Spark بهبود بخشید، برای مصاحبه‌های فنی در مهندسی داده و یادگیری ماشین آماده شوید.

پیش نیازهای دوره

  • اشتیاق و اراده برای تأثیرگذاری در جهان!

توضیحات دوره

به دوره "Apache Spark و PySpark برای مهندسی داده و کلان‌داده" توسط Uplatz خوش آمدید. ما خوشحالیم که شما را در این سفر یادگیری همراهی می‌کنیم! 

Apache Spark مانند یک موتور فوق‌العاده کارآمد برای پردازش حجم عظیمی از داده است. تصور کنید این یک ابزار قدرتمند است که می‌تواند اطلاعاتی را مدیریت کند که برای یک کامپیوتر واحد بسیار بزرگ است. اسپارک این کار را با توزیع بار کاری در سراسر خوشه‌ای از کامپیوترها انجام می‌دهد و کل فرآیند را بسیار سریع‌تر می‌کند.

Spark و PySpark راهی قدرتمند و کارآمد برای پردازش و تحلیل مجموعه‌های داده بزرگ فراهم می‌کنند، که آن‌ها را به ابزارهایی ضروری برای دانشمندان داده، مهندسان، و هر کسی که با کلان‌داده کار می‌کند، تبدیل کرده است.

ویژگی‌های کلیدی که اسپارک را خاص می‌کنند:

  • سرعت: اسپارک می‌تواند داده‌ را به شکل فوق‌العاده‌ای سریع پردازش کند، حتی Petabytes را، زیرا بار کاری را توزیع می‌کند و بخش زیادی از پردازش را در حافظه انجام می‌دهد.
  • سهولت استفاده: اسپارک APIs ساده‌ای را در زبان‌هایی مانند پایتون، جاوا، اسکالا و R ارائه می‌دهد که آن را برای طیف وسیعی از توسعه‌دهندگان قابل دسترس می‌سازد.
  • تطبیق‌پذیری: اسپارک می‌تواند انواع مختلفی از تسک های پردازش داده را مدیریت کند، از جمله:
  • پردازش دسته‌ای: تحلیل حجم وسیعی از مجموعه‌های داده به صورت یکجا
  • استریمینگ بلادرنگ: پردازش داده به محض ورود، مانند فیدهای شبکه‌های اجتماعی یا داده‌ حسگرها
  • یادگیری ماشین: ساخت و آموزش مدل‌های هوش مصنوعی
  • پردازش گراف: تحلیل روابط بین نقاط داده، مانند آنچه در شبکه‌های اجتماعی دیده می‌شود.

PySpark به طور خاص برای کاربران پایتون طراحی شده که می‌خواهند از قدرت اسپارک استفاده کنند. در اصل، PySpark یک API پایتون برای اسپارک است که به شما امکان می‌دهد اپلیکیشن های اسپارک را با استفاده از کدهای آشنای پایتون بنویسید.

PySpark چگونه ارزش‌آفرینی می‌کند:

  • رابط کاربری پایتونیک: PySpark به شما امکان می‌دهد با استفاده از سینتکس و کتابخانه‌های پایتون با اسپارک تعامل داشته باشید، که کار با کلان‌داده را برای توسعه‌دهندگان پایتون آسان‌تر می‌کند.
  • یکپارچگی با اکوسیستم پایتون: می‌توانید PySpark را به راحتی با سایر ابزارها و کتابخانه‌های پایتون، مانند Pandas و NumPy، برای دستکاری و تحلیل داده‌ یکپارچه کنید.
  • پشتیبانی جامعه: PySpark دارای یک جامعه بزرگ و فعال است که منابع، آموزش‌ها و پشتیبانی فراوانی را برای کاربران فراهم می‌کند.

برنامه درسی دوره Apache Spark و PySpark برای مهندسی داده و کلان‌داده

این دوره برای ارائه درکی جامع از اسپارک و PySpark، از مفاهیم اولیه تا پیاده‌سازی‌های پیشرفته، طراحی شده است تا شما را به خوبی برای مدیریت تحلیل داده‌ در مقیاس بزرگ در دنیای واقعی آماده کند. این دوره شامل تعادلی از تئوری، تمرین عملی و کار پروژه است.

آشنایی با Apache Spark

  • آشنایی با کلان‌داده و Apache Spark، بررسی کلان‌داده
  • تکامل اسپارک: از Hadoop تا Spark
  • بررسی معماری اسپارک
  • کامپوننت های کلیدی اسپارک: RDDs، DataFrames و Datasets

نصب و راه‌اندازی

  • راه‌اندازی اسپارک در حالت محلی
  • آشنایی با Spark Shell (Scala و Python)

مبانی PySpark

  • آشنایی با PySpark: API پایتون برای اسپارک
  • نصب و پیکربندی PySpark
  • نوشتن و اجرای اولین برنامه PySpark شما

درک RDDs (مجموعه‌های داده توزیع‌شده مقاوم)

  • مفاهیم RDD: ایجاد، تبدیل‌ها و عملیات‌ها
  • عملیات‌های RDD از جمله: Map ،Filter ،Reduce ،GroupBy و غیره
  • پایداری و کش کردن RDDs

آشنایی با SparkContext و SparkSession

  • SparkContext در مقابل SparkSession: نقش‌ها و مسئولیت‌ها
  • ایجاد و مدیریت SparkSessionها در PySpark

کار با DataFrames و SparkSQL

  • آشنایی با DataFrames
  • درک DataFrames از جمله: Schema ،Rows و Columns
  • ایجاد DataFrames از منابع داده مختلف (CSV ،JSON ،Parquet و غیره)
  • عملیات‌های اولیه DataFrame مانند: Select ،Filter ،GroupBy و غیره

عملیات‌های پیشرفته DataFrame

  • Joins ،Aggregations و توابع پنجره‌ای
  • مدیریت داده‌ گم‌شده و پاکسازی داده‌ در PySpark
  • بهینه‌سازی عملیات‌های DataFrame

آشنایی با SparkSQL

  • مبانی SparkSQL: اجرای کوئری‌های SQL بر روی DataFrames
  • استفاده همزمان از SQL و DataFrame API
  • ایجاد و مدیریت ویوهای موقت و ویوهای سراسری 

منابع و فرمت‌های داده

  • کار با فرمت‌های فایل مختلف: Parquet ،ORC ،Avro و غیره
  • خواندن و نوشتن داده‌ در فرمت‌های مختلف
  • پارتیشن‌بندی و باکتینگ داده

جلسه عملی: ساخت یک پایپ‌لاین داده

  • طراحی و پیاده‌سازی یک پایپ‌لاین دریافت داده
  • انجام تبدیل‌ها و تجمیع‌های داده

آشنایی با Spark Streaming

  • بررسی پردازش داده بلادرنگ
  • آشنایی با Spark Streaming: معماری و مبانی

مفاهیم پیشرفته و بهینه‌سازی اسپارک

  • درک جزئیات داخلی اسپارک
  • مدل اجرایی اسپارک: Jobs ،Stages و Tasks
  • DAG (گراف جهت‌دار بدون چرخه) و Catalyst Optimizer
  • درک عملیات‌های Shuffle

تنظیم عملکرد و بهینه‌سازی

  • آشنایی با پیکربندی‌ها و پارامترهای اسپارک
  • مدیریت حافظه و جمع‌آوری زباله در اسپارک
  • تکنیک‌های تنظیم عملکرد: کش کردن، پارتیشن‌بندی و Broadcasting

کار با Datasets

  • آشنایی با Spark Datasets مانند: Type Safety و عملکرد
  • تبدیل بین RDDs ،DataFrames و Datasets

SparkSQL پیشرفته

  • تکنیک‌های بهینه‌سازی کوئری در SparkSQL
  • UDFs (توابع تعریف‌شده توسط کاربر) و UDAFs (توابع تجمیعی تعریف‌شده توسط کاربر)
  • استفاده از توابع SQL در DataFrames

آشنایی با Spark MLlib

  • بررسی Spark MLlib: یادگیری ماشین با اسپارک
  • کار با پایپ‌لاین‌های یادگیری ماشین: Transformers و Estimators
  • الگوریتم‌های اولیه یادگیری ماشین: رگرسیون خطی، رگرسیون لجستیک و غیره

جلسه عملی: یادگیری ماشین با Spark MLlib

  • پیاده‌سازی یک مدل یادگیری ماشین در PySpark
  • تنظیم هایپرپارامترها و ارزیابی مدل

تمرینات عملی و کار پروژه

  • تکنیک‌های بهینه‌سازی در عمل
  • گسترش مینی‌پروژه با MLlib

پردازش داده بلادرنگ و استریمینگ پیشرفته

  • مفاهیم پیشرفته Spark Streaming
  • Structured Streaming: مدل پردازش پیوسته
  • عملیات‌های پنجره‌ای و استریمینگ حالت‌مند
  • مدیریت داده‌ دیرهنگام و پردازش زمان رویداد

یکپارچگی با Kafka

  • آشنایی با Apache Kafka: مبانی و موارد استفاده
  • یکپارچه‌سازی اسپارک با Kafka برای دریافت داده بلادرنگ
  • پردازش داده‌ استریمینگ از Kafka در PySpark

تحمل خطا و Checkpointing

  • اطمینان از تحمل خطا در اپلیکیشن های استریمینگ
  • پیاده‌سازی Checkpointing و مدیریت وضعیت
  • مدیریت خطاها و بازیابی اپلیکیشن های استریمینگ

Spark Streaming در محیط عملیاتی

  • بهترین شیوه‌ها برای استقرار اپلیکیشن های Spark Streaming
  • نظارت و عیب‌یابی وظایف استریمینگ
  • مقیاس‌گذاری اپلیکیشن های Spark Streaming

جلسه عملی: پایپ‌لاین پردازش داده بلادرنگ

  • طراحی و پیاده‌سازی یک پایپ‌لاین داده بلادرنگ
  • کار با داده‌ استریمینگ از منابع متعدد

پروژه پایانی - ساخت یک پایپ‌لاین داده End-to-End

  • مقدمه پروژه
  • بررسی پروژه پایانی: پایپ‌لاین کلان‌داده End-to-End
  • تعریف صورت مسئله و منابع داده

دریافت و پیش‌پردازش داده

  • طراحی پایپ‌لاین‌های دریافت داده برای داده‌ دسته‌ای و استریمینگ
  • پیاده‌سازی گردش های کاری پاکسازی و تبدیل داده

ذخیره‌سازی و مدیریت داده

  • ذخیره‌سازی داده‌ پردازش‌شده در HDFS ،Hive یا سایر ذخیره‌گاه‌های داده
  • مدیریت پارتیشن‌ها و باکت‌های داده برای عملکرد

تحلیل داده و یادگیری ماشین

  • انجام تحلیل اکتشافی داده (EDA) بر روی داده‌ پردازش‌شده
  • ساخت و استقرار مدل‌های یادگیری ماشین

پردازش داده بلادرنگ

  • پیاده‌سازی پردازش داده بلادرنگ با Structured Streaming
  • یکپارچه‌سازی داده استریمینگ با مدل‌های یادگیری ماشین

تنظیم عملکرد و بهینه‌سازی

  • بهینه‌سازی کل پایپ‌لاین داده برای عملکرد
  • اطمینان از مقیاس‌پذیری و تحمل خطا

موارد استفاده صنعتی و آمادگی شغلی

  • موارد استفاده صنعتی اسپارک و PySpark
  • بحث در مورد کاربردهای دنیای واقعی اسپارک در صنایع مختلف
  • مطالعات موردی در مورد تحلیل کلان‌داده با استفاده از اسپارک

آمادگی برای مصاحبه و ساخت رزومه

  • آماده شدن برای مصاحبه‌های فنی در مورد اسپارک و PySpark
  • ساخت یک رزومه قوی با مهارت‌های کلان‌داده

آمادگی پروژه نهایی

  • ارائه پروژه پایانی برای رزومه و کمک به دستورالعمل‌ها

یادگیری اسپارک و PySpark مزایای متعددی هم برای مجموعه مهارت‌های شما و هم برای چشم‌انداز شغلی‌ شما دارد. با یادگیری اسپارک و PySpark، مهارت‌های ارزشمندی را به دست می‌آورید که در صنایع مختلف تقاضای بالایی دارند. این دانش می‌تواند به فرصت‌های شغلی هیجان‌انگیز، افزایش پتانسیل درآمد و توانایی مقابله با مشکلات چالش‌برانگیز داده در دنیای امروزی داده محور منجر شود.

مزایای یادگیری اسپارک و PySpark

  • مهارت با تقاضای بالا: اسپارک و PySpark از جمله پرتقاضاترین مهارت‌ها در صنعت کلان‌داده هستند. شرکت‌ها در بخش‌های مختلف به این فناوری‌ها برای پردازش و تحلیل داده‌ خود متکی هستند، که تقاضای زیادی برای متخصصان با تجربه در این زمینه ایجاد می‌کند.
  • افزایش پتانسیل درآمد: به دلیل تقاضای بالا و ماهیت تخصصی مهارت‌های اسپارک و PySpark، متخصصانی که در این فناوری‌ها مهارت دارند، اغلب حقوق بالاتری نسبت به کسانی که با ابزارهای پردازش داده سنتی کار می‌کنند، دریافت می‌کنند.
  • پیشرفت شغلی: تسلط به اسپارک و PySpark می‌تواند درها را به روی فرصت‌های پیشرفت شغلی مختلفی باز کند، مانند تبدیل شدن به مهندس داده، توسعه‌دهنده کلان‌داده، دانشمند داده یا مهندس یادگیری ماشین
  • قابلیت‌های پیشرفته پردازش داده: اسپارک و PySpark به شما امکان می‌دهند مجموعه‌های داده عظیم را به طور کارآمد پردازش کنید، که شما را قادر می‌سازد با چالش‌های پیچیده داده مقابله کرده و بینش‌های ارزشمندی را استخراج کنید که با ابزارهای سنتی غیرممکن خواهد بود.
  • بهبود کارایی و بهره‌وری: پردازش در حافظه اسپارک و موتور اجرایی بهینه‌شده آن، تسک های پردازش داده را به طور قابل توجهی سرعت می‌بخشد و منجر به بهبود کارایی و بهره‌وری در کار شما می‌شود.
  • تطبیق‌پذیری و انعطاف‌پذیری: اسپارک و PySpark می‌توانند تسک های مختلف پردازش داده، از جمله پردازش دسته‌ای، استریمینگ بلادرنگ، یادگیری ماشین و پردازش گراف را انجام دهند، که شما را به یک متخصص داده همه‌کاره تبدیل می‌کند.
  • پشتیبانی قوی جامعه: اسپارک و PySpark دارای جوامع بزرگ و فعالی هستند که منابع، آموزش‌ها و پشتیبانی فراوانی را برای کمک به یادگیری و رشد شما فراهم می‌کنند.

دامنه شغلی

  • مهندس داده: طراحی، ساخت و نگهداری زیرساخت‌ها برای جمع‌آوری، ذخیره‌سازی و پردازش مجموعه‌های داده بزرگ با استفاده از اسپارک و PySpark
  • توسعه‌دهنده کلان‌داده: توسعه و استقرار اپلیکیشن های اسپارک برای پردازش و تحلیل داده‌ برای نیازهای مختلف کسب‌وکار
  • دانشمند داده: استفاده از PySpark برای انجام تحلیل داده، یادگیری ماشین و مدل‌سازی آماری بر روی مجموعه‌های داده بزرگ
  • مهندس یادگیری ماشین: ساخت و استقرار مدل‌های یادگیری ماشین با استفاده از PySpark برای تسک هایی مانند طبقه‌بندی، پیش‌بینی و توصیه
  • تحلیلگر داده: تحلیل مجموعه‌های داده بزرگ با استفاده از PySpark برای شناسایی روندها، الگوها و بینش‌هایی که می‌توانند تصمیمات کسب‌وکار را هدایت کنند.
  • تحلیلگر هوش تجاری: استفاده از اسپارک و PySpark برای استخراج و تحلیل داده از منابع مختلف به منظور تولید گزارش‌ها و داشبوردهای هوش تجاری

این دوره برای چه کسانی مناسب است؟

  • مهندسان داده: متخصصانی که به دنبال ساخت پایپ‌لاین‌های کلان‌داده مقیاس‌پذیر با استفاده از Apache Spark و PySpark هستند.
  • مهندسان یادگیری ماشین: مهندسانی که قصد دارند فریمورک‌های کلان‌داده را در گردش‌کارهای یادگیری ماشین برای آموزش و پیش‌بینی مدل توزیع‌شده یکپارچه کنند.
  • هر کسی که به دنبال شغلی در مهندسی داده، کلان‌داده، علم داده و یادگیری ماشین است.
  • دانشمندان داده: کسانی که به دنبال پردازش و تحلیل کارآمد مجموعه‌های داده بزرگ با استفاده از قابلیت‌های پیشرفته اسپارک هستند.
  • تازه‌کاران و مبتدیان علاقه‌مند به مهندسی داده، یادگیری ماشین، تحقیق در زمینه هوش مصنوعی و علم داده
  • توسعه‌دهندگان ETL: توسعه‌دهندگانی که علاقه‌مند به گذار از ابزارهای سنتی ETL به سیستم‌های مدرن و توزیع‌شده پردازش کلان‌داده هستند.
  • معماران راه‌حل: متخصصانی که راه‌حل‌های در سطح سازمانی را طراحی می‌کنند و به تخصص در فریمورک‌های مقیاس‌پذیر کلان‌داده نیاز دارند.
  • معماران داده: کارشناسانی که مسئول طراحی سیستم‌های داده هستند و می‌خواهند اسپارک را برای عملکرد و مقیاس‌پذیری در معماری خود بگنجانند.
  • مهندسان نرم‌افزار: توسعه‌دهندگانی که به سمت اپلیکیشن‌های داده‌محور یا نقش‌های مهندسی کلان‌داده حرکت می‌کنند.
  • متخصصان فناوری اطلاعات: افراد عمومی که به دنبال گسترش دانش خود در زمینه محاسبات توزیع‌شده و فریمورک‌های کلان‌داده هستند.
  • دانشجویان و فارغ‌التحصیلان جدید: مهندسان، دانشمندان یا تحلیلگران داده مشتاق با دانش برنامه‌نویسی اولیه، که مشتاق ورود به حوزه کلان‌داده هستند.
  • مدیران پایگاه داده: مدیران پایگاه داده که قصد دارند پردازش مدرن کلان‌داده را برای تکمیل تخصص پایگاه داده خود درک کنند.
  • مدیران فنی و معماران: رهبرانی که برای مدیریت مؤثر تیم‌ها و پروژه‌ها به درک اولیه از اسپارک و PySpark نیاز دارند.
  • مهندسان ابری: مهندسانی که گردش های کاری داده را در پلتفرم‌های ابری مانند AWS ،Azure یا Google Cloud توسعه می‌دهند.

مهندسی داده و کلان‌داده با Apache Spark و PySpark

  • معرفی فریمورک Spark و PySpark 45:31
  • Spark و کامپوننت های آن - قسمت 1 01:02:55
  • Spark و کامپوننت های آن - قسمت 2 01:03:31
  • مفاهیم پایتون برای کلان‌داده - انواع داده و ساختارهای داده - قسمت 1 56:13
  • مفاهیم پایتون برای کلان‌داده - انواع داده و ساختارهای داده - قسمت 2 58:20
  • مفاهیم پایتون برای کلان‌داده - انواع داده و ساختارهای داده - قسمت 3 01:03:36
  • ساختار کنترل شرطی، حلقه‌ها، دستورات، Comprehensions - قسمت 1 01:17:16
  • ساختار کنترل شرطی، حلقه‌ها، دستورات، Comprehensions - قسمت 2 01:11:39
  • توابع، Maps و Filters ،Reduce، عبارت‌های Lambda - قسمت 1 01:22:19
  • توابع، Maps و Filters ،Reduce، عبارت‌های Lambda - قسمت 2 01:12:50
  • توابع، Maps و Filters ،Reduce، عبارت‌های Lambda - قسمت 3 01:24:50
  • ماژول‌ها و پکیج‌ها، متدها و ویژگی‌های آن‌ها - قسمت 1 58:53
  • ماژول‌ها و پکیج‌ها، متدها و ویژگی‌های آن‌ها - قسمت 2 52:15
  • ماژول‌ها و پکیج‌ها، متدها و ویژگی‌های آن‌ها - قسمت 3 01:16:08
  • تحلیل داده با NumPy و Pandas - قسمت 1 38:01
  • تحلیل داده با NumPy و Pandas - قسمت 2 59:23
  • تحلیل داده با NumPy و Pandas - قسمت 3 36:40
  • تحلیل داده با NumPy و Pandas - قسمت 4 01:17:12
  • تحلیل داده با NumPy و Pandas - قسمت 5 01:04:29
  • پاکسازی و پیش‌پردازش داده 01:07:07
  • مصورسازی با Matplotlib و Seaborn - قسمت 1 01:13:16
  • مصورسازی با Matplotlib و Seaborn - قسمت 2 31:04
  • مصورسازی با Matplotlib و Seaborn - قسمت 3 01:01:08
  • یادگیری ماشین و ساخت مدل‌های یادگیری ماشین - قسمت 1 34:25
  • یادگیری ماشین و ساخت مدل‌های یادگیری ماشین - قسمت 2 49:03
  • یادگیری ماشین و ساخت مدل‌های یادگیری ماشین - قسمت 3 42:32
  • یادگیری ماشین و ساخت مدل‌های یادگیری ماشین - قسمت 4 42:54
  • مطالعه موردی در حوزه آموزش 55:35
  • معماری، چارچوب و گردش کار پردازش PySpark 01:05:11
  • PySpark DataFrames با عملیات‌های مختلف - قسمت 1 01:14:49
  • PySpark DataFrames با عملیات‌های مختلف - قسمت 2 42:30
  • PySpark DataFrames با عملیات‌های مختلف - قسمت 3 01:06:48
  • PySpark DataFrames با عملیات‌های مختلف - قسمت 4 34:14
  • PySpark DataFrames با عملیات‌های مختلف - قسمت 5 40:34
  • PySpark DataFrames با عملیات‌های مختلف - قسمت 6 49:25
  • عملیات PySpark RDD و SQL DataFrame 41:48
  • پاکسازی داده و پروفایلینگ داده در PySpark 01:03:18
  • مدیریت داده با PySpark مختص حوزه خاص 24:00
  • عملیات داده PySpark برای حوزه منابع انسانی - نگاشت JSON 41:54
  • عملیات داده PySpark برای حوزه منابع انسانی - عبارات شرطی 01:19:38
  • مصورسازی داده با PySpark 01:01:22
  • PySpark MLlib برای یادگیری ماشین 56:19
  • PySpark MLlib با منابع داده عمومی 35:13
  • PySpark MLlib با یادگیری ماشین نظارت شده و نظارت نشده 01:02:30
  • کامپوننت PySpark GraphX با عملیات GraphFrames 47:14
  • کامپوننت Spark Streaming و قابلیت‌های آن در PySpark - قسمت 1 54:34
  • کامپوننت Spark Streaming و قابلیت‌های آن در PySpark - قسمت 2 49:28
  • کامپوننت Spark Streaming با فایل‌های متعدد در یک دایرکتوری 47:25
  • پروژه End-to-end PySpark با کامپوننت های اسپارک در کلان‌داده 54:29
  • آزمون پایان دوره None

18,110,500 3,622,100 تومان

مشخصات آموزش

مهندسی داده و کلان‌داده با Apache Spark و PySpark

  • تاریخ به روز رسانی: 1404/06/21
  • سطح دوره:همه سطوح
  • تعداد درس:50
  • مدت زمان :45:51:48
  • حجم :19.88GB
  • زبان:دوبله زبان فارسی
  • دوره آموزشی:AI Academy

آموزش های مرتبط

The Great Courses
2,067,000 413,400 تومان
  • زمان: 05:14:59
  • تعداد درس: 30
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,428,500 285,700 تومان
  • زمان: 03:37:21
  • تعداد درس: 57
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
2,165,500 433,100 تومان
  • زمان: 05:29:46
  • تعداد درس: 50
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,362,500 272,500 تومان
  • زمان: 03:27:39
  • تعداد درس: 60
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
490,000 98,000 تومان
  • زمان: 45:15
  • تعداد درس: 18
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
7,577,000 1,515,400 تومان
  • زمان: 19:11:34
  • تعداد درس: 203
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
490,000 98,000 تومان
  • زمان: 50:18
  • تعداد درس: 18
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
796,500 159,300 تومان
  • زمان: 02:01:30
  • تعداد درس: 32
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
7,261,000 1,452,200 تومان
  • زمان: 18:23:18
  • تعداد درس: 103
  • سطح دوره:
  • زبان: دوبله فارسی

آیا سوالی دارید؟

ما به شما کمک خواهیم کرد تا شغل و رشد خود را افزایش دهید.
امروز با ما تماس بگیرید