خوشهبندی و کاهش ابعاد - بررسی عمیق
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- تسلط به خوشهبندی و کاهش ابعاد در پایتون
- خوشهبندی مبتنی بر k-means (k-means و k-modes و k-prototypes)
- خوشهبندی سلسلهمراتبی (خوشهبندی تجمعی)
- نسبهای خوشهبندی تجمعی - حداقل، حداکثر، میانگین و Wald
- خوشهبندی مبتنی بر چگالی (DBSCAN و HDBSCAN)
- اعتبارسنجی خوشهبندی مبتنی بر چگالی (DBCV)
- خوشهبندی مبتنی بر گراف (الگوریتم Louvain)
- کاهش ابعاد (PCA و UMAP)
- مزایا و معایب الگوریتمها
- راهنماییهای عمومی برای الگوریتمها
- رویکردهای مختلف برای پیشپردازش داده برای خوشهبندی و کاهش ابعاد
- متریکهایی برای تحلیل کیفیت خوشه
- مقایسه خوشهبندیهای داده
- تحلیل ویژگیهای خوشه
- استفاده همزمان از خوشهبندی و کاهش ابعاد
- خوشهبندی داده عددی، دستهای و گرافی
- اعمال الگوریتمهای خوشهبندی و کاهش ابعاد روی مجموعه دادههای پیچیده
- پیشنیازهای لازم در پایتون
توضیحات دوره
به دوره عمیق یادگیری ماشین نظارت نشده خوش آمدید که یکی از جنبههای اساسی در حوزه علم داده است. یادگیری ماشین نظارت نشده بسیار مهم است، زیرا به ما اجازه میدهد الگوها و ساختارهای پنهان در داده را بدون نیاز به مثالهای برچسبگذاری شده پیدا کنیم. این روش نه تنها مفید است، بلکه در مواقعی که برچسبگذاری داده غیرعملی یا غیرممکن است، اغلب ضروری است.
در این دوره، تمرکز ما روی دو تکنیک تاثیرگذار در یادگیری نظارت نشده خواهد بود که خوشهبندی و کاهش ابعاد نام دارند. خوشهبندی به ما کمک میکند تا نقاط داده مشابه را بر اساس ویژگیهایشان گروهبندی کرده و الگوهای نهفته در یک مجموعه داده را کشف کنیم. از سوی دیگر، کاهش ابعاد، مجموعه دادههای پیچیده را ساده کرده و کار با آنها را آسانتر و قابل درکتر میکند. تسلط به این تکنیکها، کلید استخراج بینشهای حیاتی از داده است که مهارت مهمی در زمینه علم داده میباشد.
خوشهبندی و کاهش ابعاد کاربردهای وسیعی در بخشهای مختلف دارند. در بازاریابی، این تکنیکها به کسب بینشهای عمیقتر درباره مشتریان و بخشبندی بازار کمک میکنند. متخصصان مراقبتهای بهداشتی از آنها برای تحلیل داده بیماران و شناسایی الگوها در بیماریها استفاده میکنند. در بخش مالی، این تکنیکها برای تحلیل ریسک و شناسایی فعالیتهای تقلبی حیاتی هستند. این روشها همچنین در بیوانفورماتیک برای تفسیر اطلاعات ژنتیکی به کار میروند. در تجارت الکترونیک، این روشها سیستمهای توصیه محصول را بهبود میبخشند و در تحلیل شبکههای اجتماعی به درک الگوهای جامعه کمک میکنند. همچنین، در برنامهریزی شهری برای تحلیل ترافیک مورد استفاده قرار میگیرند. فراتر از اینها، کاربردهای زیادی در صنایع مختلف وجود دارد.
هدف دوره، تحلیل عمیق الگوریتمهای یادگیری ماشین نظارت نشده است. ما این الگوریتمها را بررسی کرده و نحوه عملکرد داخلی، بهترین شیوهها و محدودیتهای آنها را توضیح خواهیم داد. این درک عمیق نه تنها از طریق تئوری، بلکه با پیادهسازی خود الگوریتمها به دست میآید.
این دوره پر از نمایشهای عملی و مطالعات موردی مختلف است که مفاهیم را واضح و قابل درک میسازد. هر مطالعه موردی برای تقویت یک بخش خاص از یادگیری نظارت نشده طراحی شده است. علاوه بر این، دوره شامل یک مطالعه موردی جامع است که در آن این روشها را با استفاده از پروفایلهای RNA برای گروهبندی سلولها، روی یک مجموعه داده واقعی پیچیده اعمال میکنیم. این مطالعه موردی نمونه خوبی است از اینکه چگونه این تکنیکها میتوانند به طور مؤثری برای استخراج بینشها از داده پیچیده استفاده شوند.
در پایان دوره، شما درک جامعی از یادگیری ماشین نظارت نشده خواهید داشت و با دانش و مهارتهای لازم برای اعمال این تکنیکها در پروژههای خود مجهز خواهید شد. چه شما دانشمند داده باشید که به دنبال گسترش مهارتهای خود است، یا یک یادگیرنده کنجکاو که به مکانیزمهای یادگیری ماشین علاقهمند است، این دوره چیزی برای ارائه به شما دارد.
این دوره برای چه کسانی مناسب است؟
- حرفهایهای مبتدی و مشتاق داده که میخواهند با یادگیری ماشین نظارت نشده آشنا شوند.
- حرفهایهای سطح متوسط و پیشرفته در داده که میخواهند دانش خود را در زمینه یادگیری ماشین نظارت نشده بهبود بخشند.
خوشهبندی و کاهش ابعاد - بررسی عمیق
-
مقدمه 00:33
-
یادگیری ماشین نظارت نشده 04:58
-
محتوای دوره 04:39
-
نکات یادگیری 04:06
-
بررسی Jupyter notebook 04:45
-
دستور کار این فصل 01:14
-
بخش 1 - تایپهای داده اولیه پایتون 01:15
-
تایپهای داده عددی 04:59
-
تایپ داده بولی 08:48
-
تایپ داده رشته 04:41
-
لیستهای پایتون - بخش 1 09:15
-
لیستهای پایتون - بخش 2 11:42
-
مجموعهها و تاپلها 06:12
-
دیکشنریها و "None" 06:28
-
حقیقتسنجی 03:33
-
بخش 2 - قابلیتهای اولیه پایتون 00:56
-
کپی در پایتون - کپی عمیق و سطحی 08:24
-
آنپک کردن تایپهای داده تکرارپذیر 04:30
-
توابع پایتون، args* و kwargs** 11:28
-
دمو - توابع پایتون 09:22
-
توابع لامبدا، اسکوپها و دکوراتورها 11:31
-
کلاسهای پایتون 08:48
-
دمو - کلاسهای پایتون 10:18
-
حلقههای while و دستورات کنترل حلقه 05:04
-
Comprehensions در پایتون 12:27
-
خلاصه فصل 00:42
-
دستور کار این فصل 00:49
-
بخش 1 - Numpy 03:34
-
ایندکسگذاری و اسلایس کردن در numpy 12:22
-
دمو - ایندکسگذاری و اسلایس کردن در numpy 10:52
-
عملیاتها روی آرایههای تک numpy 09:53
-
دمو - عملیاتها روی آرایههای تک numpy 04:17
-
عملیاتها بین آرایههای numpy و برودکستینگ 07:11
-
دمو - عملیاتها بین آرایههای numpy و برودکستینگ 02:25
-
ادغام آرایههای numpy 04:27
-
تایپهای داده در numpy 03:10
-
عملیاتهای ماتریس در numpy 01:49
-
بخش 2 - pandas 04:55
-
ایندکسگذاری و اسلایس کردن در pandas 09:09
-
ایجاد دیتافریمها 06:28
-
دمو - ایندکسگذاری و اسلایس کردن در pandas 08:54
-
عملیاتها روی سریها و دیتافریمهای تک 12:51
-
دمو - عملیاتها روی سریها و دیتافریمهای تک 04:07
-
عملیاتها بین سریها و دیتافریمها 09:53
-
دمو - عملیاتها بین سریها و دیتافریمها 05:15
-
سایر قابلیتهای مفید pandas 08:25
-
تایپهای داده در pandas 04:14
-
دمو - تایپهای داده در pandas 02:18
-
دستور group by در pandas 04:19
-
دمو - دستور group by در pandas 04:09
-
بخش 3 - مصورسازیهای داده 07:18
-
مبانی Matplotlib 06:53
-
مبانی Seaborn 04:40
-
خلاصه فصل 00:47
-
دستور کار این فصل 02:32
-
الگوریتم خوشهبندی K-means 11:55
-
اجتناب از راهحلهای غیربهینه 08:06
-
دمو - پیادهسازی الگوریتم خوشهبندی k-means از ابتدا - بخش 1 13:23
-
دمو - پیادهسازی الگوریتم خوشهبندی k-means از ابتدا - بخش 2 08:13
-
K-means در sklearn 08:00
-
پیشپردازش داده برای K-means 13:09
-
شاخص رند اصلاح شده 16:09
-
دمو - پیشپردازش داده، K-means و شاخص رند اصلاح شده 09:16
-
استنباط تعداد خوشهها با متد زانوی اینرسی 12:01
-
امتیازات سیلوئت (استنتاج تعداد خوشهها و تحلیل کیفیت خوشهها) 14:31
-
دمو - متد زانوی اینرسی و امتیازات سیلوئت - بخش 1 13:21
-
دمو - متد زانوی اینرسی و امتیازات سیلوئت - بخش 2 08:05
-
خلاصه فصل 01:55
-
دستور کار این فصل 01:31
-
سیستمهای مختصات ویژگی 03:45
-
PCA و سیستمهای مختصات ویژگی 16:13
-
شهود پشت PCA 12:45
-
PCA به عنوان تبدیل خطی داده - مقدمه 01:25
-
تبدیلات خطی 11:59
-
بردارهای ویژه و مقادیر ویژه 06:33
-
تغییر مبنا 13:04
-
واریانس و کوواریانس 12:30
-
PCA از منظر تجزیه و تحلیل ویژه 15:19
-
PCA برای کاهش ابعاد 21:19
-
دمو - انجام PCA با استفاده از تجزیه ویژه 11:31
-
PCA در Sklearn 12:34
-
دمو - PCA در sklearn (داده مصنوعی) 04:54
-
دمو - PCA در sklearn (داده واقعی) 10:04
-
راهنمای انتخاب تعداد مؤلفههای اصلی 06:30
-
دمو - انتخاب تعداد مؤلفههای اصلی 09:43
-
خلاصه فصل 01:09
-
دستور کار این فصل 01:19
-
مبانی نظریه گراف 09:05
-
مقدمه UMAP 11:00
-
مبانی مجموعه فازی 04:59
-
گرادیان کاهشی و گرادیان کاهشی تصادفی 17:48
-
ماتریسهای پراکنده با SciPy 12:31
-
نظریه UMAP - بخش 1 26:38
-
دمو - پیادهسازی UMAP از ابتدا - بخش 1 20:08
-
نظریه UMAP - بخش 2 27:50
-
تسریع کد پایتون با numba 04:29
-
دمو - پیادهسازی UMAP از ابتدا - بخش 2 14:54
-
پکیج پایتون UMAP (umap-learn) 06:10
-
دمو - اجرای UMAP با پکیج پایتون umap-learn 05:24
-
تیونینگ پارامترهای UMAP 07:40
-
دمو - تیونینگ پارامترهای UMAP 05:53
-
هشدارهای UMAP 12:51
-
دمو - هشدارهای UMAP 03:59
-
خلاصه فصل 01:08
-
دستور کار این فصل 03:10
-
کتابخانه پایتون Yellowbrick 06:18
-
کاراکترسازی خوشهها با استفاده از مصورسازیهای داده 03:15
-
دمو - K-means و Yellowbrick و کاراکترسازی خوشهها 16:55
-
پردازش و انکودینگ ویژگیهای دستهای 10:22
-
انکودینگ داده دستهای در پایتون 12:04
-
اندازهگیری فاصله در داده دستهای 04:19
-
اندازههای فاصله و متریکهای فاصله 04:02
-
محاسبه فاصله با SciPy و انتخاب اندازههای فاصله در الگوریتمهای دیگر 09:05
-
دمو - محاسبه فاصلهها با SciPy و sklearn (اعمال روی داده دستهای) 05:28
-
الگوریتم خوشهبندی K-modes 10:24
-
پکیج پایتون K-modes 05:10
-
دمو - خوشهبندی داده دستهای با استفاده از الگوریتم K-means 08:41
-
دمو - خوشهبندی داده دستهای با استفاده از الگوریتم K-modes 14:04
-
داده ترکیبی و فاصله گوور 10:23
-
الگوریتم خوشهبندی K-prototypes 06:56
-
پکیج پایتون K-prototypes 03:47
-
دمو - پیشنیازهای خوشهبندی مشتریان 12:36
-
دمو - خوشهبندی مشتریان (داده ترکیبی) 31:46
-
مزایا و معایب الگوریتم K-means 05:42
-
دمو - محدودیتهای الگوریتم k-means 03:00
-
خلاصه فصل 01:21
-
مقدمه مطالعه موردی 01:46
-
درک داده - اصل مرکزی زیستشناسی مولکولی 08:21
-
درک داده - توالییابی RNA تک سلولی 04:22
-
تحلیل داده - حذف سلولهای کم کیفیت 13:06
-
تحلیل داده - نرمالسازی، انتخاب ژن، PCA ،UMAP و خوشهبندی 15:21
-
پیشنیاز دمو - مبانی آزمون آماری 14:45
-
دمو - تحلیل داده - بخش 1 13:30
-
دمو - تحلیل داده - بخش 2 16:15
-
خلاصه مطالعه موردی 02:11
-
دستور کار این فصل 02:23
-
مقدمه خوشهبندی سلسلهمراتبی و خوشهبندی تجمعی 06:47
-
نسب دندروگرام و ساخت دندروگرامها 16:16
-
فاصله کوفنتیکی و همبستگی کوفنتیکی 03:28
-
ساخت دندروگرامها با SciPy 05:50
-
دمو - ساخت دندروگرامها با SciPy 08:31
-
رویکردهایی برای استخراج خوشهها از دندروگرامها 12:36
-
خوشهبندی تجمعی با SciPy و sklearn 07:55
-
دمو - خوشهبندی تجمعی با SciPy و دستکاری دندروگرامها 18:01
-
دمو - خوشهبندی تجمعی با sklearn 06:20
-
راهنماییهای عمومی برای خوشهبندی تجمعی 08:53
-
دمو - خوشهبندی خودروها (داده عددی) 13:44
-
دمو - خوشهبندی حیوانات (داده دستهای) 06:21
-
دمو - خوشهبندی خودروها (داده ترکیبی) 13:01
-
خلاصه فصل 01:28
-
دستور کار این فصل 02:26
-
خوشهبندی مبتنی بر چگالی - مقدمه 03:42
-
الگوریتم خوشهبندی DBSCAN 15:31
-
مبانی نزدیکترین همسایهها 13:31
-
نزدیکترین همسایهها در sklearn 05:25
-
دمو - پیادهسازی DBSCAN از ابتدا 10:21
-
DBSCAN در sklearn 02:54
-
تیونینگ پارامترهای DBSCAN 10:40
-
دمو - تیونینگ پارامترهای DBSCAN 03:56
-
اعتبارسنجی خوشهبندی مبتنی بر چگالی (DBCV) - بخش 1 11:30
-
اعتبارسنجی خوشهبندی مبتنی بر چگالی (DBCV) - بخش 2 15:17
-
دمو - پیادهسازی DBCV از ابتدا - بخش 1 13:40
-
دمو - پیادهسازی DBCV از ابتدا - بخش 2 + تابع DBCV پایتون 05:47
-
راهنماییهای عمومی DBSCAN 04:49
-
دمو - خوشهبندی ارقام (mnist784) با DBSCAN 10:59
-
دمو - خوشهبندی حیوانات با DBSCAN (داده دستهای) 05:03
-
الگوریتم خوشهبندی HDBSCAN - بخش 1 06:22
-
الگوریتم خوشهبندی HDBSCAN - بخش 2 14:11
-
الگوریتم خوشهبندی HDBSCAN - بخش 3 03:14
-
کتابخانه پایتون HDBSCAN (hdbscan) 07:32
-
دمو - پیادهسازی HDBSCAN (پیادهسازی جزئی) 14:22
-
راهنماییهای عمومی HDBSCAN 07:07
-
دمو - خوشهبندی گلهای زنبق و ارقام (mnist784) با HDBSCAN 07:37
-
دمو - خوشهبندی حیوانات با HDBSCAN (داده دستهای) 02:29
-
اسکالر مقاوم (پیشنیاز دمو) 04:12
-
دمو - خوشهبندی تلفنها با HDBSCAN (داده ترکیبی) 07:33
-
مطالعه موردی - خوشهبندی جغرافیایی با DBSCAN و HDBSCAN - مقدمه 06:40
-
مطالعه موردی - خوشهبندی جغرافیایی با DBSCAN و HDBSCAN 14:33
-
خلاصه فصل 01:48
-
دستور کار این فصل 02:10
-
گرافها، طرحبندیهای گراف و کامیونیتیهای گراف 08:30
-
کتابخانه پایتون Igraph 01:16
-
دمو - قابلیتهای کتابخانه Igraph 11:58
-
ماژولاریته در ساختارهای کامیونیتیهای گراف 06:07
-
الگوریتم خوشهبندی Louvain 16:18
-
خوشهبندی Louvain - پارامتر رزولوشن 04:26
-
دمو - پیادهسازی Louvain از ابتدا 19:49
-
تحلیل کیفیت ساختار کامیونیتی 08:48
-
Igraph - سایر قابلیتهای مفید 07:22
-
دمو - متریکهای کیفیت کامیونیتی 12:15
-
مطالعه موردی - خوشهبندی بازیگران 15:46
-
استفاده از خوشهبندی گراف با داده عددی، دستهای و ترکیبی (گراف KNN) 10:13
-
گراف همسایگان مشترک (گراف SNN) 04:10
-
ایجاد گرافهای KNN ( نزدیکترین همسایهها) با sklearn 02:30
-
راهنمای خوشهبندی گراف 05:22
-
مزایا و معایب الگوریتم Louvain 03:01
-
دمو - خوشهبندی ارقام (mnist784) با الگوریتم Louvain 15:31
-
دمو - خوشهبندی حیوانات با الگوریتم Louvain (داده دستهای) 03:55
-
خلاصه فصل 01:09
-
دستور کار این فصل 00:40
-
مطالعه موردی RNA تک سلولی - بخش 2 11:03
-
خوشهبندی و کاهش ابعاد - خلاصه 11:18
-
پایان دوره 00:30
مشخصات آموزش
خوشهبندی و کاهش ابعاد - بررسی عمیق
- تاریخ به روز رسانی: 1404/06/21
- سطح دوره:همه سطوح
- تعداد درس:203
- مدت زمان :27:40:29
- حجم :10.42GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy