یادگیری تحت نظارت - روشهای سنتی
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- دانش عمیقی از یادگیری تحت نظارت کسب خواهید کرد.
- به طور جامع به مدلسازی پیشبینی میپردازیم.
- با مدلهای طبقهبندی، مدلهای یادگیری ماشین سطحی، مدلهای جمعی، مدلهای رگرسیون و تکنیک جعبه سیاه آشنا میشویم.
- همچنین با تقسیمبندیهای هر روش مدلسازی آشنا میشویم.
توضیحات دوره
دادهکاوی، یادگیری تحت نظارت و مدلهای سنتی یادگیری ماشین را بررسی کنید.
یادگیری تحت نظارت از تقسیمات فرعی ساخت مدل در CRISP-ML(Q) است.
این روش، نوعی مدلسازی پیشبینی است که شامل مدلهای طبقهبندی، مدلهای یادگیری ماشین سطحی، مدلهای جمعی، مدلهای رگرسیون و تکنیک جعبه سیاه میباشد. هر تکنیک مدلسازی، تقسیمبندیهای متعددی دارد.
ما به طور کامل احتمال، احتمال مشترک، قانون بیز و بیز ساده را با یک مورد استفاده بررسی میکنیم.
بیز ساده برای ویژگیهای عددی بزرگ مناسب نیست، چون این ویژگیها باید با فرآیند دستهبندی یا binning به ویژگیهای دستهای تبدیل شوند.
این الگوریتم امکان حذف ورودیهای مقدار گمشده را فراهم میکند. فرض میکند که کلاسها مستقل از هم هستند.
احتمال برای کلمات جدید دیده نشده در داده آموزش صفر است که باعث صفر شدن کل محاسبه میشود.
برای مقابله با این مشکل از Laplace Estimator استفاده میکنیم. این الگوریتم توسط ریاضیدان فرانسوی Pierre-Simon Laplace ساخته شده است.
مقدار پیشفرض Laplace estimator عدد 1 است، ولی میتوان هر مقداری را به کار برد.
سپس Nearest Neighbors با مقادیر 1، 2، 3 و 7 را بررسی میکنیم. کمترین مقدار k برابر 1 و بیشترین برابر تعداد مشاهدات است. k یک ابرپارامتر است. سپس میآموزیم مدل بیس لاین چیست که دقت آن برابر با کلاس اکثریت است و برای مدلهای پیشبینی دقت باید بالای 80 درصد باشد. به علاوه به مبادله بایاس و واریانس نیز میپردازیم.
در پایان کاربردها و اهمیت k-NN را بررسی میکنیم.
الگوریتم درخت تصمیمگیری، الگوریتم مبتنی بر قانون است. ابتدا میآموزیم درخت تصمیمگیری چیست، سپس نحوه ساخت آن و الگوریتم Greedy را بررسی میکنیم.
درخت تصمیمگیری ساختاری شبیه درخت دارد که هر گره داخلی نمایانگر یک ویژگی است، هر برنچ نتیجه بهترین انتخاب و هر گره برگ نمایانگر یک برچسب کلاس میباشد.
سپس رویکرد Greedy، آنتروپی و کسب اطلاعات را تحلیل میکنیم.
این دوره برای چه کسانی مناسب است؟
- افرادی که میخواهند در زمینه دادهکاوی پیشرفت کنند.
- متخصصانی که قصد بهبود دانش خود از CRISP-ML(Q) را دارند.
- از دانشجویان با هر پیشینه تحصیلی دعوت به شرکت در این برنامه میکنیم.
- دانشجویان مهندسی نیز میتوانند از این دوره برای تکمیل آموزش خود استفاده کنند.
یادگیری تحت نظارت - روشهای سنتی
-
معرفی مدرس 02:10
-
مقدمهای درباره موضوع 08:28
-
دستور کار و مراحل تحلیل 01:02
-
تحلیل تشخیصی چیست؟ 01:21
-
تحلیل پیشبینی چیست؟ 01:57
-
تحلیل تجویزی چیست؟ 11:41
-
CRISP-ML(Q) چیست؟ 03:08
-
درک کسبوکار - تعریف دامنه کاربرد 18:44
-
درک کسبوکار - تعریف معیار موفقیت 08:13
-
درک کسبوکار - موارد استفاده 09:59
-
آشنایی با درک داده 06:18
-
انواع داده - پیوسته در مقابل گسسته 11:18
-
داده دستهای در مقابل داده شمارشی 06:45
-
درک عملی داده با مثالهای بلادرنگ 11:15
-
مقیاس اندازهگیری 03:34
-
کمی در مقابل کیفی 05:04
-
داده ساختار یافته در مقابل داده بدون ساختار 13:04
-
توزیع متوازن در مقابل نامتوازن و رویدادهای نادر 15:36
-
داده دستهای (آفلاین) در مقابل داده لایو استریمینگ (آنلاین) 17:39
-
جمعآوری داده چیست؟ 04:12
-
درک منابع داده اولیه 22:15
-
درک منابع داده ثانویه 13:31
-
درک جمعآوری داده با نظرسنجی 06:46
-
درک جمعآوری داده با DoE 07:15
-
درک خطاهای احتمالی در مرحله جمعآوری داده 16:21
-
درک سوگیری و عدالت 05:17
-
آشنایی با آمادهسازی داده و دستور کار CRISP-ML(Q) 02:08
-
احتمال چیست؟ 05:33
-
متغیر تصادفی چیست؟ 12:00
-
درک احتمال و کاربردهای آن، بحث درباره احتمال 13:17
-
درک توزیع نرمال 15:42
-
آمار استنباطی چیست؟ 10:41
-
درک توزیع نرمال استاندارد و اینکه Z Scores چیست؟ 28:16
-
درک شاخصهای گرایش مرکزی (تصمیمگیری کسبوکار لحظه اول) 26:45
-
درک شاخصهای پراکندگی (تصمیمگیری کسبوکار لحظه دوم) 10:54
-
درک نمودار جعبهای (تفاوت صدک، چندک و چارک) 06:17
-
درک تکنیکهای گرافیکی - نمودار Q-Q 08:41
-
درک نمودار پراکندگی دو متغیره 32:18
-
نصب پایتون 06:07
-
نصب Anaconda 07:00
-
آشنایی با Anakonda Navigator ،Spyder و کتابخانههای پایتون 24:30
-
درک Jupyter و Google Colab 08:41
-
جمعبندی مفاهیم 04:07
-
درک پاکسازی داده و Typecasting 10:32
-
درک پاکسازی داده و Typecasting با پایتون 15:42
-
درک رسیدگی به داده تکراری 10:48
-
درک رسیدگی به داده تکراری با پایتون 25:26
-
درک درمان تحلیل داده پرت 18:06
-
درک درمان تحلیل داده پرت با پایتون 27:31
-
بررسی خوشهبندی و بخشبندی 15:19
-
فاصله بین خوشهها 22:18
-
فرآیند خوشهبندی سلسلهمراتبی 13:45
-
یادگیری خوشهبندی با پایتون 14:17
-
درباره کاهش ابعاد و کاربردهای آن 12:49
-
عناصر یک شبکه 05:10
-
درباره الگوریتم PageRank گوگل 05:18
-
معیارهای تشابه مبتنی بر شبکه 12:26
-
ویژگیهای مرتبط با شبکه 07:15
-
آشنایی با بیز ساده 12:21
-
مورد استفاده برای بیز ساده 09:29
-
آزمون None
-
آشنایی با K Nearest Neighbors (KNN) و کاربرد آن 18:48
-
آزمون None
-
درباره درخت تصمیمگیری و کاربرد آن 13:19
-
آزمون None
مشخصات آموزش
یادگیری تحت نظارت - روشهای سنتی
- تاریخ به روز رسانی: 1404/06/14
- سطح دوره:همه سطوح
- تعداد درس:65
- مدت زمان :12:06:29
- حجم :6.84GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy