ریاضی 0-1 - احتمال برای علم داده و یادگیری ماشین
✅ سرفصل و جزئیات آموزش
این دوره یک راهنمای معمولی برای هوش مصنوعی، یادگیری عمیق و برنامه نویسان پایتون است.
آنچه یاد خواهید گرفت
- احتمال شرطی، استقلال و قانون بیز
- استفاده از نمودارهای ون و درخت های احتمال برای مصورسازی مشکلات احتمال
- متغیرها و توزیع های تصادفی گسسته - برنولی، دسته ای، دو جمله ای، هندسی و پواسون
- متغیرها و توزیع های تصادفی پیوسته - یکنواخت، نمایی، نرمال (گاوسی)، لاپلاس، گاما و بتا
- توابع توزیع تجمعی (CDF)، توابع جرم احتمال (PMF) و توابع چگالی احتمال (PDF)
- توزیع های مشترک، حاشیه ای و مشروط
- توزیع های چند متغیره و بردارهای تصادفی
- توابع متغیرهای تصادفی، مجموع متغیرهای تصادفی و کانولوشن
- مقادیر مورد انتظار، امید ریاضی، میانگین و واریانس
- چولگی، کشیدگی و گشتاورها
- کوواریانس و همبستگی، ماتریس کوواریانس و ماتریس همبستگی
- توابع مولد گشتاور (MGF) و توابع مشخصه
- نامعادلات کلیدی مانند مارکوف، چبیشف، کوشی-شوارتز، جنسن
- همگرایی در احتمال، همگرایی در توزیع، همگرایی تقریباً مطمئن
- قانون اعداد بزرگ و قضیه حد مرکزی (CLT)
- کاربردهای احتمال در یادگیری ماشین، علم داده و یادگیری تقویتی
پیش نیازهای دوره
- حساب دیفرانسیل و انتگرال در سطح کالج و دانشگاه (برای اکثر بخش های دوره)
- جبر خطی در سطح کالج و دانشگاه (برای برخی از بخش های دوره)
توضیحات دوره
احتمال یکی از مهم ترین پیش نیازهای ریاضی برای علم داده و یادگیری ماشین است. لازم است اساساً هر کاری را که انجام می دهیم، از جدیدترین LLMs مانند ChatGPT، مدل های انتشار مانند استیبل دیفیوژن و Midjourney، تا آمار (چیزی که مدرس دوست دارد آن را «بخش احتمال 2» بنامد) درک کنیم.
زنجیره های مارکوف، یک مفهوم مهم در احتمال، اساس مدل های محبوبی مانند مدل پنهان مارکوف (با کاربرد در تشخیص گفتار، تحلیل DNA و معاملات سهام) و فرآیند تصمیم گیری مارکوف یا MDP (اساس یادگیری تقویتی) را تشکیل می دهند.
یادگیری ماشین (یادگیری آماری) خود یک پایه احتمالی دارد. مدل های خاص مانند رگرسیون خطی، خوشه بندی K-Means، تحلیل مؤلفه اصلی و شبکه های عصبی، همگی از احتمال استفاده می کنند.
به طور خلاصه، از احتمال نمی توان اجتناب کرد.
اگر می خواهید یادگیری ماشین را فراتر از کپی کد کتابخانه از وبلاگ ها و آموزش ها انجام دهید، باید احتمال آن را بدانید.
این دوره همه مطالبی را که در کلاس احتمال در سطح کارشناسی یاد می گیرید (و شاید کمی بیشتر) را پوشش می دهد. دوره شامل متغیرهای تصادفی و بردارهای تصادفی، توزیع های احتمال گسسته و پیوسته، توابع متغیرهای تصادفی، توزیع های چند متغیره، امید ریاضی، توابع مولد، قانون اعداد بزرگ و قضیه حد مرکزی است.
مهمترین قضایا از ابتدا استخراج خواهند شد. نگران نباشید، تا زمانی که پیش نیازها را برآورده کنید، درک آن ها دشوار نخواهد بود. این امر تضمین می کند که شما قوی ترین پایه ممکن را در این موضوع دارید. دیگر به خاطر سپردن «قوانین» فقط برای اعمال نادرست و نامناسب آن ها در آینده وجود ندارد. این دوره به شما درک عمیقی از احتمال ارائه می دهد تا بتوانید آن را به درستی و موثر در علم داده، یادگیری ماشین و فراتر از آن به کار ببرید.
پیش نیازهای پیشنهادی:
- حساب دیفرانسیل، حساب انتگرال و حساب برداری
- جبر خطی
- آشنایی عمومی با ریاضیات سطح دانشگاه و کالج
این دوره برای چه کسانی مناسب است؟
- توسعه دهندگان پایتون و توسعه دهندگان نرم افزار که در مورد علم داده کنجکاو هستند.
- افراد حرفه ای علاقه مند به یادگیری ماشین و علم داده که ریاضیات در سطح دانشگاهی را مطالعه نکرده اند.
- دانشجویانی که به ML و AI علاقه مند هستند اما متوجه شده اند که نمی توانند با ریاضیات همگام باشند.
- دانشجویان سابق STEM که می خواهند قبل از یادگیری در مورد هوش مصنوعی، احتمالات را بررسی کنند.
ریاضی 0-1 - احتمال برای علم داده و یادگیری ماشین
-
مقدمه 05:01
-
مباحث دوره 07:50
-
چگونه در این دوره موفق شویم؟ 08:45
-
احتمال چیست؟ 09:40
-
تعریف اشتباه احتمال (اشتباه رایج) 09:08
-
تعریف اشتباه از احتمال (مثال) 04:36
-
مدل های احتمال 12:41
-
نمودارهای ون 12:20
-
ویژگی های مدل های احتمال 06:27
-
مثال اتحاد 04:10
-
قانون احتمال کل 07:56
-
احتمال شرطی 12:56
-
قانون بیز 07:30
-
مثال قانون بیز 17:58
-
استقلال 15:00
-
مثال استقلال متقابل 04:22
-
نمودارهای درخت احتمال 14:39
-
متغیر تصادفی چیست؟ 08:23
-
توزیع برنولی 20:14
-
توزیع دسته ای 09:36
-
توزیع دو جمله ای 16:14
-
توزیع هندسی 10:10
-
توزیع پواسون 12:46
-
متغیرهای تصادفی پیوسته و توزیع های پیوسته 17:24
-
قیاس فیزیک 05:06
-
اطلاعات بیشتر درباره توزیع های پیوسته 07:13
-
توزیع یکنواخت 10:03
-
توزیع نمایی 07:56
-
توزیع نرمال (توزیع گاوسی) 14:21
-
توزیع لاپلاس (دوگانه نمایی) 10:43
-
تابع توزیع تجمعی (CDF) 12:49
-
تمرین - CDF توزیع هندسی 05:19
-
CDF برای متغیرهای تصادفی پیوسته 12:43
-
تمرین - CDF توزیع نرمال 06:02
-
تغییر متغیرها (توابع متغیرهای تصادفی) - بخش 1 12:10
-
تغییر متغیرها (توابع متغیرهای تصادفی) - بخش 2 20:28
-
توزیع مشترک و حاشیه ای - بخش 1 11:09
-
توزیع مشترک و حاشیه ای - بخش 2 15:49
-
تمرین - حاشیه نرمال دو متغیره 14:50
-
توزیع های شرطی و قانون بیز 19:48
-
استقلال 16:02
-
تمرین - نرمال دو متغیره با همبستگی صفر 04:20
-
توزیع های چند متغیره و بردارهای تصادفی 14:05
-
توزیع نرمال چند متغیره و بردار گاوسی 13:35
-
توزیع چندجمله ای 12:42
-
تمرین - MVN به دو متغیره نرمال 11:38
-
تمرین - نرمال چند متغیره، همبستگی صفر دلالت بر استقلال دارد 09:40
-
تغییر چند بعدی متغیرها (گسسته) 15:05
-
تغییر چند بعدی متغیرها (پیوسته) 25:32
-
کانولوشن از افزودن متغیرهای تصادفی 10:39
-
تمرین - مجموع متغیرهای تصادفی نرمال مشترک (اختیاری) 48:51
-
مقادیر مورد انتظار و میانگین 18:07
-
ویژگی های مقادیر مورد انتظار 14:56
-
واریانس 15:12
-
تمرین - میانگین و واریانس برنولی 05:12
-
تمرین - میانگین و واریانس پواسون 07:33
-
تمرین - میانگین و واریانس نرمال 16:33
-
تمرین - میانگین و واریانس نمایی 09:45
-
گشتاورها، چولگی و کشیدگی 14:49
-
تمرین - کشیدگی در توزیع نرمال 07:10
-
کوواریانس و همبستگی 21:56
-
تمرین - کوواریانس و همبستگی دو متغیره نرمال 18:05
-
تمرین - همبستگی صفر به معنای استقلال نیست 04:31
-
تمرین - همبستگی روابط خطی را اندازه می گیرد 08:39
-
امید ریاضی شرطی - بخش 1 13:16
-
امید ریاضی شرطی - بخش 2 13:27
-
قانون امید ریاضی کل 04:52
-
تمرین - ترکیب خطی از نرمال ها 08:48
-
تمرین - میانگین و واریانس مجموع وزنی 06:31
-
توابع مولد گشتاور (MGF) 09:32
-
تمرین - توابع مولد گشتاور نمایی 06:00
-
تمرین - توابع مولد گشتاور نرمال 11:26
-
توابع مشخصه 13:57
-
تمرین - توابع مولد گشتاور وجود ندارد 05:12
-
تمرین - تابع مشخصه نرمال 05:52
-
مجموع متغیرهای تصادفی مستقل 07:26
-
تمرین - توزیع مجموع متغیرهای تصادفی پواسون 06:41
-
تمرین - توزیع مجموع متغیرهای تصادفی هندسی 09:04
-
تابع مولد گشتاور برای بردارهای تصادفی 15:57
-
توابع مشخصه برای بردارهای تصادفی 01:41
-
تمرین - جمع وزنی از نرمال ها 14:10
-
تابع یکنوا 05:19
-
نامعادله مارکوف 09:15
-
نامعادله چبیشف 06:29
-
نامعادله کوشی-شوارتز 12:53
-
همگرایی در احتمال 04:39
-
قانون ضعیف اعداد بزرگ 13:31
-
همگرایی با احتمال - بخش 1 (همگرایی تقریباً مطمئن) 04:53
-
قانون قوی اعداد بزرگ 03:17
-
کاربرد - بازبینی دیدگاه مکرر 05:40
-
همگرایی در توزیع 05:26
-
قضیه حد مرکزی 17:02
-
توزیع گاما 11:04
-
توزیع بتا 10:24
مشخصات آموزش
ریاضی 0-1 - احتمال برای علم داده و یادگیری ماشین
- تاریخ به روز رسانی: 1404/06/14
- سطح دوره:همه سطوح
- تعداد درس:94
- مدت زمان :19:58:33
- حجم :7.62GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy