دوره عملی Red Teaming برای هوش مصنوعی (LLM)
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- اصول مدلهای زبان بزرگ (LLM)
- Jailbreaking LLMs
- ده ریسک برتر OWASP برای LLM و GenAI
- Red Teaming عملی LLM با استفاده از ابزارها
- نوشتن پرامپتهای مخرب (مهندسی پرامپت خصمانه)
پیشنیازهای دوره
- مبانی برنامهنویسی پایتون
- مبانی امنیت سایبری
توضیحات دوره
هدف
این دوره، آموزش عملی در زمینه امنیت هوش مصنوعی با تمرکز بر Red Teaming برای مدلهای زبان بزرگ (LLM) ارائه میدهد. این دوره برای محققان امنیت سایبری تهاجمی، متخصصان هوش مصنوعی و مدیران تیمهای امنیت سایبری طراحی شده است. هدف از این آموزش، مجهز کردن شرکتکنندگان به مهارتهای زیر است:
- شناسایی و اکسپلویت از آسیبپذیریها در سیستمهای هوش مصنوعی برای اهداف اخلاقی
- دفاع از سیستمهای هوش مصنوعی در برابر حملات
- پیادهسازی حاکمیت هوش مصنوعی و اقدامات ایمنی در سازمانها
اهداف یادگیری
- درک ریسکها و آسیبپذیریهای GenAI
- بررسی چارچوبهای نظارتی مانند قانون هوش مصنوعی اتحادیه اروپا و استانداردهای ایمنی نوظهور هوش مصنوعی
- کسب مهارتهای عملی در تست و ایمنسازی سیستمهای LLM
ساختار دوره
مقدمهای بر Red Teaming هوش مصنوعی:
- معماری LLMها
- طبقهبندی ریسکهای LLM
- بررسی استراتژیها و ابزارهای Red Teaming
شکستن محدودیتهای LLMها:
- تکنیکهای jailbreaking LLMs
- تمرینات عملی برای تست آسیبپذیری
تزریق پرامپت:
- مبانی تزریق پرامپت و تفاوتهای آن با jailbreaking
- تکنیکهای انجام و جلوگیری از تزریق پرامپت
- تمرینات عملی با معماریهای RAG (تولید مبتنی بر بازیابی اطلاعات) و عامل
ده ریسک برتر OWASP برای LLMها:
- درک ریسکهای رایج
- دموهای آموزشی برای تقویت مفاهیم
- تمرینات هدایتشده Red Teaming برای تست و کاهش این ریسکها
ابزارها و منابع پیادهسازی:
- نوتبوکهای جوپیتر، قالبها و ابزارها برای Red Teaming
- طبقهبندی ابزارهای امنیتی برای پیادهسازی حفاظها و راهحلهای نظارتی
دستاوردهای کلیدی
- بهبود دانش: کسب تخصص در اصطلاحات، چارچوبها و تاکتیکهای امنیت هوش مصنوعی
- مهارتهای عملی: تجربه عملی در Red Teaming مدلهای LLM و کاهش ریسکها
- توسعه چارچوب: ساخت مدلهای بلوغ حاکمیت و امنیت هوش مصنوعی برای سازمان خود
مخاطبان دوره
این دوره برای افراد زیر ایدهآل است:
- محققان امنیت سایبری تهاجمی
- متخصصان هوش مصنوعی متمرکز بر دفاع و ایمنی
- مدیرانی که به دنبال ساخت و هدایت تیمهای امنیت هوش مصنوعی هستند.
این دوره برای چه کسانی مناسب است؟
متخصصان امنیت سایبری که میخواهند LLMها و عاملهای هوش مصنوعی را ایمنسازی کنند.
دوره عملی Red Teaming برای هوش مصنوعی (LLM)
-
مقدمه 11:48
-
راهاندازی آزمایشگاه 11:18
-
اجرای یک مدل Hugging Face None
-
Ollama - اجرای مدل در لپتاپ محلی شما 15:45
-
اجرای Garak روی مدلهای Ollama 10:12
-
خواندن نتایج Garak 13:07
-
تاریخچه حملات و شکستهای هوش مصنوعی 18:34
-
کلاسهای ریسک AI 02:01
-
Red Teaming هوش مصنوعی چیست؟ 17:16
-
دستهبندی حملات AI - بخش 1 09:13
-
دستهبندی حملات AI - بخش 2 18:51
-
تست خصمانه - دموی TextAttack 20:58
-
نتایج TextAttack 08:35
-
تست خصمانه - دموی Jailbreaking 10:29
-
تاریخچه LLMها، مشکلات NLP و توکنسازی 20:14
-
تعبیه و Self-Attention 10:01
-
معماری ترنسفورمر 18:32
-
مقایسه LLMهای مختلف 07:24
-
مقدمهای بر تزریق پرامپت 12:36
-
ساختار داخلی پرامپت 15:42
-
مثالهای واقعی از تزریق پرامپت 11:50
-
ساختن یک پرامپت برای تزریق پرامپت 24:16
-
امتحان تزریق پرامپت روی Pokebot 11:01
-
تکنیکهای اولیه تزریق پرامپت 25:19
-
امتحان تزریق پرامپت روی Medusa 11:40
-
تکنیکهای متوسط تزریق پرامپت 18:41
-
ده ریسک برتر OWASP برای اپلیکیشنهای LLM 01:01:25
-
مقدمهای بر مدلهای استدلالگر 20:09
-
آموزش و کاربردپذیری مدلهای استدلالگر 19:33
-
بخش عملی - اجرای Deepseek با استفاده از Ollama 07:15
-
مقدمهای بر عاملهای هوش مصنوعی 13:17
-
ساخت یک عامل هوش مصنوعی با استفاده از فریمورک Autogen مایکروسافت 16:44
مشخصات آموزش
دوره عملی Red Teaming برای هوش مصنوعی (LLM)
- تاریخ به روز رسانی: 1404/09/07
- سطح دوره:متوسط
- تعداد درس:32
- مدت زمان :08:24:57
- حجم :7.08GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy