گواهینامه AI Governance Professional (AIGP) Certification و تسلط به هوش مصنوعی
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- تمایز میان هوش مصنوعی محدود و عمومی و نحوه عملکرد این سیستمها در صنایع مختلف
- اصول اساسی یادگیری ماشین شامل تکنیکهای یادگیری نظارتشده، نظارت نشده و یادگیری تقویتی
- مفاهیم پیشرفته هوش مصنوعی مانند یادگیری عمیق و مدلهای ترنسفرمر با تمرکز روی اصول نظری آنها
- پردازش زبان طبیعی (NLP) و مدلهای مولتی مودال و کاربرد آنها در بهبود سیستمهای هوش مصنوعی
- پیامدهای اخلاقی و اجتماعی هوش مصنوعی، از جمله تأثیر آن بر حریم خصوصی، تبعیض و اعتماد عمومی
- چارچوبهای حاکمیت جهانی هوش مصنوعی، شامل استانداردهای OECD، اتحادیه اروپا و دیگر نهادهای بینالمللی
- اصول هوش مصنوعی مسئول، با تمرکز بر شفافیت، پاسخگویی و طراحی انسانمحور در سیستمهای هوش مصنوعی
- چشمانداز قانونی و نظارتی برای هوش مصنوعی، شامل قوانین مرتبط با عدم تبعیض، حفاظت از داده و مالکیت معنوی
- چرخه عمر توسعه هوش مصنوعی، از تعریف اهداف کسبوکار و ساختارهای حاکمیت تا تست و اعتبارسنجی مدل
- مدیریت سیستمهای هوش مصنوعی پس از استقرار، شامل نظارت، اعتبارسنجی و پرداختن به سوگیری اتوماسیون
پیشنیازهای دوره
- بدون الزامات
توضیحات دوره
این دوره به منظور ارائه یک درک نظری عمیق از مفاهیم اساسی که زیرساختهای فناوریهای هوش مصنوعی و یادگیری ماشین (ML) را تشکیل میدهند، طراحی شده و تمرکز ویژهای روی آمادهسازی دانشجویان برای دریافت گواهینامه AI Governance Professional (AIGP) Certification دارد. در طول دوره، دانشجویان به بررسی 7 دامنه مهم مورد نیاز برای این گواهینامه میپردازند که شامل حاکمیت هوش مصنوعی و مدیریت ریسک، انطباق با مقررات، چارچوبهای اخلاقی هوش مصنوعی، حریم خصوصی و حفاظت از داده، کاهش سوگیری هوش مصنوعی، هوش مصنوعی انسان محور و نوآوری مسئولانه در هوش مصنوعی میباشد. تسلط به این دامنهها برای ناوبری چالشهای اخلاقی، قانونی و حاکمیت که توسط فناوریهای هوش مصنوعی مطرح میشود، ضروری است.
دانشجویان ایدههای کلیدی محرک نوآوری در هوش مصنوعی را بررسی کرده و بهویژه به درک انواع مختلف سیستمهای هوش مصنوعی، از جمله هوش مصنوعی محدود و عمومی میپردازند. این تمایز برای درک دامنه و محدودیتهای فناوریهای فعلی هوش مصنوعی و همچنین توسعههای بالقوه آینده آنها بسیار اهمیت دارد. این دوره همچنین به مبانی یادگیری ماشین میپردازد و متدها و الگوریتمهای مختلف آموزش که هسته سیستمهای هوشمند را تشکیل میدهند، توضیح میدهد.
با ادامه تحول هوش مصنوعی، یادگیری عمیق و مدلهای ترنسفرمر به جزئی یکپارچه از پیشرفتها در این حوزه تبدیل شدهاند. دانشجویان این چارچوبهای نظری را بررسی کرده و بر نقشهای آنها در کاربردهای مدرن هوش مصنوعی، بهویژه در generative AI و پردازش زبان طبیعی (NLP) تمرکز خواهند کرد. علاوه بر این، این دوره به مدلهای مولتی مودال میپردازد که انواع مختلف داده را برای بهبود توانمندیهای هوش مصنوعی در حوزههای مختلف مانند مراقبتهای بهداشتی و آموزش ترکیب میکند. ماهیت میانرشتهای هوش مصنوعی نیز مورد بحث قرار گرفته و همکاری لازم بین کارشناسان فنی و دانشمندان اجتماعی برای اطمینان از توسعه مسئولانه هوش مصنوعی مورد تأکید قرار میگیرد.
تاریخچه و تکامل هوش مصنوعی برای درک مسیر این فناوریها از اهمیت بالایی برخوردار است. این دوره از توسعه هوش مصنوعی از مراحل اولیه تا وضعیت کنونی آن به عنوان یک ابزار تحولآفرین در صنایع مختلف پردهبرداری خواهد کرد. این زمینه تاریخی به چارچوببندی مسئولیتهای اخلاقی و اجتماعی مرتبط با هوش مصنوعی کمک میکند. یکی از اجزای کلیدی دوره، بحث درباره تأثیرات گستردهتر هوش مصنوعی بر جامعه، از آسیبهای فردی مانند نقض حریم خصوصی تا سوگیری و تبعیض در سطح گروهی است. دانشجویان به درک نحوه تأثیر هوش مصنوعی بر فرآیندهای دموکراتیک، آموزش و اعتماد عمومی خواهند پرداخت و همچنین به پیامدهای اقتصادی بالقوه، از جمله توزیع مجدد مشاغل و فرصتهای اقتصادی آگاه خواهند شد.
در بررسی هوش مصنوعی مسئول، این دوره بر اهمیت توسعه سیستمهای هوش مصنوعی قابل اعتماد تأکید میکند. دانشجویان درباره اصول اساسی هوش مصنوعی مسئول، مانند شفافیت، پاسخگویی و طراحی انسان محور که برای ساخت فناوریهای اخلاقی هوش مصنوعی ضروری هستند، خواهند آموخت. دوره همچنین به سیستمهای هوش مصنوعی با حفظ حریم خصوصی میپردازد و توازن بین کارایی داده و حفاظت از حریم خصوصی را مورد بحث قرار میدهد. برای اطمینان از اینکه دانشجویان چشمانداز قانونی جهانی را درک کنند، این دوره شامل بررسی استانداردهای بینالمللی برای هوش مصنوعی قابل اعتماد و نیز شامل چارچوبهایی است که توسط سازمانهایی مانند OECD و اتحادیه اروپا ایجاد شدهاند.
یک جنبه کلیدی این دوره، آمادگی جامع برای گواهینامه AI Governance Professional (AIGP) Certification است. این گواهینامه بر تجهیز حرفهایها با دانش و مهارتها برای ناوبری چالشهای اخلاقی، قانونی و حاکمیت که توسط فناوریهای هوش مصنوعی مطرح میشود، تمرکز دارد. گواهینامه AIGP مزایای قابل توجهی به همراه دارد که شامل افزایش اعتبار در اخلاق و حاکمیت هوش مصنوعی، درک عمیق از چارچوبهای قانونی جهانی هوش مصنوعی و توانایی مدیریت مؤثر ریسکهای هوش مصنوعی در صنایع مختلف است. با دریافت این گواهینامه، دانشجویان بهتر قادر خواهند بود سازمانها را در پیادهسازی شیوههای مسئولانه هوش مصنوعی رهبری کرده و از تطابق با قوانین در حال تحول اطمینان حاصل کنند.
جنبه مهم دیگری از این دوره، درک چارچوبهای قانونی و نظارتی است که توسعه و استقرار هوش مصنوعی را رهبری میکند. دانشجویان درباره قوانین و مقررات خاص هوش مصنوعی، از جمله قوانین عدم تبعیض و حفاظت از حریم خصوصی که به کاربردهای هوش مصنوعی اعمال میشود، خواهند آموخت. این بخش از دوره به بررسی عمیق تلاشهای قانونی کلیدی در سطح جهانی پرداخته و شامل اقداماتی مانند قانون سرویسهای دیجیتال اتحادیه اروپا و مفاد مرتبط با هوش مصنوعی GDPR میباشد. با درک این چارچوبها، دانشجویان بینش لازم را برای ناوبری ملاحظات قانونی هنگام استقرار سیستمهای هوش مصنوعی کسب خواهند کرد.
در نهایت، این دوره دانشجویان را از طریق چرخه عمر توسعه هوش مصنوعی راهنمایی میکند و بر جنبههای نظری برنامهریزی، حاکمیت و مدیریت ریسک تأکید دارد. دانشجویان یاد میگیرند که چگونه اهداف کسبوکار برای پروژههای هوش مصنوعی را تعریف کنند، ساختارهای حاکمیت را ایجاد کنند و به چالشهای مرتبط با استراتژی داده و انتخاب مدل بپردازند. ملاحظات اخلاقی در معماری سیستمهای هوش مصنوعی نیز مورد بررسی قرار گرفته و بر اهمیت انصاف، شفافیت و پاسخگویی تأکید میشود. این دوره با بحث درباره مدیریت پس از استقرار سیستمهای هوش مصنوعی، شامل نظارت، اعتبارسنجی و اطمینان از عملکرد اخلاقی در طول چرخه عمر سیستم خاتمه مییابد.
به طور کلی، این دوره یک اصول نظری جامع در هوش مصنوعی و یادگیری ماشین را ارائه میدهد و بر ملاحظات اخلاقی، اجتماعی و قانونی که برای توسعه و استقرار مسئولانه فناوریهای هوش مصنوعی ضروری است، تمرکز دارد. این دوره به دانشجویان نه تنها درک قوی از حاکمیت هوش مصنوعی و تأثیرات اجتماعی آن ارائه میدهد بلکه آنها را برای دریافت گواهینامه معتبر حرفهای AI Governance Professional (AIGP) Certification آماده میکند که چشمانداز شغلی آنها را در حوزه در حال تحول حاکمیت هوش مصنوعی تقویت میکند.
این دوره برای چه کسانی مناسب است؟
- رهبران مشتاق هوش مصنوعی که به دنبال دانش جامع در حاکمیت هوش مصنوعی هستند.
- حرفهایهای هوش مصنوعی که به دنبال افزایش تخصص خود در شیوههای اخلاقی هوش مصنوعی هستند.
- تصمیمگیرندگان سیاست که به درک چشماندازهای نظارتی هوش مصنوعی علاقهمند هستند.
- متخصصان مدیریت ریسک که بر چالشها و راهحلهای مرتبط با هوش مصنوعی تمرکز دارند.
- استراتژیستهای شرکتی که به دنبال پیادهسازی اقدامات مؤثر برای حاکمیت هوش مصنوعی هستند.
- دانشمندان و پژوهشگرانی که به بررسی تأثیرات اخلاقی و اجتماعی هوش مصنوعی میپردازند.
- کارمندان بخش عمومی که در توسعه و پیادهسازی سیاستهای هوش مصنوعی فعال هستند.
- افرادی که به شیوههای مسئولانه و برابر در حاکمیت هوش مصنوعی متعهد هستند.
گواهینامه AI Governance Professional (AIGP) Certification و تسلط به هوش مصنوعی
-
مقدمه بخش 01:54
-
آشنایی با هوش مصنوعی و یادگیری ماشین 08:07
-
مطالعه موردی - AI-Diagnosis - تحول در مراقبتهای بهداشتی با هوش مصنوعی و یادگیری ماشین 07:42
-
انواع سیستمهای هوش مصنوعی - هوش مصنوعی محدود در مقابل هوش مصنوعی عمومی 07:09
-
مطالعه موردی - ناوبری حاکمیت هوش مصنوعی 07:29
-
مبانی یادگیری ماشین و متدهای آموزشی 08:28
-
مطالعه موردی - تقویت پیشبینی ریزش مشتری 06:12
-
یادگیری عمیق، Generative AI و مدلهای ترنسفرمر 08:38
-
مطالعه موردی - هوش مصنوعی تحولآفرین - یکپارچهسازی یادگیری عمیق 07:39
-
پردازش زبان طبیعی و مدلهای مولتی مودال 07:37
-
مطالعه موردی - تحول در مراقبتهای بهداشتی و آموزش با NLP و هوش مصنوعی مولتی مودال 08:19
-
سیستمهای هوش مصنوعی فنی-اجتماعی و همکاری بینرشتهای 07:34
-
مطالعه موردی - یکپارچهسازی برتری فنی و مسئولیت اجتماعی 08:00
-
تاریخچه و تکامل هوش مصنوعی و علم داده 05:42
-
مطالعه موردی - پل زدن بین گذشته و وضعیت حال هوش مصنوعی 08:17
-
خلاصه بخش 02:06
-
مقدمه بخش 01:54
-
آسیبهای فردی - حقوق مدنی، ایمنی و تأثیرات اقتصادی 06:26
-
مطالعه موردی - ناوبری چالشهای هوش مصنوعی 08:24
-
آسیبهای گروهی - تبعیض و سوگیری در سیستمهای هوش مصنوعی 07:38
-
مطالعه موردی - رسیدگی به سوگیریهای هوش مصنوعی 09:07
-
آسیبهای اجتماعی - دموکراسی، آموزش و اعتماد عمومی 04:41
-
مطالعه موردی - تأثیر هوش مصنوعی بر دموکراسی، آموزش و اعتماد عمومی 07:46
-
ریسکهای سازمانی - تهدیدات اعتباری، فرهنگی و اقتصادی 06:59
-
مطالعه موردی - ناوبری حاکمیت هوش مصنوعی 08:45
-
تأثیرات محیطی و اکوسیستمی هوش مصنوعی 07:28
-
مطالعه موردی - تعادل پیشرفت هوش مصنوعی با پایداری 07:46
-
توزیع مجدد مشاغل و فرصتهای اقتصادی به دلیل هوش مصنوعی 06:02
-
مطالعه موردی - تعادل بین یکپارچهسازی هوش مصنوعی و مهارت آموزی مجدد نیروی کار 07:49
-
تأثیر هوش مصنوعی بر دسترسی به نیروی کار و آموزش 06:45
-
مطالعه موردی - رویکرد استراتژیک TechNova به مهارت آموزی مجدد نیروی کار 08:40
-
خلاصه بخش 01:44
-
مقدمه بخش 02:00
-
اصول اساسی هوش مصنوعی مسئول 05:57
-
مطالعه موردی - ساخت هوش مصنوعی اخلاقی 08:02
-
سیستمهای هوش مصنوعی انسان محور 06:28
-
مطالعه موردی - هوش مصنوعی انسان محور برای مدیریت ترافیک شهری 08:18
-
شفافیت، توضیح پذیری و پاسخگویی در هوش مصنوعی 08:59
-
مطالعه موردی - تعادل بین نوآوری و اخلاق 07:24
-
سیستمهای هوش مصنوعی ایمن، مطمئن و مقاوم 07:34
-
مطالعه موردی - اطمینان از هوش مصنوعی اخلاقی، ایمن و مقاوم 10:14
-
سیستمهای هوش مصنوعی با حفظ حریم خصوصی و حفاظت از داده 08:43
-
مطالعه موردی - تعادل بین یوتیلیتی داده و حریم خصوصی در هوش مصنوعی 09:47
-
استانداردهای OECD و اتحادیه اروپا برای هوش مصنوعی قابل اعتماد 07:29
-
مطالعه موردی - ناوبری چالشهای اخلاقی در نوآوری مراقبتهای بهداشتی هوش مصنوعی محور 08:04
-
مقایسه راهنماهای اخلاقی جهانی برای هوش مصنوعی 09:03
-
مطالعه موردی - ناوبری استانداردهای اخلاقی جهانی برای هوش مصنوعی 06:38
-
خلاصه بخش 01:53
-
مقدمه بخش 01:45
-
بررسی قوانین و مقررات خاص هوش مصنوعی 07:13
-
مطالعه موردی - ناوبری مقررات جهانی هوش مصنوعی 08:05
-
قوانین عدم تبعیض و کاربردهای هوش مصنوعی 06:22
-
مطالعه موردی - کاهش سوگیری هوش مصنوعی - سفر DiversiHires به سوی انصاف 08:01
-
قوانین ایمنی محصولات برای سیستمهای هوش مصنوعی 07:40
-
مطالعه موردی - اطمینان از ایمنی هوش مصنوعی 07:02
-
حفاظت از داده و حریم خصوصی در سیستمهای هوش مصنوعی 07:26
-
مطالعه موردی - تعادل بین نوآوری هوش مصنوعی با حریم خصوصی و اخلاق 08:23
-
مالکیت معنوی و هوش مصنوعی - ملاحظات قانونی 07:12
-
مطالعه موردی - ناوبری قوانین هوش مصنوعی و قانون IP 09:08
-
مولفههای کلیدی قانون سرویسهای دیجیتال اتحادیه اروپا 07:06
-
مطالعه موردی - ناوبری انطباق با DSA 07:09
-
تقاطع الزامات هوش مصنوعی و GDPR 07:50
-
مطالعه موردی - تعادل بین نوآوری هوش مصنوعی و انطباق با GDPR 07:05
-
خلاصه بخش 02:02
-
مقدمه بخش 02:00
-
بررسی قانون هوش مصنوعی اتحادیه اروپا و دستهبندیهای ریسک آن 06:59
-
مطالعه موردی - پیادهسازی قانون هوش مصنوعی اتحادیه اروپا 09:36
-
الزامات سیستمهای هوش مصنوعی با ریسک بالا و مدلهای بنیادی 06:01
-
مطالعه موردی - اطمینان از استقرار اخلاقی و مؤثر هوش مصنوعی با ریسک بالا 09:27
-
مکانیزمهای اطلاعرسانی و اجرای قانون هوش مصنوعی اتحادیه اروپا 07:07
-
مطالعه موردی - پاسخ استراتژیک TechNova به چالشهای انطباق با قانون هوش مصنوعی اتحادیه اروپا 09:07
-
قانون هوش مصنوعی و داده کانادا (لایحه C-27) 07:42
-
مطالعه موردی - تعادل بین نوآوری و حاکمیت اخلاقی هوش مصنوعی 09:15
-
مولفههای کلیدی قوانین ایالتی مرتبط با هوش مصنوعی در ایالات متحده 06:46
-
مطالعه موردی ناوبری مقررات هوش مصنوعی 07:36
-
پیشنویس مقررات چین درباره Generative AI 06:53
-
مطالعه موردی - ناوبری مقررات هوش مصنوعی در چین 09:19
-
هماهنگی قوانین جهانی هوش مصنوعی و چارچوبهای مدیریت ریسک 06:35
-
مطالعه موردی - هماهنگی قوانین جهانی هوش مصنوعی 08:41
-
خلاصه بخش 01:48
-
مقدمه بخش 02:41
-
تعریف اهداف کسبوکار و دامنه سیستم هوش مصنوعی 06:17
-
مطالعه موردی - بهینهسازی خدمات مشتری با هوش مصنوعی 06:19
-
تعیین ساختارها و مسئولیتهای حاکمیت هوش مصنوعی 06:18
-
مطالعه موردی - حاکمیت هوش مصنوعی اخلاقی 08:35
-
استراتژی داده - جمعآوری، برچسبگذاری و پاکسازی 06:51
-
مطالعه موردی - موفقیت چتبات هوش مصنوعی TechNova 07:09
-
انتخاب مدل - دقت در برابر تفسیرپذیری 08:04
-
مطالعه موردی - تعادل بین دقت و تفسیرپذیری در هوش مصنوعی 07:11
-
طراحی اخلاقی در معماری سیستمهای هوش مصنوعی 07:17
-
مطالعه موردی - تعهد FairAI به انصاف، شفافیت و پاسخگویی 09:58
-
درک چالشهای حاکمیت در برنامهریزی هوش مصنوعی 05:43
-
مطالعه موردی - چالشهای حاکمیت در برنامهریزی هوش مصنوعی 09:48
-
همکاری تیمی بینرشتهای در برنامهریزی هوش مصنوعی 07:38
-
مطالعه موردی - همافزایی بینرشتهای 07:44
-
خلاصه بخش 01:31
-
مقدمه بخش 02:26
-
مهندسی ویژگی برای مدلهای هوش مصنوعی 07:00
-
مطالعه موردی - تقویت تحلیلهای پیشبینانه سلامت 07:40
-
آموزش مدل - تکنیکها و بهترین شیوهها 07:31
-
مطالعه موردی - بهینهسازی هوش مصنوعی برای تشخیص بیماریهای نادر 09:08
-
فرآیندهای اعتبارسنجی و تست مدل 07:45
-
مطالعه موردی - تستهای دقیق و ملاحظات اخلاقی 08:16
-
تست مدلهای هوش مصنوعی با موارد حاشیهای و ورودیهای متضاد 07:38
-
مطالعه موردی - اطمینان از استحکام و قابلیت اطمینان در هوش مصنوعی پهپادهای خودران 06:06
-
تکنیکهای یادگیری ماشین با حفظ حریم خصوصی 06:28
-
مطالعه موردی - تعادل بین حریم خصوصی و کارایی 08:38
-
ارزیابیهای تکرارپذیری و فکت شیتهای مدل 06:10
-
مطالعه موردی - اطمینان از قابلیت اعتماد و شفافیت مدل هوش مصنوعی 07:50
-
انجام ارزیابیهای تأثیر الگوریتم 07:08
-
مطالعه موردی - اطمینان از انصاف و پاسخگویی 06:43
-
خلاصه بخش 02:05
-
مقدمه بخش 02:31
-
ایجاد چارچوبهای مدیریت ریسک هوش مصنوعی 06:10
-
مطالعه موردی - مدیریت ریسک جامع هوش مصنوعی 07:09
-
زیرساخت حاکمیت هوش مصنوعی - نقشها و مسئولیتهای کلیدی 07:12
-
مطالعه موردی - حاکمیت جامع هوش مصنوعی 09:55
-
همکاری بینرشتهای در حاکمیت هوش مصنوعی 06:13
-
مطالعه موردی - همکاری بینرشتهای 06:13
-
الزامات نظارتی هوش مصنوعی و رویههای انطباق 09:15
-
مطالعه موردی - مسیر TechNova به سوی هوش مصنوعی اخلاقی و منطبق 08:38
-
ایجاد فرهنگ هوش مصنوعی مسئول درون سازمانها 08:30
-
مطالعه موردی - ایجاد هوش مصنوعی مسئول 07:55
-
ارزیابی سطح بلوغ هوش مصنوعی در عملکردهای کسبوکار 07:25
-
مطالعه موردی - تقویت بلوغ هوش مصنوعی 07:09
-
مدیریت ریسکهای شخص ثالث در سیستمهای هوش مصنوعی 06:55
-
مطالعه موردی - مدیریت ریسکهای شخص ثالث در هوش مصنوعی 08:48
-
خلاصه بخش 01:38
-
مقدمه بخش 01:54
-
تعریف دامنه پروژههای هوش مصنوعی - شناسایی اهداف کلیدی 07:22
-
مطالعه موردی - تعیین دامنه استراتژیک پروژههای هوش مصنوعی 06:13
-
نگاشت ریسکهای هوش مصنوعی - شناسایی تهدیدات داخلی و خارجی 06:35
-
مطالعه موردی - غلبه بر چالشها در توسعه ابزار استخدامی هوش مصنوعی محور 08:27
-
توسعه استراتژیهای کاهش ریسک برای پروژههای هوش مصنوعی 06:33
-
مطالعه موردی - استراتژیهای جامع مدیریت ریسک برای پروژههای موفق هوش مصنوعی 07:48
-
ساخت ماتریس آسیب برای ارزیابی ریسک هوش مصنوعی 07:56
-
مطالعه موردی - ماتریس آسیب - کاهش ریسکها در تشخیص سرطان هوش مصنوعی محور 08:51
-
انجام ارزیابیهای تأثیر الگوریتم 08:04
-
مطالعه موردی - الگوریتم استخدام بر اساس هوش مصنوعی TechNova 06:08
-
تعامل با ذینفعان در مدیریت ریسک هوش مصنوعی 05:53
-
مطالعه موردی - اطمینان از اخلاقی بودن هوش مصنوعی 09:18
-
مبدأ داده، نسب و دقت در سیستمهای هوش مصنوعی 07:46
-
مطالعه موردی - اطمینان از یکپارچگی و شفافیت داده در سیستمهای هوش مصنوعی 05:42
-
خلاصه بخش 01:36
-
مقدمه بخش 01:55
-
نظارت و اعتبارسنجی مداوم سیستمهای هوش مصنوعی 06:29
-
مطالعه موردی - نظارت مداوم و نظارت اخلاقی 07:33
-
تست پس از وقوع برای دقت و کارایی سیستمهای هوش مصنوعی 05:57
-
مطالعه موردی - اطمینان از دقت، انصاف و استحکام ابزارهای هوش مصنوعی 07:28
-
مدیریت سوگیری اتوماسیون در سیستمهای هوش مصنوعی 06:40
-
مطالعه موردی - تعادل بین هوش مصنوعی و قضاوت بالینی 06:47
-
نسخهبندی مدل و بروزرسانیها - بهترین شیوهها 06:10
-
مطالعه موردی - نسخهبندی ساختاریافته مدل هوش مصنوعی 07:14
-
مدیریت ریسکهای شخص ثالث پس از استقرار 07:12
-
مطالعه موردی - مدیریت ریسکهای شخص ثالث 07:55
-
کاهش استفاده غیرعمد و آسیبهای پاییندستی در سیستمهای هوش مصنوعی 05:31
-
مطالعه موردی - حاکمیت اخلاقی و شفافیت در مراقبتهای بهداشتی هوش مصنوعی محور 07:10
-
برنامهریزی برای غیرفعالسازی سیستمهای هوش مصنوعی و پایان سیستم 06:49
-
مطالعه موردی - استراتژیهای مؤثر برای غیرفعالسازی سیستمهای هوش مصنوعی 07:46
-
خلاصه بخش 02:06
-
مقدمه بخش 02:12
-
ایجاد چارچوب حسابرسی جهانی هوش مصنوعی 07:19
-
مطالعه موردی - چارچوب حسابرسی جهانی هوش مصنوعی 07:19
-
تعیین استانداردهای حسابرسی هوش مصنوعی و اقدامات انطباق 06:58
-
مطالعه موردی - پیادهسازی حسابرسی اخلاقی هوش مصنوعی 08:12
-
پاسخگویی در سیستمهای تصمیمگیری خودکار 06:50
-
مطالعه موردی - اطمینان از پاسخگویی و انصاف در تأیید وامهای هوش مصنوعی محور 07:02
-
تقویت حاکمیت هوش مصنوعی با ابزارهای انطباق خودکار 06:40
-
مطالعه موردی - تقویت حاکمیت هوش مصنوعی 06:36
-
معضلات اخلاقی در حاکمیت و استقرار هوش مصنوعی 08:27
-
مطالعه موردی - ناوبری چالشهای اخلاقی در استقرار هوش مصنوعی 08:59
-
درک شکستهای هوش مصنوعی - سوگیریها، توهمات و خطاها 05:26
-
مطالعه موردی - کاهش سوگیریها، توهمات و خطاهای هوش مصنوعی 09:39
-
مدیریت تغییرات فرهنگی و رفتاری در تیمهای هوش مصنوعی 07:52
-
مطالعه موردی -سفر TechNova در مدیریت تغییرات فرهنگی و رفتاری 08:13
-
خلاصه بخش 01:34
-
مقدمه بخش 02:30
-
پیشرفتها در Generative AI و مدلهای هوش مصنوعی مولتی مودال 07:59
-
مطالعه موردی - تحول در مراقبتهای بهداشتی با Generative AI و هوش مصنوعی مولتی مودال 07:02
-
پردازش زبان طبیعی (NLP) و مدلهای زبانی بزرگ 05:56
-
مطالعه موردی - تحول در پشتیبانی مشتری با NLP و LLMs 07:50
-
هوش مصنوعی در رباتیک، اتوماسیون و سیستمهای خودران 06:19
-
مطالعه موردی - نوآوریهای هوش مصنوعی محور 09:18
-
نقش هوش مصنوعی در متاورس، واقعیت افزوده و واقعیت مجازی 06:47
-
مطالعه موردی - یکپارچهسازی هوش مصنوعی در متاورس 07:33
-
روندهای نوظهور در هوش مصنوعی برای مراقبتهای بهداشتی و پزشکی 05:53
-
مطالعه موردی - تحول در هوش مصنوعی برای مراقبتهای بهداشتی 06:28
-
هوش مصنوعی در کاربردهای محیطی و پایداری 07:44
-
مطالعه موردی - پایداری مجهز به هوش مصنوعی 08:13
-
پیشبینی آینده هوش مصنوعی - روندها و چالشها 05:57
-
مطالعه موردی - هوش مصنوعی در مراقبتهای بهداشتی - تعادل بین نوآوری، اخلاق و حاکمیت 08:17
-
خلاصه بخش 01:50
-
مقدمه بخش 03:18
-
تأثیر هوش مصنوعی بر مشاغل و فرصتهای شغلی 06:49
-
مطالعه موردی - تحول در اشتغال 09:51
-
بازتوزیع ثروت و قدرت اقتصادی از طریق هوش مصنوعی 06:14
-
مطالعه موردی - ناوبری نابرابری، تغییرات بازار و چالشهای قانونی 08:13
-
تأثیر هوش مصنوعی بر آموزش و یادگیری مادامالعمر 05:41
-
مطالعه موردی - یادگیری شخصی شده، کارایی و شمول در دبیرستان Westbrook 09:59
-
اعتماد عمومی به هوش مصنوعی و حاکمیت آن 08:31
-
مطالعه موردی - مطالعه موردی HealthAI درباره حاکمیت و یکپارچگی اخلاقی 08:36
-
هوش مصنوعی و فرآیندهای دموکراتیک - چالشها و فرصتها 06:22
-
مطالعه موردی - تأثیر هوش مصنوعی بر دموکراسی 05:46
-
ساخت سیستمهای هوش مصنوعی فراگیر برای جوامع متنوع 07:04
-
مطالعه موردی - سفر TechNova به سیستمهای استخدام شغلی برابر 07:30
-
مطالعه موردی - نوآوری استراتژیک و سازگاری 07:32
-
خلاصه بخش 02:04
-
مقدمه بخش 02:45
-
متدها و ابزارهای انجام حسابرسیهای هوش مصنوعی 07:54
-
مطالعه موردی - حسابرسی جامع هوش مصنوعی در TechNova 07:58
-
ارزیابی تأثیر اجتماعی هوش مصنوعی - متریکها و رویکردها 07:19
-
مطالعه موردی - ارزیابی تأثیر اجتماعی هوش مصنوعی 09:48
-
ردیابی عملکرد سیستم هوش مصنوعی پس از استقرار 06:44
-
مطالعه موردی - بهینهسازی هوش مصنوعی پس از استقرار 07:30
-
برطرف کردن شکستهای سیستم هوش مصنوعی و تأثیرات منفی 07:32
-
مطالعه موردی - تقویت حاکمیت هوش مصنوعی 11:58
-
گزارشدهی و ارتباطات ریسکهای سیستمهای هوش مصنوعی 06:34
-
مطالعه موردی - اطمینان از یکپارچگی هوش مصنوعی 08:57
-
ایجاد گزارشهای تأثیر اخلاقی هوش مصنوعی برای ذینفعان 06:26
-
مطالعه موردی - شفافیت، انصاف، حریم خصوصی، پاسخگویی و تأثیر اجتماعی 06:38
-
آمادهسازی سیستمهای هوش مصنوعی برای ارزیابی و بروزرسانیهای مداوم 07:10
-
مطالعه موردی - بهبود مداوم و قابلیت اعتماد 06:52
-
خلاصه بخش 01:41
-
مقدمه بخش 02:12
-
چالشهای قانونی هوش مصنوعی - مسئولیت و تعهدات قانونمدار 08:18
-
مطالعه موردی - مسئولیت هوش مصنوعی در حوادث وسایل نقلیه خودران 08:36
-
حقوق مالکیت معنوی و مالکیت سیستمهای هوش مصنوعی 06:38
-
مطالعه موردی - هنر تولید شده توسط هوش مصنوعی و مالکیت معنوی 08:27
-
آموزش کاربران درباره عملکرد و محدودیتهای هوش مصنوعی 07:37
-
مطالعه موردی - استفاده مسئولانه از هوش مصنوعی 08:01
-
رسیدگی به نیازهای ارتقای مهارت و مهارتآموزی مجدد نیروی کار 07:06
-
مطالعه موردی - ناوبری تحول نیروی کار هوش مصنوعی محور 09:49
-
ساخت حرفهای از حسابرسان هوش مصنوعی - استانداردها و آموزش 07:15
-
مطالعه موردی - اطمینان از هوش مصنوعی اخلاقی و عادلانه 07:22
-
حاکمیت خودکار برای مسائل اخلاقی هوش مصنوعی 08:47
-
مطالعه موردی - حاکمیت اخلاقی هوش مصنوعی 07:19
-
آمادگی برای آینده حاکمیت و اخلاق هوش مصنوعی 07:07
-
مطالعه موردی - ناوبری حاکمیت اخلاقی هوش مصنوعی 08:40
-
خلاصه بخش 01:26
-
نتیجهگیری 03:47
مشخصات آموزش
گواهینامه AI Governance Professional (AIGP) Certification و تسلط به هوش مصنوعی
- تاریخ به روز رسانی: 1404/06/14
- سطح دوره:همه سطوح
- تعداد درس:240
- مدت زمان :27:27:32
- حجم :5.37GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy