دوره آموزشی
آموزش های یودمی
دوبله زبان فارسی

گواهینامه AI Governance Professional (AIGP) Certification و تسلط به هوش مصنوعی

گواهینامه AI Governance Professional (AIGP) Certification و تسلط به هوش مصنوعی

✅ سرفصل و جزئیات آموزش

آنچه یاد خواهید گرفت:

  • تمایز میان هوش مصنوعی محدود و عمومی و نحوه‌ عملکرد این سیستم‌ها در صنایع مختلف
  • اصول اساسی یادگیری ماشین شامل تکنیک‌های یادگیری نظارت‌شده، نظارت نشده و یادگیری تقویتی
  • مفاهیم پیشرفته هوش مصنوعی مانند یادگیری عمیق و مدل‌های ترنسفرمر با تمرکز روی اصول نظری آنها
  • پردازش زبان طبیعی (NLP) و مدل‌های مولتی مودال و کاربرد آنها در بهبود سیستم‌های هوش مصنوعی
  • پیامدهای اخلاقی و اجتماعی هوش مصنوعی، از جمله تأثیر آن بر حریم خصوصی، تبعیض و اعتماد عمومی
  • چارچوب‌های حاکمیت جهانی هوش مصنوعی، شامل استانداردهای OECD، اتحادیه اروپا و دیگر نهادهای بین‌المللی
  • اصول هوش مصنوعی مسئول، با تمرکز بر شفافیت، پاسخگویی و طراحی انسان‌محور در سیستم‌های هوش مصنوعی
  • چشم‌انداز قانونی و نظارتی برای هوش مصنوعی، شامل قوانین مرتبط با عدم تبعیض، حفاظت از داده‌ و مالکیت معنوی
  • چرخه عمر توسعه هوش مصنوعی، از تعریف اهداف کسب‌وکار و ساختارهای حاکمیت تا تست و اعتبارسنجی مدل
  • مدیریت سیستم‌های هوش مصنوعی پس از استقرار، شامل نظارت، اعتبارسنجی و پرداختن به سوگیری اتوماسیون

پیش‌نیازهای دوره

  • بدون الزامات

توضیحات دوره

این دوره به منظور ارائه یک درک نظری عمیق از مفاهیم اساسی که زیرساخت‌های فناوری‌های هوش مصنوعی و یادگیری ماشین (ML) را تشکیل می‌دهند، طراحی شده و تمرکز ویژه‌ای روی آماده‌سازی دانشجویان برای دریافت گواهینامه AI Governance Professional (AIGP) Certification دارد. در طول دوره، دانشجویان به بررسی 7 دامنه مهم مورد نیاز برای این گواهینامه می‌پردازند که شامل حاکمیت هوش مصنوعی و مدیریت ریسک، انطباق با مقررات، چارچوب‌های اخلاقی هوش مصنوعی، حریم خصوصی و حفاظت از داده‌، کاهش سوگیری هوش مصنوعی، هوش مصنوعی انسان‌ محور و نوآوری مسئولانه در هوش مصنوعی می‌باشد. تسلط به این دامنه‌ها برای ناوبری چالش‌های اخلاقی، قانونی و حاکمیت که توسط فناوری‌های هوش مصنوعی مطرح می‌شود، ضروری است.

دانشجویان ایده‌های کلیدی محرک نوآوری در هوش مصنوعی را بررسی کرده و به‌ویژه به درک انواع مختلف سیستم‌های هوش مصنوعی، از جمله هوش مصنوعی محدود و عمومی می‌پردازند. این تمایز برای درک دامنه و محدودیت‌های فناوری‌های فعلی هوش مصنوعی و همچنین توسعه‌های بالقوه آینده آنها بسیار اهمیت دارد. این دوره همچنین به مبانی یادگیری ماشین می‌پردازد و متدها و الگوریتم‌های مختلف آموزش که هسته سیستم‌های هوشمند را تشکیل می‌دهند، توضیح می‌دهد.

با ادامه‌ تحول هوش مصنوعی، یادگیری عمیق و مدل‌های ترنسفرمر به جزئی یکپارچه از پیشرفت‌ها در این حوزه تبدیل شده‌اند. دانشجویان این چارچوب‌های نظری را بررسی کرده و بر نقش‌های آنها در کاربردهای مدرن هوش مصنوعی، به‌ویژه در generative AI و پردازش زبان طبیعی (NLP) تمرکز خواهند کرد. علاوه بر این، این دوره به مدل‌های مولتی مودال می‌پردازد که انواع مختلف داده‌ را برای بهبود توانمندی‌های هوش مصنوعی در حوزه‌های مختلف مانند مراقبت‌های بهداشتی و آموزش ترکیب می‌کند. ماهیت میان‌رشته‌ای هوش مصنوعی نیز مورد بحث قرار گرفته و همکاری لازم بین کارشناسان فنی و دانشمندان اجتماعی برای اطمینان از توسعه مسئولانه هوش مصنوعی مورد تأکید قرار می‌گیرد.

تاریخچه و تکامل هوش مصنوعی برای درک مسیر این فناوری‌ها از اهمیت بالایی برخوردار است. این دوره از توسعه‌ هوش مصنوعی از مراحل اولیه تا وضعیت کنونی آن به عنوان یک ابزار تحول‌آفرین در صنایع مختلف پرده‌برداری خواهد کرد. این زمینه تاریخی به چارچوب‌بندی مسئولیت‌های اخلاقی و اجتماعی مرتبط با هوش مصنوعی کمک می‌کند. یکی از اجزای کلیدی دوره، بحث درباره تأثیرات گسترده‌تر هوش مصنوعی بر جامعه، از آسیب‌های فردی مانند نقض حریم خصوصی تا سوگیری و تبعیض در سطح گروهی است. دانشجویان به درک نحوه تأثیر هوش مصنوعی بر فرآیندهای دموکراتیک، آموزش و اعتماد عمومی خواهند پرداخت و همچنین به پیامدهای اقتصادی بالقوه، از جمله توزیع مجدد مشاغل و فرصت‌های اقتصادی آگاه خواهند شد.

در بررسی هوش مصنوعی مسئول، این دوره بر اهمیت توسعه سیستم‌های هوش مصنوعی قابل اعتماد تأکید می‌کند. دانشجویان درباره اصول اساسی هوش مصنوعی مسئول، مانند شفافیت، پاسخگویی و طراحی انسان‌ محور که برای ساخت فناوری‌های اخلاقی هوش مصنوعی ضروری هستند، خواهند آموخت. دوره همچنین به سیستم‌های هوش مصنوعی با حفظ حریم خصوصی می‌پردازد و توازن بین کارایی داده و حفاظت از حریم خصوصی را مورد بحث قرار می‌دهد. برای اطمینان از اینکه دانشجویان چشم‌انداز قانونی جهانی را درک کنند، این دوره شامل بررسی استانداردهای بین‌المللی برای هوش مصنوعی قابل اعتماد و نیز شامل چارچوب‌هایی است که توسط سازمان‌هایی مانند OECD و اتحادیه اروپا ایجاد شده‌اند.

یک جنبه کلیدی این دوره، آمادگی جامع برای گواهینامه AI Governance Professional (AIGP) Certification است. این گواهینامه بر تجهیز حرفه‌ای‌ها با دانش و مهارت‌ها برای ناوبری چالش‌های اخلاقی، قانونی و حاکمیت که توسط فناوری‌های هوش مصنوعی مطرح می‌شود، تمرکز دارد. گواهینامه AIGP مزایای قابل توجهی به همراه دارد که شامل افزایش اعتبار در اخلاق و حاکمیت هوش مصنوعی، درک عمیق از چارچوب‌های قانونی جهانی هوش مصنوعی و توانایی مدیریت مؤثر ریسک‌های هوش مصنوعی در صنایع مختلف است. با دریافت این گواهینامه، دانشجویان بهتر قادر خواهند بود سازمان‌ها را در پیاده‌سازی شیوه‌های مسئولانه هوش مصنوعی رهبری کرده و از تطابق با قوانین در حال تحول اطمینان حاصل کنند.

جنبه مهم دیگری از این دوره، درک چارچوب‌های قانونی و نظارتی است که توسعه و استقرار هوش مصنوعی را رهبری می‌کند. دانشجویان درباره قوانین و مقررات خاص هوش مصنوعی، از جمله قوانین عدم تبعیض و حفاظت از حریم خصوصی که به کاربردهای هوش مصنوعی اعمال می‌شود، خواهند آموخت. این بخش از دوره به بررسی عمیق تلاش‌های قانونی کلیدی در سطح جهانی پرداخته و شامل اقداماتی مانند قانون سرویس‌های دیجیتال اتحادیه اروپا و مفاد مرتبط با هوش مصنوعی GDPR می‌باشد. با درک این چارچوب‌ها، دانشجویان بینش لازم را برای ناوبری ملاحظات قانونی هنگام استقرار سیستم‌های هوش مصنوعی کسب خواهند کرد.

در نهایت، این دوره دانشجویان را از طریق چرخه عمر توسعه هوش مصنوعی راهنمایی می‌کند و بر جنبه‌های نظری برنامه‌ریزی، حاکمیت و مدیریت ریسک تأکید دارد. دانشجویان یاد می‌گیرند که چگونه اهداف کسب‌وکار برای پروژه‌های هوش مصنوعی را تعریف کنند، ساختارهای حاکمیت را ایجاد کنند و به چالش‌های مرتبط با استراتژی داده و انتخاب مدل بپردازند. ملاحظات اخلاقی در معماری سیستم‌های هوش مصنوعی نیز مورد بررسی قرار گرفته و بر اهمیت انصاف، شفافیت و پاسخگویی تأکید می‌شود. این دوره با بحث درباره مدیریت پس از استقرار سیستم‌های هوش مصنوعی، شامل نظارت، اعتبارسنجی و اطمینان از عملکرد اخلاقی در طول چرخه عمر سیستم خاتمه می‌یابد.

به طور کلی، این دوره یک اصول نظری جامع در هوش مصنوعی و یادگیری ماشین را ارائه می‌دهد و بر ملاحظات اخلاقی، اجتماعی و قانونی که برای توسعه و استقرار مسئولانه فناوری‌های هوش مصنوعی ضروری است، تمرکز دارد. این دوره به دانشجویان نه تنها درک قوی از حاکمیت هوش مصنوعی و تأثیرات اجتماعی آن ارائه می‌دهد بلکه آنها را برای دریافت گواهینامه معتبر حرفه‌ای AI Governance Professional (AIGP) Certification آماده می‌کند که چشم‌انداز شغلی آنها را در حوزه در حال تحول حاکمیت هوش مصنوعی تقویت می‌کند.

این دوره برای چه کسانی مناسب است؟

  • رهبران مشتاق هوش مصنوعی که به دنبال دانش جامع در حاکمیت هوش مصنوعی هستند.
  • حرفه‌ای‌های هوش مصنوعی که به دنبال افزایش تخصص خود در شیوه‌های اخلاقی هوش مصنوعی هستند.
  • تصمیم‌گیرندگان سیاست که به درک چشم‌اندازهای نظارتی هوش مصنوعی علاقه‌مند هستند.
  • متخصصان مدیریت ریسک که بر چالش‌ها و راه‌حل‌های مرتبط با هوش مصنوعی تمرکز دارند.
  • استراتژیست‌های شرکتی که به دنبال پیاده‌سازی اقدامات مؤثر برای حاکمیت هوش مصنوعی هستند.
  • دانشمندان و پژوهشگرانی که به بررسی تأثیرات اخلاقی و اجتماعی هوش مصنوعی می‌پردازند.
  • کارمندان بخش عمومی که در توسعه و پیاده‌سازی سیاست‌های هوش مصنوعی فعال هستند.
  • افرادی که به شیوه‌های مسئولانه و برابر در حاکمیت هوش مصنوعی متعهد هستند.

گواهینامه AI Governance Professional (AIGP) Certification و تسلط به هوش مصنوعی

  • مقدمه بخش 01:54
  • آشنایی با هوش مصنوعی و یادگیری ماشین 08:07
  • مطالعه موردی - AI-Diagnosis - تحول در مراقبت‌های بهداشتی با هوش مصنوعی و یادگیری ماشین 07:42
  • انواع سیستم‌های هوش مصنوعی - هوش مصنوعی محدود در مقابل هوش مصنوعی عمومی 07:09
  • مطالعه موردی - ناوبری حاکمیت هوش مصنوعی 07:29
  • مبانی یادگیری ماشین و متدهای آموزشی 08:28
  • مطالعه موردی - تقویت پیش‌بینی ریزش مشتری 06:12
  • یادگیری عمیق، Generative AI و مدل‌های ترنسفرمر 08:38
  • مطالعه موردی - هوش مصنوعی تحول‌آفرین - یکپارچه‌سازی یادگیری عمیق 07:39
  • پردازش زبان طبیعی و مدل‌های مولتی مودال 07:37
  • مطالعه موردی - تحول در مراقبت‌های بهداشتی و آموزش با NLP و هوش مصنوعی مولتی مودال 08:19
  • سیستم‌های هوش مصنوعی فنی‌-اجتماعی و همکاری بین‌رشته‌ای 07:34
  • مطالعه موردی - یکپارچه‌سازی برتری فنی و مسئولیت اجتماعی 08:00
  • تاریخچه و تکامل هوش مصنوعی و علم داده 05:42
  • مطالعه موردی - پل زدن بین گذشته و وضعیت حال هوش مصنوعی 08:17
  • خلاصه بخش 02:06
  • مقدمه بخش 01:54
  • آسیب‌های فردی - حقوق مدنی، ایمنی و تأثیرات اقتصادی 06:26
  • مطالعه موردی - ناوبری چالش‌های هوش مصنوعی 08:24
  • آسیب‌های گروهی - تبعیض و سوگیری در سیستم‌های هوش مصنوعی 07:38
  • مطالعه موردی - رسیدگی به سوگیری‌های هوش مصنوعی 09:07
  • آسیب‌های اجتماعی - دموکراسی، آموزش و اعتماد عمومی 04:41
  • مطالعه موردی - تأثیر هوش مصنوعی بر دموکراسی، آموزش و اعتماد عمومی 07:46
  • ریسک‌های سازمانی - تهدیدات اعتباری، فرهنگی و اقتصادی 06:59
  • مطالعه موردی - ناوبری حاکمیت هوش مصنوعی 08:45
  • تأثیرات محیطی و اکوسیستمی هوش مصنوعی 07:28
  • مطالعه موردی - تعادل پیشرفت هوش مصنوعی با پایداری 07:46
  • توزیع مجدد مشاغل و فرصت‌های اقتصادی به دلیل هوش مصنوعی 06:02
  • مطالعه موردی - تعادل بین یکپارچه‌سازی هوش مصنوعی و مهارت آموزی مجدد نیروی کار 07:49
  • تأثیر هوش مصنوعی بر دسترسی به نیروی کار و آموزش 06:45
  • مطالعه موردی - رویکرد استراتژیک TechNova به مهارت آموزی مجدد نیروی کار 08:40
  • خلاصه بخش 01:44
  • مقدمه بخش 02:00
  • اصول اساسی هوش مصنوعی مسئول 05:57
  • مطالعه موردی - ساخت هوش مصنوعی اخلاقی 08:02
  • سیستم‌های هوش مصنوعی انسان‌ محور 06:28
  • مطالعه موردی - هوش مصنوعی انسان‌ محور برای مدیریت ترافیک شهری 08:18
  • شفافیت، توضیح پذیری و پاسخگویی در هوش مصنوعی 08:59
  • مطالعه موردی - تعادل بین نوآوری و اخلاق 07:24
  • سیستم‌های هوش مصنوعی ایمن، مطمئن و مقاوم 07:34
  • مطالعه موردی - اطمینان از هوش مصنوعی اخلاقی، ایمن و مقاوم 10:14
  • سیستم‌های هوش مصنوعی با حفظ حریم خصوصی و حفاظت از داده‌ 08:43
  • مطالعه موردی - تعادل بین یوتیلیتی داده و حریم خصوصی در هوش مصنوعی 09:47
  • استانداردهای OECD و اتحادیه اروپا برای هوش مصنوعی قابل اعتماد 07:29
  • مطالعه موردی - ناوبری چالش‌های اخلاقی در نوآوری مراقبت‌های بهداشتی هوش مصنوعی محور 08:04
  • مقایسه راهنماهای اخلاقی جهانی برای هوش مصنوعی 09:03
  • مطالعه موردی - ناوبری استانداردهای اخلاقی جهانی برای هوش مصنوعی 06:38
  • خلاصه بخش 01:53
  • مقدمه بخش 01:45
  • بررسی قوانین و مقررات خاص هوش مصنوعی 07:13
  • مطالعه موردی - ناوبری مقررات جهانی هوش مصنوعی 08:05
  • قوانین عدم تبعیض و کاربردهای هوش مصنوعی 06:22
  • مطالعه موردی - کاهش سوگیری هوش مصنوعی - سفر DiversiHires به سوی انصاف 08:01
  • قوانین ایمنی محصولات برای سیستم‌های هوش مصنوعی 07:40
  • مطالعه موردی - اطمینان از ایمنی هوش مصنوعی 07:02
  • حفاظت از داده‌ و حریم خصوصی در سیستم‌های هوش مصنوعی 07:26
  • مطالعه موردی - تعادل بین نوآوری هوش مصنوعی با حریم خصوصی و اخلاق 08:23
  • مالکیت معنوی و هوش مصنوعی - ملاحظات قانونی 07:12
  • مطالعه موردی - ناوبری قوانین هوش مصنوعی و قانون IP 09:08
  • مولفه‌های کلیدی قانون سرویس‌های دیجیتال اتحادیه اروپا 07:06
  • مطالعه موردی - ناوبری انطباق با DSA 07:09
  • تقاطع الزامات هوش مصنوعی و GDPR 07:50
  • مطالعه موردی - تعادل بین نوآوری هوش مصنوعی و انطباق با GDPR 07:05
  • خلاصه بخش 02:02
  • مقدمه بخش 02:00
  • بررسی قانون هوش مصنوعی اتحادیه اروپا و دسته‌بندی‌های ریسک آن 06:59
  • مطالعه موردی - پیاده‌سازی قانون هوش مصنوعی اتحادیه اروپا 09:36
  • الزامات سیستم‌های هوش مصنوعی با ریسک بالا و مدل‌های بنیادی 06:01
  • مطالعه موردی - اطمینان از استقرار اخلاقی و مؤثر هوش مصنوعی با ریسک بالا 09:27
  • مکانیزم‌های اطلاع‌رسانی و اجرای قانون هوش مصنوعی اتحادیه اروپا 07:07
  • مطالعه موردی - پاسخ استراتژیک TechNova به چالش‌های انطباق با قانون هوش مصنوعی اتحادیه اروپا 09:07
  • قانون هوش مصنوعی و داده‌ کانادا (لایحه C-27) 07:42
  • مطالعه موردی - تعادل بین نوآوری و حاکمیت اخلاقی هوش مصنوعی 09:15
  • مولفه‌های کلیدی قوانین ایالتی مرتبط با هوش مصنوعی در ایالات متحده 06:46
  • مطالعه موردی ناوبری مقررات هوش مصنوعی 07:36
  • پیش‌نویس مقررات چین درباره Generative AI 06:53
  • مطالعه موردی - ناوبری مقررات هوش مصنوعی در چین 09:19
  • هماهنگی قوانین جهانی هوش مصنوعی و چارچوب‌های مدیریت ریسک 06:35
  • مطالعه موردی - هماهنگی قوانین جهانی هوش مصنوعی 08:41
  • خلاصه بخش 01:48
  • مقدمه بخش 02:41
  • تعریف اهداف کسب‌وکار و دامنه سیستم هوش مصنوعی 06:17
  • مطالعه موردی - بهینه‌سازی خدمات مشتری با هوش مصنوعی 06:19
  • تعیین ساختارها و مسئولیت‌های حاکمیت هوش مصنوعی 06:18
  • مطالعه موردی - حاکمیت هوش مصنوعی اخلاقی 08:35
  • استراتژی داده - جمع‌آوری، برچسب‌گذاری و پاکسازی 06:51
  • مطالعه موردی - موفقیت چت‌بات هوش مصنوعی TechNova 07:09
  • انتخاب مدل - دقت در برابر تفسیرپذیری 08:04
  • مطالعه موردی - تعادل بین دقت و تفسیرپذیری در هوش مصنوعی 07:11
  • طراحی اخلاقی در معماری سیستم‌های هوش مصنوعی 07:17
  • مطالعه موردی - تعهد FairAI به انصاف، شفافیت و پاسخگویی 09:58
  • درک چالش‌های حاکمیت در برنامه‌ریزی هوش مصنوعی 05:43
  • مطالعه موردی - چالش‌های حاکمیت در برنامه‌ریزی هوش مصنوعی 09:48
  • همکاری تیمی بین‌رشته‌ای در برنامه‌ریزی هوش مصنوعی 07:38
  • مطالعه موردی - هم‌افزایی بین‌رشته‌ای 07:44
  • خلاصه بخش 01:31
  • مقدمه بخش 02:26
  • مهندسی ویژگی برای مدل‌های هوش مصنوعی 07:00
  • مطالعه موردی - تقویت تحلیل‌های پیش‌بینانه سلامت 07:40
  • آموزش مدل - تکنیک‌ها و بهترین شیوه‌ها 07:31
  • مطالعه موردی - بهینه‌سازی هوش مصنوعی برای تشخیص بیماری‌های نادر 09:08
  • فرآیندهای اعتبارسنجی و تست مدل 07:45
  • مطالعه موردی - تست‌های دقیق و ملاحظات اخلاقی 08:16
  • تست مدل‌های هوش مصنوعی با موارد حاشیه‌ای و ورودی‌های متضاد 07:38
  • مطالعه موردی - اطمینان از استحکام و قابلیت اطمینان در هوش مصنوعی پهپادهای خودران 06:06
  • تکنیک‌های یادگیری ماشین با حفظ حریم خصوصی 06:28
  • مطالعه موردی - تعادل بین حریم خصوصی و کارایی 08:38
  • ارزیابی‌های تکرارپذیری و فکت شیت‌های مدل 06:10
  • مطالعه موردی - اطمینان از قابلیت اعتماد و شفافیت مدل‌ هوش مصنوعی 07:50
  • انجام ارزیابی‌های تأثیر الگوریتم 07:08
  • مطالعه موردی - اطمینان از انصاف و پاسخگویی 06:43
  • خلاصه بخش 02:05
  • مقدمه بخش 02:31
  • ایجاد چارچوب‌های مدیریت ریسک هوش مصنوعی 06:10
  • مطالعه موردی - مدیریت ریسک جامع هوش مصنوعی 07:09
  • زیرساخت حاکمیت هوش مصنوعی - نقش‌ها و مسئولیت‌های کلیدی 07:12
  • مطالعه موردی - حاکمیت جامع هوش مصنوعی 09:55
  • همکاری بین‌رشته‌ای در حاکمیت هوش مصنوعی 06:13
  • مطالعه موردی - همکاری بین‌رشته‌ای 06:13
  • الزامات نظارتی هوش مصنوعی و رویه‌های انطباق 09:15
  • مطالعه موردی - مسیر TechNova به سوی هوش مصنوعی اخلاقی و منطبق 08:38
  • ایجاد فرهنگ هوش مصنوعی مسئول درون سازمان‌ها 08:30
  • مطالعه موردی - ایجاد هوش مصنوعی مسئول 07:55
  • ارزیابی سطح بلوغ هوش مصنوعی در عملکردهای کسب‌وکار 07:25
  • مطالعه موردی - تقویت بلوغ هوش مصنوعی 07:09
  • مدیریت ریسک‌های شخص ثالث در سیستم‌های هوش مصنوعی 06:55
  • مطالعه موردی - مدیریت ریسک‌های شخص ثالث در هوش مصنوعی 08:48
  • خلاصه بخش 01:38
  • مقدمه بخش 01:54
  • تعریف دامنه پروژه‌های هوش مصنوعی - شناسایی اهداف کلیدی 07:22
  • مطالعه موردی - تعیین دامنه استراتژیک پروژه‌های هوش مصنوعی 06:13
  • نگاشت ریسک‌های هوش مصنوعی - شناسایی تهدیدات داخلی و خارجی 06:35
  • مطالعه موردی - غلبه بر چالش‌ها در توسعه ابزار استخدامی هوش مصنوعی محور 08:27
  • توسعه استراتژی‌های کاهش ریسک برای پروژه‌های هوش مصنوعی 06:33
  • مطالعه موردی - استراتژی‌های جامع مدیریت ریسک برای پروژه‌های موفق هوش مصنوعی 07:48
  • ساخت ماتریس آسیب برای ارزیابی ریسک هوش مصنوعی 07:56
  • مطالعه موردی - ماتریس آسیب - کاهش ریسک‌ها در تشخیص سرطان هوش مصنوعی محور 08:51
  • انجام ارزیابی‌های تأثیر الگوریتم 08:04
  • مطالعه موردی - الگوریتم استخدام بر اساس هوش مصنوعی TechNova 06:08
  • تعامل با ذینفعان در مدیریت ریسک هوش مصنوعی 05:53
  • مطالعه موردی - اطمینان از اخلاقی بودن هوش مصنوعی 09:18
  • مبدأ داده، نسب و دقت در سیستم‌های هوش مصنوعی 07:46
  • مطالعه موردی - اطمینان از یکپارچگی و شفافیت داده‌ در سیستم‌های هوش مصنوعی 05:42
  • خلاصه بخش 01:36
  • مقدمه بخش 01:55
  • نظارت و اعتبارسنجی مداوم سیستم‌های هوش مصنوعی 06:29
  • مطالعه موردی - نظارت مداوم و نظارت اخلاقی 07:33
  • تست پس از وقوع برای دقت و کارایی سیستم‌های هوش مصنوعی 05:57
  • مطالعه موردی - اطمینان از دقت، انصاف و استحکام ابزارهای هوش مصنوعی 07:28
  • مدیریت سوگیری اتوماسیون در سیستم‌های هوش مصنوعی 06:40
  • مطالعه موردی - تعادل بین هوش مصنوعی و قضاوت بالینی 06:47
  • نسخه‌بندی مدل و بروزرسانی‌ها - بهترین شیوه‌ها 06:10
  • مطالعه موردی - نسخه‌بندی ساختاریافته مدل‌ هوش مصنوعی 07:14
  • مدیریت ریسک‌های شخص ثالث پس از استقرار 07:12
  • مطالعه موردی - مدیریت ریسک‌های شخص ثالث 07:55
  • کاهش استفاده غیرعمد و آسیب‌های پایین‌دستی در سیستم‌های هوش مصنوعی 05:31
  • مطالعه موردی - حاکمیت اخلاقی و شفافیت در مراقبت‌های بهداشتی هوش مصنوعی محور 07:10
  • برنامه‌ریزی برای غیرفعال‌سازی سیستم‌های هوش مصنوعی و پایان سیستم 06:49
  • مطالعه موردی - استراتژی‌های مؤثر برای غیرفعال‌سازی سیستم‌های هوش مصنوعی 07:46
  • خلاصه بخش 02:06
  • مقدمه بخش 02:12
  • ایجاد چارچوب حسابرسی جهانی هوش مصنوعی 07:19
  • مطالعه موردی - چارچوب حسابرسی جهانی هوش مصنوعی 07:19
  • تعیین استانداردهای حسابرسی هوش مصنوعی و اقدامات انطباق 06:58
  • مطالعه موردی - پیاده‌سازی حسابرسی اخلاقی هوش مصنوعی 08:12
  • پاسخگویی در سیستم‌های تصمیم‌گیری خودکار 06:50
  • مطالعه موردی - اطمینان از پاسخگویی و انصاف در تأیید وام‌های هوش مصنوعی محور 07:02
  • تقویت حاکمیت هوش مصنوعی با ابزارهای انطباق خودکار 06:40
  • مطالعه موردی - تقویت حاکمیت هوش مصنوعی 06:36
  • معضلات اخلاقی در حاکمیت و استقرار هوش مصنوعی 08:27
  • مطالعه موردی - ناوبری چالش‌های اخلاقی در استقرار هوش مصنوعی 08:59
  • درک شکست‌های هوش مصنوعی - سوگیری‌ها، توهمات و خطاها 05:26
  • مطالعه موردی - کاهش سوگیری‌ها، توهمات و خطاهای هوش مصنوعی 09:39
  • مدیریت تغییرات فرهنگی و رفتاری در تیم‌های هوش مصنوعی 07:52
  • مطالعه موردی -سفر TechNova در مدیریت تغییرات فرهنگی و رفتاری 08:13
  • خلاصه بخش 01:34
  • مقدمه بخش 02:30
  • پیشرفت‌ها در Generative AI و مدل‌های هوش مصنوعی مولتی مودال 07:59
  • مطالعه موردی - تحول در مراقبت‌های بهداشتی با Generative AI و هوش مصنوعی مولتی مودال 07:02
  • پردازش زبان طبیعی (NLP) و مدل‌های زبانی بزرگ 05:56
  • مطالعه موردی - تحول در پشتیبانی مشتری با NLP و LLMs 07:50
  • هوش مصنوعی در رباتیک، اتوماسیون و سیستم‌های خودران 06:19
  • مطالعه موردی - نوآوری‌های هوش مصنوعی محور 09:18
  • نقش هوش مصنوعی در متاورس، واقعیت افزوده و واقعیت مجازی 06:47
  • مطالعه موردی - یکپارچه‌سازی هوش مصنوعی در متاورس 07:33
  • روندهای نوظهور در هوش مصنوعی برای مراقبت‌های بهداشتی و پزشکی 05:53
  • مطالعه موردی - تحول در هوش مصنوعی برای مراقبت‌های بهداشتی 06:28
  • هوش مصنوعی در کاربردهای محیطی و پایداری 07:44
  • مطالعه موردی - پایداری مجهز به هوش مصنوعی 08:13
  • پیش‌بینی آینده هوش مصنوعی - روندها و چالش‌ها 05:57
  • مطالعه موردی - هوش مصنوعی در مراقبت‌های بهداشتی - تعادل بین نوآوری، اخلاق و حاکمیت 08:17
  • خلاصه بخش 01:50
  • مقدمه بخش 03:18
  • تأثیر هوش مصنوعی بر مشاغل و فرصت‌های شغلی 06:49
  • مطالعه موردی - تحول در اشتغال 09:51
  • بازتوزیع ثروت و قدرت اقتصادی از طریق هوش مصنوعی 06:14
  • مطالعه موردی - ناوبری نابرابری، تغییرات بازار و چالش‌های قانونی 08:13
  • تأثیر هوش مصنوعی بر آموزش و یادگیری مادام‌العمر 05:41
  • مطالعه موردی - یادگیری شخصی‌ شده، کارایی و شمول در دبیرستان Westbrook 09:59
  • اعتماد عمومی به هوش مصنوعی و حاکمیت آن 08:31
  • مطالعه موردی - مطالعه موردی HealthAI درباره حاکمیت و یکپارچگی اخلاقی 08:36
  • هوش مصنوعی و فرآیندهای دموکراتیک - چالش‌ها و فرصت‌ها 06:22
  • مطالعه موردی - تأثیر هوش مصنوعی بر دموکراسی 05:46
  • ساخت سیستم‌های هوش مصنوعی فراگیر برای جوامع متنوع 07:04
  • مطالعه موردی - سفر TechNova به سیستم‌های استخدام شغلی برابر 07:30
  • مطالعه موردی - نوآوری استراتژیک و سازگاری 07:32
  • خلاصه بخش 02:04
  • مقدمه بخش 02:45
  • متدها و ابزارهای انجام حسابرسی‌های هوش مصنوعی 07:54
  • مطالعه موردی - حسابرسی جامع هوش مصنوعی در TechNova 07:58
  • ارزیابی تأثیر اجتماعی هوش مصنوعی - متریک‌ها و رویکردها 07:19
  • مطالعه موردی - ارزیابی تأثیر اجتماعی هوش مصنوعی 09:48
  • ردیابی عملکرد سیستم هوش مصنوعی پس از استقرار 06:44
  • مطالعه موردی - بهینه‌سازی هوش مصنوعی پس از استقرار 07:30
  • برطرف کردن شکست‌های سیستم هوش مصنوعی و تأثیرات منفی 07:32
  • مطالعه موردی - تقویت حاکمیت هوش مصنوعی 11:58
  • گزارش‌دهی و ارتباطات ریسک‌های سیستم‌های هوش مصنوعی 06:34
  • مطالعه موردی - اطمینان از یکپارچگی هوش مصنوعی 08:57
  • ایجاد گزارش‌های تأثیر اخلاقی هوش مصنوعی برای ذینفعان 06:26
  • مطالعه موردی - شفافیت، انصاف، حریم خصوصی، پاسخگویی و تأثیر اجتماعی 06:38
  • آماده‌سازی سیستم‌های هوش مصنوعی برای ارزیابی و بروزرسانی‌های مداوم 07:10
  • مطالعه موردی - بهبود مداوم و قابلیت اعتماد 06:52
  • خلاصه بخش 01:41
  • مقدمه بخش 02:12
  • چالش‌های قانونی هوش مصنوعی - مسئولیت و تعهدات قانونمدار 08:18
  • مطالعه موردی - مسئولیت هوش مصنوعی در حوادث وسایل نقلیه خودران 08:36
  • حقوق مالکیت معنوی و مالکیت سیستم‌های هوش مصنوعی 06:38
  • مطالعه موردی - هنر تولید شده توسط هوش مصنوعی و مالکیت معنوی 08:27
  • آموزش کاربران درباره عملکرد و محدودیت‌های هوش مصنوعی 07:37
  • مطالعه موردی - استفاده مسئولانه از هوش مصنوعی 08:01
  • رسیدگی به نیازهای ارتقای مهارت و مهارت‌آموزی مجدد نیروی کار 07:06
  • مطالعه موردی - ناوبری تحول نیروی کار هوش مصنوعی محور 09:49
  • ساخت حرفه‌ای از حسابرسان هوش مصنوعی - استانداردها و آموزش 07:15
  • مطالعه موردی - اطمینان از هوش مصنوعی اخلاقی و عادلانه 07:22
  • حاکمیت خودکار برای مسائل اخلاقی هوش مصنوعی 08:47
  • مطالعه موردی - حاکمیت اخلاقی هوش مصنوعی 07:19
  • آمادگی برای آینده حاکمیت و اخلاق هوش مصنوعی 07:07
  • مطالعه موردی - ناوبری حاکمیت اخلاقی هوش مصنوعی 08:40
  • خلاصه بخش 01:26
  • نتیجه‌گیری 03:47

10,842,500 2,168,500 تومان

مشخصات آموزش

گواهینامه AI Governance Professional (AIGP) Certification و تسلط به هوش مصنوعی

  • تاریخ به روز رسانی: 1404/06/14
  • سطح دوره:همه سطوح
  • تعداد درس:240
  • مدت زمان :27:27:32
  • حجم :5.37GB
  • زبان:دوبله زبان فارسی
  • دوره آموزشی:AI Academy

آموزش های مرتبط

The Great Courses
651,500 130,300 تومان
  • زمان: 01:39:55
  • تعداد درس: 6
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,889,000 377,800 تومان
  • زمان: 04:47:39
  • تعداد درس: 30
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,501,000 300,200 تومان
  • زمان: 03:48:11
  • تعداد درس: 47
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
10,289,500 2,057,900 تومان
  • زمان: 26:03:06
  • تعداد درس: 121
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
490,000 98,000 تومان
  • زمان: 54:55
  • تعداد درس: 18
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,797,000 359,400 تومان
  • زمان: 04:33:59
  • تعداد درس: 86
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
9,249,500 1,849,900 تومان
  • زمان: 23:25:23
  • تعداد درس: 78
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
490,000 98,000 تومان
  • زمان: 01:08:59
  • تعداد درس: 8
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
5,029,500 1,005,900 تومان
  • زمان: 12:44:39
  • تعداد درس: 121
  • سطح دوره:
  • زبان: دوبله فارسی

آیا سوالی دارید؟

ما به شما کمک خواهیم کرد تا شغل و رشد خود را افزایش دهید.
امروز با ما تماس بگیرید