دوره آموزشی
آموزش های یودمی
دوبله زبان فارسی

گواهینامه Certified AI Ethics & Governance Professional (CAEGP)

گواهینامه Certified AI Ethics & Governance Professional (CAEGP)

✅ سرفصل و جزئیات آموزش

آنچه یاد خواهید گرفت:

  • مفاهیم کلیدی و اصطلاحات اخلاق و حاکمیت هوش مصنوعی
  • اهمیت و اصول شیوه‌های هوش مصنوعی مسئول
  • مبانی هوش مصنوعی و یادگیری ماشین در کانتکس کسب‌وکار
  • چالش‌های اخلاقی مرتبط با توسعه هوش مصنوعی
  • انصاف و عدم تبعیض در سیستم‌های هوش مصنوعی
  • پاسخگویی و شفافیت در طراحی مدل‌ هوش مصنوعی
  • حفاظت از حریم خصوصی و امنیت داده‌ در کاربردهای هوش مصنوعی
  • تکنیک‌هایی برای شناسایی و کاهش سوگیری‌ها در سیستم‌های هوش مصنوعی
  • استراتژی‌هایی برای ارزیابی و کاهش ریسک در هوش مصنوعی
  • ایجاد ساختارهای حاکمیتی موثر هوش مصنوعی در سازمان‌ها
  • درک مقررات جهانی هوش مصنوعی و انطباق
  • همسویی شیوه‌های هوش مصنوعی با استانداردهای ISO و IEEE
  • پیاده‌سازی اصول حریم خصوصی بر اساس طراحی در هوش مصنوعی
  • توسعه سیاست‌های اخلاقی و چارچوب‌های حاکمیت هوش مصنوعی
  • تصمیم‌گیری هوش مصنوعی مسئول برای تعاملات مشتری
  • آمادگی برای چالش‌های اخلاقی آینده در نوآوری هوش مصنوعی

پیش‌نیازهای دوره

  • هیچ الزاماتی وجود ندارد.

توضیحات دوره

در عصری که فناوری با سرعت بی‌سابقه‌ای در حال پیشرفت است، ملاحظات اخلاقی پیرامون هوش مصنوعی (AI) به یک دغدغه حیاتی تبدیل شده است. هدف دوره هدف این است تا دانشجویان را با درک جامعی از اصول نظری مورد نیاز برای ناوبری چشم‌انداز پیچیده اخلاق و حاکمیت هوش مصنوعی تجهیز کند. این دوره با آشنایی با مفاهیم و اصطلاحات اساسی آغاز می‌شود و اطمینان حاصل می‌کند که شرکت‌کنندگان دانش منسجمی از معنای هوش مصنوعی اخلاقی کسب می‌کنند. دروس اولیه به اهمیت شیوه‌های هوش مصنوعی مسئول پرداخته و تأکید می‌کند که چرا رعایت استانداردهای اخلاقی برای توسعه‌دهندگان، کسب‌وکارها و سیاست‌گذاران بسیار حیاتی است.

دانشجویان به بینش‌هایی درباره اصول بنیادین هوش مصنوعی و یادگیری ماشین دست می‌یابند که زمینه‌ لازم برای درک نحوه تقاطع این فناوری‌ها با جامعه بزرگ را فراهم می‌کند. مباحث دوره شامل عملکردهای بنیادین فناوری‌های کلیدی هوش مصنوعی و کاربردهای وسیع آنها در صنایع مختلف است که تأثیر اجتماعی این سیستم‌ها را برجسته می‌کند. ریسک‌های احتمالی مرتبط با هوش مصنوعی، مانند سوگیری، مشکلات حریم خصوصی داده‌ و چالش‌های شفافیت، به‌منظور نشان دادن اهمیت چارچوب‌های اخلاقی پیشگیرانه مورد بررسی قرار می‌گیرند. با بررسی این مباحث بنیادین، دانشجویان بهتر می‌توانند تعادل پیچیده میان نوآوری و مسئولیت اخلاقی را درک کنند.

این دوره به اصول اخلاقی بنیادی که باید توسعه هوش مصنوعی را راهنمایی کند، می‌پردازد و بر انصاف، پاسخگویی، شفافیت و حریم خصوصی تمرکز دارد. دروس دوره به‌گونه‌ای طراحی شده‌اند که رویکردهای نظری برای جلوگیری از سوگیری در سیستم‌های هوش مصنوعی و ارتقای نتایج عادلانه را ارائه دهند. تأکید بر قابلیت توضیح‌پذیری، اطمینان حاصل می‌کند که دانشجویان اهمیت ایجاد مدل‌هایی را که می‌توانند توسط انواع ذینفعان، از توسعه‌دهندگان تا کاربران نهایی، تفسیر شده و مورد اعتماد قرار گیرند، درک کنند. علاوه بر این، حریم خصوصی و حفاظت از داده‌ در هوش مصنوعی مورد بررسی قرار می‌گیرد و بر اهمیت تعبیه این ارزش‌ها در مرحله طراحی سیستم‌های هوش مصنوعی تأکید می‌شود.

بخشی اساسی از توسعه اخلاقی هوش مصنوعی، مدیریت ریسک است که این دوره به آن می‌پردازد. دروس دوره نحوه شناسایی و ارزیابی ریسک‌های بالقوه هوش مصنوعی را ترسیم کرده و سپس استراتژی‌هایی برای مدیریت و کاهش این چالش‌ها به‌طور موثر ارائه می‌دهند. دانشجویان با چارچوب‌های مختلف مدیریت ریسک و اهمیت برنامه‌ریزی برای احتمالات به‌منظور برخورد با شکست‌های بالقوه در سیستم‌های هوش مصنوعی آشنا می‌شوند. این رویکرد نظری دانشجویان را آماده می‌کند تا به دغدغه‌های اخلاقی که ممکن است در طول چرخه عمر هوش مصنوعی به‌وجود آید، پیش‌بینی و واکنش درست داشته باشند.

حاکمیت نقش حیاتی در شکل‌گیری شیوه‌های هوش مصنوعی مسئول ایفا می‌کند. این دوره دانشجویان را با ساختارها و سیاست‌های ضروری برای حاکمیت موثر هوش مصنوعی آشنا می‌کند. دروس مربوط به توسعه و پیاده‌سازی چارچوب‌های حاکمیت، دانشجویان را راهنمایی می‌کند تا نحوه همسویی شیوه‌های هوش مصنوعی با الزامات سازمانی و قانونی را درک کنند. تأکید بر ایجاد مکانیسم‌های پاسخگویی در ساختارهای حاکمیت، مسؤولیت‌هایی را که سازمان‌ها هنگام استقرار سیستم‌های هوش مصنوعی بر عهده دارند، روشن‌تر می‌سازد.

بخش مربوط به چشم‌انداز قانونی، دانشجویان را با مقررات جهانی هوش مصنوعی، از جمله GDPR و قانون حریم خصوصی مصرف‌کننده کالیفرنیا (CCPA) آشنا می‌کند. این درس‌ها نیاز به انطباق با قوانین حفظ حریم خصوصی داده‌ و دیگر اقدامات قانونی را مورد تأکید قرار می‌دهند و اطمینان حاصل می‌کنند که دانشجویان از نحوه شکل‌گیری مقررات در استقرار اخلاقی هوش مصنوعی آگاه هستند. با درک زمینه قانونی، دانشجویان می‌توانند تقاطع بین سیاست و عمل را در حفظ استانداردهای اخلاقی درک کنند.

این دوره همچنین شامل استانداردها و راهنماهای تعیین‌شده توسط سازمان‌های پیشرو صنعتی، مانند ISO و IEEE است. این دروس به‌گونه‌ای طراحی شده‌اند که بهترین شیوه‌های نوظهور و استانداردهای در حال تکامل را که راهنمای یکپارچه سازی اخلاقی هوش مصنوعی هستند، ارائه دهند. درک این استانداردها به دانشجویان کمک می‌کند تا ظرافت‌های همسویی توسعه فناوری با بنچ‌مارک‌های اخلاقی شناخته‌شده را درک کنند.

حفظ حریم خصوصی داده‌ یکی از ارکان هوش مصنوعی اخلاقی است و این دوره درس‌هایی درباره اهمیت ایمن‌سازی داده‌ در طول فرآیندهای هوش مصنوعی ارائه می‌دهد. مباحث این بخش شامل استراتژی‌هایی برای ناشناس‌سازی و به حداقل رساندن داده‌ و رویکردهایی برای برخورد با داده‌ حساس است. با یکپارچه‌سازی دانش نظری درباره نحوه ایمن‌سازی داده‌ در سیستم‌های هوش مصنوعی، دانشجویان به خوبی برای پیشنهاد راه‌حل‌هایی که اولویت را به حریم خصوصی کاربر می‌دهند، بدون اینکه نوآوری را به خطر بیندازند، آماده می‌شوند.

بخش‌های نهایی دوره بر کاربرد اخلاقی هوش مصنوعی در کسب‌وکار متمرکز است. دروس این بخش نشان می‌دهند که چگونه می‌توان هوش مصنوعی را به‌طور مسئول در تصمیم‌گیری و تعامل با مشتری به‌کار برد تا اطمینان حاصل شود که فناوری به‌عنوان نیرویی مثبت عمل می‌کند. بررسی نظری پیرامون هوش مصنوعی برای پایداری اجتماعی، مسئولیت‌های اجتماعی گسترده‌تری را برای استفاده از هوش مصنوعی بدون فکر به سود مالی ترسیم می‌کند و به‌دنبال آثار اخلاقی است.

در طول دوره، چالش‌های سوگیری و انصاف در هوش مصنوعی، از جمله تکنیک‌های شناسایی و کاهش سوگیری بررسی می‌شود. بحث‌های مربوط به پیامدهای قانونی سوگیری عواقب، عدم پیاده‌سازی سیستم‌های هوش مصنوعی عادلانه را برجسته می‌کند. علاوه بر این، دانشجویان درباره ایجاد شفافیت و پاسخگویی در مستندسازی هوش مصنوعی می‌آموزند که توانایی آنها را در حمایت از شیوه‌های هوش مصنوعی مسئول تقویت می‌کند.

این دوره یک بررسی عمیق در اخلاق و حاکمیت هوش مصنوعی از یک دیدگاه نظری ارائه می‌دهد و بر ارتقای درک قوی از شیوه‌های مسئول و استراتژی‌های حاکمیت که برای توسعه و استقرار اخلاقی سیستم‌های هوش مصنوعی ضروری هستند، تمرکز دارد.

این دوره برای چه کسانی مناسب است؟

  • رهبران کسب‌وکار که به‌دنبال پیاده‌سازی شیوه‌های هوش مصنوعی مسئول هستند.
  • توسعه‌دهندگان هوش مصنوعی که بر طراحی مدل‌های اخلاقی و شفاف تمرکز دارند.
  • افسران انطباق که سیاست‌های حاکمیت هوش مصنوعی را مدیریت می‌کنند.
  • متخصصان فناوری که به اخلاق هوش مصنوعی و مدیریت ریسک علاقه دارند.
  • سیاست‌گذاران که به بینش‌هایی درباره مقررات و استانداردهای هوش مصنوعی نیاز دارند.
  • تحلیلگران داده که به‌دنبال درک سوگیری و انصاف در هوش مصنوعی هستند.
  • مدرسان و مربیانی که اصول اخلاقی در توسعه هوش مصنوعی را تدریس می‌کنند.

گواهینامه Certified AI Ethics & Governance Professional (CAEGP)

  • بررسی اخلاق و حاکمیت هوش مصنوعی 08:19
  • مطالعه موردی - سفر AI Nexuss به سوی راه‌حل‌های عادلانه، شفاف و خصوصی 07:10
  • اهمیت شیوه‌های هوش مصنوعی مسئول 06:08
  • مطالعه موردی - ناوبری هوش مصنوعی اخلاقی - سفر InnovateAIs 07:37
  • مفاهیم کلیدی و اصطلاحات 07:41
  • مطالعه موردی - سفر TechNovas در انصاف، شفافیت و پاسخگویی 07:19
  • آشنایی با دامنه‌های گواهینامه CAEGP 06:20
  • مطالعه موردی - ناوبری اخلاق و حاکمیت هوش مصنوعی 06:41
  • چالش‌های اخلاقی در هوش مصنوعی 07:11
  • مطالعه موردی - هوش مصنوعی اخلاقی در مراقبت‌های بهداشتی - رسیدگی به سوگیری، حریم خصوصی و شفافیت 06:26
  • مبانی هوش مصنوعی و یادگیری ماشین 06:04
  • مطالعه موردی - یکپارچه‌سازی نوآوری، اخلاق و استراتژی‌های داده محور 06:18
  • فناوری‌ها و کاربردهای کلیدی هوش مصنوعی 06:33
  • مطالعه موردی - مسیر GreenTechs به سوی راه‌حل‌های انرژی اخلاقی و نوآورانه 05:40
  • درک هوش مصنوعی در کانتکس کسب‌وکار 07:19
  • مطالعه موردی - یکپارچه‌سازی هوش مصنوعی در TechNova - سفر نوآوری استراتژیک 06:38
  • هوش مصنوعی و تأثیر آن بر جامعه 08:08
  • مطالعه موردی - تعادل بین نوآوری و اخلاق 06:34
  • ریسک‌های مرتبط با توسعه هوش مصنوعی 06:40
  • مطالعه موردی - ناوبری اخلاق و ریسک‌های هوش مصنوعی 06:09
  • انصاف و عدم تبعیض 06:40
  • مطالعه موردی - تضمین انصاف و کاهش سوگیری در هوش مصنوعی برای TechNovas 06:05
  • پاسخگویی در هوش مصنوعی 07:20
  • مطالعه موردی - تقویت پاسخگویی هوش مصنوعی - سفر InnovateAIs 07:07
  • شفافیت و توضیح پذیری 06:59
  • مطالعه موردی - شفافیت، توضیح‌پذیری و انطباق اخلاقی 05:57
  • حفظ حریم خصوصی و حفاظت از داده‌ در هوش مصنوعی 07:28
  • مطالعه موردی - تعادل بین نوآوری و حریم خصوصی 05:55
  • اجتناب از سوگیری در سیستم‌های هوش مصنوعی 07:21
  • مطالعه موردی - کاهش سوگیری هوش مصنوعی - مطالعه‌ موردی درباره چالش‌های اخلاقی 06:52
  • طراحی هوش مصنوعی برای نتایج اخلاقی 08:13
  • مطالعه موردی - رویکرد AvaTechs به سوگیری و جلب ذینفعان 06:17
  • حریم خصوصی بر اساس طراحی در هوش مصنوعی 07:29
  • مطالعه موردی - یکپارچه‌سازی حریم خصوصی بر اساس طراحی 06:50
  • توضیح‌پذیری و تفسیرپذیری در مدل‌های هوش مصنوعی 06:38
  • مطالعه موردی - تعادل بین توضیح‌پذیری و دقت 05:45
  • ارزیابی تأثیر در طراحی هوش مصنوعی 08:02
  • مطالعه موردی - سفر HealthTech به نوآوری مسئولانه 06:36
  • طراحی هوش مصنوعی متمرکز بر انسان 07:15
  • مطالعه موردی - طراحی هوش مصنوعی اخلاقی و فراگیر 05:57
  • شناسایی و ارزیابی ریسک‌های هوش مصنوعی 08:21
  • مطالعه موردی - رویکرد استراتژیک TechNovas برای پیاده‌سازی ایمن و موثر 06:00
  • چارچوب‌های مدیریت ریسک 08:04
  • مطالعه موردی - استراتژی TechNovas برای استقرار اخلاقی 06:56
  • کاهش ریسک‌ها در سیستم‌های هوش مصنوعی 05:28
  • مطالعه موردی - استراتژی‌ها برای استقرار ایمن و اخلاقی در مراقبت‌های بهداشتی 07:50
  • برنامه‌ریزی اضطراری برای شکست‌های هوش مصنوعی 06:28
  • مطالعه موردی - درس‌هایی از مطالعه موردی برنامه‌ریزی اضطراری TechNova 07:03
  • نظارت سیستم‌های هوش مصنوعی برای ریسک 08:07
  • مطالعه موردی - رویکرد DataSecure Inc.s نسبت به ریسک و حاکمیت 08:14
  • آشنایی با حاکمیت در هوش مصنوعی 06:04
  • مطالعه موردی - ناوبری چالش‌های اخلاقی در مدیریت ترافیک 06:28
  • مولفه‌های کلیدی حاکمیت هوش مصنوعی 07:18
  • مطالعه موردی - راه‌حل‌های هوش مصنوعی اخلاقی در مدیریت مراقبت‌های بهداشتی 07:57
  • توسعه چارچوب حاکمیت هوش مصنوعی 05:52
  • مطالعه موردی - طراحی چارچوب حاکمیت هوش مصنوعی اخلاقی 07:02
  • پیاده‌سازی سیاست‌های حاکمیت در هوش مصنوعی 06:58
  • مطالعه موردی - تعادل بین اخلاق، شفافیت، پاسخگویی و حریم خصوصی 06:40
  • ایجاد پاسخگویی حاکمیت 07:27
  • مطالعه موردی - تضمین هوش مصنوعی اخلاقی - سفر InnovoTechs در حاکمیت 07:05
  • بررسی مقررات هوش مصنوعی در سرتاسر جهان 07:11
  • مطالعه موردی - تعادل بین نوآوری جهانی هوش مصنوعی و انطباق در سراسر مرزها 08:24
  • GDPR و حریم خصوصی داده‌ در هوش مصنوعی 06:19
  • مطالعه موردی - تعادل بین انطباق با GDPR و نوآوری هوش مصنوعی 06:07
  • قانون حریم خصوصی مصرف‌کنندگان کالیفرنیا (CCPA) 06:43
  • مطالعه موردی - استراتژی DataGuards برای تعادل بین حریم خصوصی و نوآوری 06:26
  • مقررات هوش مصنوعی در آسیا و اروپا 06:32
  • مطالعه موردی - ناوبری مقررات هوش مصنوعی 06:10
  • سازگاری با مقررات در حال تحول هوش مصنوعی 07:21
  • مطالعه موردی - استراتژی TechNovas برای انطباق و نوآوری اخلاقی 06:04
  • استانداردهای ISO و IEEE برای هوش مصنوعی 06:56
  • مطالعه موردی - ناوبری یکپارچه‌سازی هوش مصنوعی اخلاقی در مراقبت‌های بهداشتی 07:44
  • راهنماهای اخلاق و حاکمیت هوش مصنوعی 06:09
  • مطالعه موردی - رسیدگی به سوگیری، پاسخگویی و حریم خصوصی در استخدام 06:47
  • بهترین شیوه‌ها از رهبران صنعت 07:01
  • مطالعه موردی - هوش مصنوعی اخلاقی TechNovas - تقویت حاکمیت، شفافیت و اعتماد 06:09
  • استانداردهای نوظهور در اخلاق هوش مصنوعی 07:19
  • مطالعه موردی - یکپارچه‌سازی هوش مصنوعی اخلاقی 08:42
  • انطباق با استانداردهای هوش مصنوعی 06:37
  • مطالعه موردی - ناوبری انطباق اخلاقی در هوش مصنوعی 06:57
  • اهمیت حفظ حریم خصوصی داده‌ در هوش مصنوعی 07:26
  • مطالعه موردی - تعادل بین نوآوری هوش مصنوعی و حفظ حریم خصوصی داده‌ 07:13
  • انطباق با قوانین حفاظت از داده‌ 06:57
  • مطالعه موردی - تضمین اخلاق هوش مصنوعی و انطباق در حفاظت از داده‌ 06:38
  • ناشناس‌سازی و به حداقل رساندن داده‌ 06:34
  • مطالعه موردی - سفر هوش مصنوعی اخلاقی DataGuards در حفاظت از داده‌ سلامت 05:57
  • برخورد با داده‌ حساس در سیستم‌های هوش مصنوعی 07:11
  • مطالعه موردی - رویکرد DataGuard Inc.s برای امنیت هوش مصنوعی در مراقبت‌های بهداشتی 06:54
  • تضمین امنیت داده‌ در هوش مصنوعی 06:19
  • مطالعه موردی - ناوبری چالش‌های حریم خصوصی و امنیت هوش مصنوعی با انطباق با GDPR 06:32
  • کاربردهای اخلاقی هوش مصنوعی در صنعت 05:57
  • مطالعه موردی - ناوبری چالش‌های اخلاقی در هوش مصنوعی 06:55
  • هوش مصنوعی در تصمیم‌گیری - ملاحظات اخلاقی 05:56
  • مطالعه موردی - چالش‌ها و استراتژی‌های اخلاقی در امتیازدهی اعتباری هوش مصنوعی محور 06:24
  • نقش هوش مصنوعی در تعامل با مشتری 06:45
  • مطالعه موردی - استفاده از هوش مصنوعی برای تعامل بهتر با مشتری 07:29
  • هوش مصنوعی برای خیر اجتماعی و پایداری 07:42
  • مطالعه موردی - پایداری هوش مصنوعی محور 07:32
  • یوزکیس‌های هوش مصنوعی مسئول 07:14
  • مطالعه موردی - استراتژی TechNovas برای نوآوری مسئول 06:29
  • درک سوگیری در مدل‌های هوش مصنوعی 05:54
  • مطالعه موردی - سفر TechNovas برای کاهش سوگیری در مدل‌های استخدام 06:51
  • تکنیک‌ها برای شناسایی سوگیری 05:59
  • مطالعه موردی - سفر InnovateAIs برای شناسایی چهره اخلاقی 05:54
  • متدها برای کاهش سوگیری در هوش مصنوعی 07:05
  • مطالعه موردی - مسیر Optima Technologie به سوی راه‌حل‌های عادلانه و فراگیر 06:40
  • تضمین انصاف در نتایج هوش مصنوعی 05:13
  • مطالعه موردی - رویکرد MediTechs به کاهش سوگیری در سیستم‌های هوش مصنوعی در مراقبت‌های بهداشتی 06:21
  • پیامدهای قانونی سوگیری در هوش مصنوعی 06:30
  • مطالعه موردی- استراتژی TechNovas برای سیستم‌های استخدامی عادلانه و شفاف 06:20
  • ایجاد پاسخگویی در سیستم‌های هوش مصنوعی 07:08
  • مطالعه موردی - تعبیه پاسخگویی در هوش مصنوعی 07:07
  • اهمیت شفافیت در هوش مصنوعی 07:17
  • مطالعه موردی - چالش‌های اخلاقی و عملیاتی MedAI در مراقبت‌های بهداشتی 07:07
  • شیوه‌های مستندسازی و افشا 06:41
  • مطالعه موردی - پاسخگویی و شفافیت در مراقبت‌های بهداشتی و مالی 05:41
  • گزارش‌دهی شفافیت در هوش مصنوعی 07:08
  • مطالعه موردی - تقویت شفافیت هوش مصنوعی - درس‌هایی از مطالعه موردی COMPAS 05:52
  • تعادل بین شفافیت و امنیت 08:12
  • مطالعه موردی - تعادل بین شفافیت هوش مصنوعی و امنیت در مراقبت‌های بهداشتی و امور مالی 07:08
  • ساختارهای سازمانی برای حاکمیت هوش مصنوعی 06:31
  • مطالعه موردی - تعادل بین نوآوری و پاسخگویی اخلاقی 05:36
  • نقش افسران انطباق در حاکمیت هوش مصنوعی 06:09
  • مطالعه موردی - افسران انطباق به‌عنوان تسهیل‌کننده‌های هوش مصنوعی اخلاقی در FinServe 08:22
  • یکپارچه‌سازی حاکمیت هوش مصنوعی با سیاست‌های شرکتی 08:30
  • مطالعه موردی - یکپارچه‌سازی حاکمیت هوش مصنوعی 08:23
  • توسعه برنامه‌های انطباق هوش مصنوعی 07:10
  • مطالعه موردی - ناوبری چالش‌های اخلاقی و قانونی در TechNova 06:48
  • ارزیابی و حسابرسی حاکمیت هوش مصنوعی 08:08
  • مطالعه موردی - رویکرد استراتژیک TechNovas به یکپارچه‌سازی هوش مصنوعی اخلاقی 07:00
  • تأثیر هوش مصنوعی بر اشتغال و جامعه 06:23
  • مطالعه موردی - تعادل بین نوآوری، حریم خصوصی و همدلی انسانی 06:36
  • چالش‌های اخلاقی با سیستم‌های خودران 07:05
  • مطالعه موردی - ناوبری چالش‌های اخلاقی در سیستم‌های خودمختار 07:22
  • هوش مصنوعی در اجرای قانون و نظارت 06:25
  • مطالعه موردی - تعادل بین نوآوری هوش مصنوعی و اخلاق در اجرای قانون در Metropolis 07:07
  • آینده هوش مصنوعی در پزشکی و مراقبت‌های بهداشتی 07:31
  • مطالعه موردی - بهبود مراقبت از بیمار و اخلاق در مرکز پزشکی Evergreen 06:43
  • آمادگی برای چالش‌های اخلاقی آینده 07:43
  • مطالعه موردی - چالش‌های انصاف، حریم خصوصی و شفافیت در سرویس‌های عمومی 06:57
  • ساخت فرهنگ اخلاقی در توسعه هوش مصنوعی 06:42
  • مطالعه موردی - تعبیه اخلاق در هوش مصنوعی 06:51
  • آموزش کارکنان درباره اخلاق و حاکمیت هوش مصنوعی 06:08
  • مطالعه موردی - پرورش شیوه‌های اخلاقی در هوش مصنوعی 07:05
  • تعامل با ذینفعان در شیوه‌های اخلاقی هوش مصنوعی 07:04
  • مطالعه موردی - تعامل با ذینفعان اخلاقی در مراقبت‌های بهداشتی هوش مصنوعی 08:10
  • توسعه استراتژی‌های ارتباطی اخلاقی هوش مصنوعی 07:10
  • مطالعه موردی - طراحی ارتباطات اخلاقی در هوش مصنوعی 05:41
  • ارزیابی اثربخشی آموزش و ارتباطات 07:16
  • مطالعه موردی - ارزیابی آموزش اخلاق هوش مصنوعی - استراتژی و چالش‌های InnovateAIs 07:06
  • نتیجه گیری 02:56

7,202,000 1,440,400 تومان

مشخصات آموزش

گواهینامه Certified AI Ethics & Governance Professional (CAEGP)

  • تاریخ به روز رسانی: 1404/06/14
  • سطح دوره:همه سطوح
  • تعداد درس:151
  • مدت زمان :18:14:07
  • حجم :10.27GB
  • زبان:دوبله زبان فارسی
  • دوره آموزشی:AI Academy

آموزش های مرتبط

The Great Courses
651,500 130,300 تومان
  • زمان: 01:39:55
  • تعداد درس: 6
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,889,000 377,800 تومان
  • زمان: 04:47:39
  • تعداد درس: 30
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,501,000 300,200 تومان
  • زمان: 03:48:11
  • تعداد درس: 47
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
10,289,500 2,057,900 تومان
  • زمان: 26:03:06
  • تعداد درس: 121
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
490,000 98,000 تومان
  • زمان: 54:55
  • تعداد درس: 18
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
1,797,000 359,400 تومان
  • زمان: 04:33:59
  • تعداد درس: 86
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
9,249,500 1,849,900 تومان
  • زمان: 23:25:23
  • تعداد درس: 78
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
490,000 98,000 تومان
  • زمان: 01:08:59
  • تعداد درس: 8
  • سطح دوره:
  • زبان: دوبله فارسی
The Great Courses
5,029,500 1,005,900 تومان
  • زمان: 12:44:39
  • تعداد درس: 121
  • سطح دوره:
  • زبان: دوبله فارسی

آیا سوالی دارید؟

ما به شما کمک خواهیم کرد تا شغل و رشد خود را افزایش دهید.
امروز با ما تماس بگیرید