گواهینامه Certified AI Ethics & Governance Professional (CAEGP)
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- مفاهیم کلیدی و اصطلاحات اخلاق و حاکمیت هوش مصنوعی
- اهمیت و اصول شیوههای هوش مصنوعی مسئول
- مبانی هوش مصنوعی و یادگیری ماشین در کانتکس کسبوکار
- چالشهای اخلاقی مرتبط با توسعه هوش مصنوعی
- انصاف و عدم تبعیض در سیستمهای هوش مصنوعی
- پاسخگویی و شفافیت در طراحی مدل هوش مصنوعی
- حفاظت از حریم خصوصی و امنیت داده در کاربردهای هوش مصنوعی
- تکنیکهایی برای شناسایی و کاهش سوگیریها در سیستمهای هوش مصنوعی
- استراتژیهایی برای ارزیابی و کاهش ریسک در هوش مصنوعی
- ایجاد ساختارهای حاکمیتی موثر هوش مصنوعی در سازمانها
- درک مقررات جهانی هوش مصنوعی و انطباق
- همسویی شیوههای هوش مصنوعی با استانداردهای ISO و IEEE
- پیادهسازی اصول حریم خصوصی بر اساس طراحی در هوش مصنوعی
- توسعه سیاستهای اخلاقی و چارچوبهای حاکمیت هوش مصنوعی
- تصمیمگیری هوش مصنوعی مسئول برای تعاملات مشتری
- آمادگی برای چالشهای اخلاقی آینده در نوآوری هوش مصنوعی
پیشنیازهای دوره
- هیچ الزاماتی وجود ندارد.
توضیحات دوره
در عصری که فناوری با سرعت بیسابقهای در حال پیشرفت است، ملاحظات اخلاقی پیرامون هوش مصنوعی (AI) به یک دغدغه حیاتی تبدیل شده است. هدف دوره هدف این است تا دانشجویان را با درک جامعی از اصول نظری مورد نیاز برای ناوبری چشمانداز پیچیده اخلاق و حاکمیت هوش مصنوعی تجهیز کند. این دوره با آشنایی با مفاهیم و اصطلاحات اساسی آغاز میشود و اطمینان حاصل میکند که شرکتکنندگان دانش منسجمی از معنای هوش مصنوعی اخلاقی کسب میکنند. دروس اولیه به اهمیت شیوههای هوش مصنوعی مسئول پرداخته و تأکید میکند که چرا رعایت استانداردهای اخلاقی برای توسعهدهندگان، کسبوکارها و سیاستگذاران بسیار حیاتی است.
دانشجویان به بینشهایی درباره اصول بنیادین هوش مصنوعی و یادگیری ماشین دست مییابند که زمینه لازم برای درک نحوه تقاطع این فناوریها با جامعه بزرگ را فراهم میکند. مباحث دوره شامل عملکردهای بنیادین فناوریهای کلیدی هوش مصنوعی و کاربردهای وسیع آنها در صنایع مختلف است که تأثیر اجتماعی این سیستمها را برجسته میکند. ریسکهای احتمالی مرتبط با هوش مصنوعی، مانند سوگیری، مشکلات حریم خصوصی داده و چالشهای شفافیت، بهمنظور نشان دادن اهمیت چارچوبهای اخلاقی پیشگیرانه مورد بررسی قرار میگیرند. با بررسی این مباحث بنیادین، دانشجویان بهتر میتوانند تعادل پیچیده میان نوآوری و مسئولیت اخلاقی را درک کنند.
این دوره به اصول اخلاقی بنیادی که باید توسعه هوش مصنوعی را راهنمایی کند، میپردازد و بر انصاف، پاسخگویی، شفافیت و حریم خصوصی تمرکز دارد. دروس دوره بهگونهای طراحی شدهاند که رویکردهای نظری برای جلوگیری از سوگیری در سیستمهای هوش مصنوعی و ارتقای نتایج عادلانه را ارائه دهند. تأکید بر قابلیت توضیحپذیری، اطمینان حاصل میکند که دانشجویان اهمیت ایجاد مدلهایی را که میتوانند توسط انواع ذینفعان، از توسعهدهندگان تا کاربران نهایی، تفسیر شده و مورد اعتماد قرار گیرند، درک کنند. علاوه بر این، حریم خصوصی و حفاظت از داده در هوش مصنوعی مورد بررسی قرار میگیرد و بر اهمیت تعبیه این ارزشها در مرحله طراحی سیستمهای هوش مصنوعی تأکید میشود.
بخشی اساسی از توسعه اخلاقی هوش مصنوعی، مدیریت ریسک است که این دوره به آن میپردازد. دروس دوره نحوه شناسایی و ارزیابی ریسکهای بالقوه هوش مصنوعی را ترسیم کرده و سپس استراتژیهایی برای مدیریت و کاهش این چالشها بهطور موثر ارائه میدهند. دانشجویان با چارچوبهای مختلف مدیریت ریسک و اهمیت برنامهریزی برای احتمالات بهمنظور برخورد با شکستهای بالقوه در سیستمهای هوش مصنوعی آشنا میشوند. این رویکرد نظری دانشجویان را آماده میکند تا به دغدغههای اخلاقی که ممکن است در طول چرخه عمر هوش مصنوعی بهوجود آید، پیشبینی و واکنش درست داشته باشند.
حاکمیت نقش حیاتی در شکلگیری شیوههای هوش مصنوعی مسئول ایفا میکند. این دوره دانشجویان را با ساختارها و سیاستهای ضروری برای حاکمیت موثر هوش مصنوعی آشنا میکند. دروس مربوط به توسعه و پیادهسازی چارچوبهای حاکمیت، دانشجویان را راهنمایی میکند تا نحوه همسویی شیوههای هوش مصنوعی با الزامات سازمانی و قانونی را درک کنند. تأکید بر ایجاد مکانیسمهای پاسخگویی در ساختارهای حاکمیت، مسؤولیتهایی را که سازمانها هنگام استقرار سیستمهای هوش مصنوعی بر عهده دارند، روشنتر میسازد.
بخش مربوط به چشمانداز قانونی، دانشجویان را با مقررات جهانی هوش مصنوعی، از جمله GDPR و قانون حریم خصوصی مصرفکننده کالیفرنیا (CCPA) آشنا میکند. این درسها نیاز به انطباق با قوانین حفظ حریم خصوصی داده و دیگر اقدامات قانونی را مورد تأکید قرار میدهند و اطمینان حاصل میکنند که دانشجویان از نحوه شکلگیری مقررات در استقرار اخلاقی هوش مصنوعی آگاه هستند. با درک زمینه قانونی، دانشجویان میتوانند تقاطع بین سیاست و عمل را در حفظ استانداردهای اخلاقی درک کنند.
این دوره همچنین شامل استانداردها و راهنماهای تعیینشده توسط سازمانهای پیشرو صنعتی، مانند ISO و IEEE است. این دروس بهگونهای طراحی شدهاند که بهترین شیوههای نوظهور و استانداردهای در حال تکامل را که راهنمای یکپارچه سازی اخلاقی هوش مصنوعی هستند، ارائه دهند. درک این استانداردها به دانشجویان کمک میکند تا ظرافتهای همسویی توسعه فناوری با بنچمارکهای اخلاقی شناختهشده را درک کنند.
حفظ حریم خصوصی داده یکی از ارکان هوش مصنوعی اخلاقی است و این دوره درسهایی درباره اهمیت ایمنسازی داده در طول فرآیندهای هوش مصنوعی ارائه میدهد. مباحث این بخش شامل استراتژیهایی برای ناشناسسازی و به حداقل رساندن داده و رویکردهایی برای برخورد با داده حساس است. با یکپارچهسازی دانش نظری درباره نحوه ایمنسازی داده در سیستمهای هوش مصنوعی، دانشجویان به خوبی برای پیشنهاد راهحلهایی که اولویت را به حریم خصوصی کاربر میدهند، بدون اینکه نوآوری را به خطر بیندازند، آماده میشوند.
بخشهای نهایی دوره بر کاربرد اخلاقی هوش مصنوعی در کسبوکار متمرکز است. دروس این بخش نشان میدهند که چگونه میتوان هوش مصنوعی را بهطور مسئول در تصمیمگیری و تعامل با مشتری بهکار برد تا اطمینان حاصل شود که فناوری بهعنوان نیرویی مثبت عمل میکند. بررسی نظری پیرامون هوش مصنوعی برای پایداری اجتماعی، مسئولیتهای اجتماعی گستردهتری را برای استفاده از هوش مصنوعی بدون فکر به سود مالی ترسیم میکند و بهدنبال آثار اخلاقی است.
در طول دوره، چالشهای سوگیری و انصاف در هوش مصنوعی، از جمله تکنیکهای شناسایی و کاهش سوگیری بررسی میشود. بحثهای مربوط به پیامدهای قانونی سوگیری عواقب، عدم پیادهسازی سیستمهای هوش مصنوعی عادلانه را برجسته میکند. علاوه بر این، دانشجویان درباره ایجاد شفافیت و پاسخگویی در مستندسازی هوش مصنوعی میآموزند که توانایی آنها را در حمایت از شیوههای هوش مصنوعی مسئول تقویت میکند.
این دوره یک بررسی عمیق در اخلاق و حاکمیت هوش مصنوعی از یک دیدگاه نظری ارائه میدهد و بر ارتقای درک قوی از شیوههای مسئول و استراتژیهای حاکمیت که برای توسعه و استقرار اخلاقی سیستمهای هوش مصنوعی ضروری هستند، تمرکز دارد.
این دوره برای چه کسانی مناسب است؟
- رهبران کسبوکار که بهدنبال پیادهسازی شیوههای هوش مصنوعی مسئول هستند.
- توسعهدهندگان هوش مصنوعی که بر طراحی مدلهای اخلاقی و شفاف تمرکز دارند.
- افسران انطباق که سیاستهای حاکمیت هوش مصنوعی را مدیریت میکنند.
- متخصصان فناوری که به اخلاق هوش مصنوعی و مدیریت ریسک علاقه دارند.
- سیاستگذاران که به بینشهایی درباره مقررات و استانداردهای هوش مصنوعی نیاز دارند.
- تحلیلگران داده که بهدنبال درک سوگیری و انصاف در هوش مصنوعی هستند.
- مدرسان و مربیانی که اصول اخلاقی در توسعه هوش مصنوعی را تدریس میکنند.
گواهینامه Certified AI Ethics & Governance Professional (CAEGP)
-
بررسی اخلاق و حاکمیت هوش مصنوعی 08:19
-
مطالعه موردی - سفر AI Nexuss به سوی راهحلهای عادلانه، شفاف و خصوصی 07:10
-
اهمیت شیوههای هوش مصنوعی مسئول 06:08
-
مطالعه موردی - ناوبری هوش مصنوعی اخلاقی - سفر InnovateAIs 07:37
-
مفاهیم کلیدی و اصطلاحات 07:41
-
مطالعه موردی - سفر TechNovas در انصاف، شفافیت و پاسخگویی 07:19
-
آشنایی با دامنههای گواهینامه CAEGP 06:20
-
مطالعه موردی - ناوبری اخلاق و حاکمیت هوش مصنوعی 06:41
-
چالشهای اخلاقی در هوش مصنوعی 07:11
-
مطالعه موردی - هوش مصنوعی اخلاقی در مراقبتهای بهداشتی - رسیدگی به سوگیری، حریم خصوصی و شفافیت 06:26
-
مبانی هوش مصنوعی و یادگیری ماشین 06:04
-
مطالعه موردی - یکپارچهسازی نوآوری، اخلاق و استراتژیهای داده محور 06:18
-
فناوریها و کاربردهای کلیدی هوش مصنوعی 06:33
-
مطالعه موردی - مسیر GreenTechs به سوی راهحلهای انرژی اخلاقی و نوآورانه 05:40
-
درک هوش مصنوعی در کانتکس کسبوکار 07:19
-
مطالعه موردی - یکپارچهسازی هوش مصنوعی در TechNova - سفر نوآوری استراتژیک 06:38
-
هوش مصنوعی و تأثیر آن بر جامعه 08:08
-
مطالعه موردی - تعادل بین نوآوری و اخلاق 06:34
-
ریسکهای مرتبط با توسعه هوش مصنوعی 06:40
-
مطالعه موردی - ناوبری اخلاق و ریسکهای هوش مصنوعی 06:09
-
انصاف و عدم تبعیض 06:40
-
مطالعه موردی - تضمین انصاف و کاهش سوگیری در هوش مصنوعی برای TechNovas 06:05
-
پاسخگویی در هوش مصنوعی 07:20
-
مطالعه موردی - تقویت پاسخگویی هوش مصنوعی - سفر InnovateAIs 07:07
-
شفافیت و توضیح پذیری 06:59
-
مطالعه موردی - شفافیت، توضیحپذیری و انطباق اخلاقی 05:57
-
حفظ حریم خصوصی و حفاظت از داده در هوش مصنوعی 07:28
-
مطالعه موردی - تعادل بین نوآوری و حریم خصوصی 05:55
-
اجتناب از سوگیری در سیستمهای هوش مصنوعی 07:21
-
مطالعه موردی - کاهش سوگیری هوش مصنوعی - مطالعه موردی درباره چالشهای اخلاقی 06:52
-
طراحی هوش مصنوعی برای نتایج اخلاقی 08:13
-
مطالعه موردی - رویکرد AvaTechs به سوگیری و جلب ذینفعان 06:17
-
حریم خصوصی بر اساس طراحی در هوش مصنوعی 07:29
-
مطالعه موردی - یکپارچهسازی حریم خصوصی بر اساس طراحی 06:50
-
توضیحپذیری و تفسیرپذیری در مدلهای هوش مصنوعی 06:38
-
مطالعه موردی - تعادل بین توضیحپذیری و دقت 05:45
-
ارزیابی تأثیر در طراحی هوش مصنوعی 08:02
-
مطالعه موردی - سفر HealthTech به نوآوری مسئولانه 06:36
-
طراحی هوش مصنوعی متمرکز بر انسان 07:15
-
مطالعه موردی - طراحی هوش مصنوعی اخلاقی و فراگیر 05:57
-
شناسایی و ارزیابی ریسکهای هوش مصنوعی 08:21
-
مطالعه موردی - رویکرد استراتژیک TechNovas برای پیادهسازی ایمن و موثر 06:00
-
چارچوبهای مدیریت ریسک 08:04
-
مطالعه موردی - استراتژی TechNovas برای استقرار اخلاقی 06:56
-
کاهش ریسکها در سیستمهای هوش مصنوعی 05:28
-
مطالعه موردی - استراتژیها برای استقرار ایمن و اخلاقی در مراقبتهای بهداشتی 07:50
-
برنامهریزی اضطراری برای شکستهای هوش مصنوعی 06:28
-
مطالعه موردی - درسهایی از مطالعه موردی برنامهریزی اضطراری TechNova 07:03
-
نظارت سیستمهای هوش مصنوعی برای ریسک 08:07
-
مطالعه موردی - رویکرد DataSecure Inc.s نسبت به ریسک و حاکمیت 08:14
-
آشنایی با حاکمیت در هوش مصنوعی 06:04
-
مطالعه موردی - ناوبری چالشهای اخلاقی در مدیریت ترافیک 06:28
-
مولفههای کلیدی حاکمیت هوش مصنوعی 07:18
-
مطالعه موردی - راهحلهای هوش مصنوعی اخلاقی در مدیریت مراقبتهای بهداشتی 07:57
-
توسعه چارچوب حاکمیت هوش مصنوعی 05:52
-
مطالعه موردی - طراحی چارچوب حاکمیت هوش مصنوعی اخلاقی 07:02
-
پیادهسازی سیاستهای حاکمیت در هوش مصنوعی 06:58
-
مطالعه موردی - تعادل بین اخلاق، شفافیت، پاسخگویی و حریم خصوصی 06:40
-
ایجاد پاسخگویی حاکمیت 07:27
-
مطالعه موردی - تضمین هوش مصنوعی اخلاقی - سفر InnovoTechs در حاکمیت 07:05
-
بررسی مقررات هوش مصنوعی در سرتاسر جهان 07:11
-
مطالعه موردی - تعادل بین نوآوری جهانی هوش مصنوعی و انطباق در سراسر مرزها 08:24
-
GDPR و حریم خصوصی داده در هوش مصنوعی 06:19
-
مطالعه موردی - تعادل بین انطباق با GDPR و نوآوری هوش مصنوعی 06:07
-
قانون حریم خصوصی مصرفکنندگان کالیفرنیا (CCPA) 06:43
-
مطالعه موردی - استراتژی DataGuards برای تعادل بین حریم خصوصی و نوآوری 06:26
-
مقررات هوش مصنوعی در آسیا و اروپا 06:32
-
مطالعه موردی - ناوبری مقررات هوش مصنوعی 06:10
-
سازگاری با مقررات در حال تحول هوش مصنوعی 07:21
-
مطالعه موردی - استراتژی TechNovas برای انطباق و نوآوری اخلاقی 06:04
-
استانداردهای ISO و IEEE برای هوش مصنوعی 06:56
-
مطالعه موردی - ناوبری یکپارچهسازی هوش مصنوعی اخلاقی در مراقبتهای بهداشتی 07:44
-
راهنماهای اخلاق و حاکمیت هوش مصنوعی 06:09
-
مطالعه موردی - رسیدگی به سوگیری، پاسخگویی و حریم خصوصی در استخدام 06:47
-
بهترین شیوهها از رهبران صنعت 07:01
-
مطالعه موردی - هوش مصنوعی اخلاقی TechNovas - تقویت حاکمیت، شفافیت و اعتماد 06:09
-
استانداردهای نوظهور در اخلاق هوش مصنوعی 07:19
-
مطالعه موردی - یکپارچهسازی هوش مصنوعی اخلاقی 08:42
-
انطباق با استانداردهای هوش مصنوعی 06:37
-
مطالعه موردی - ناوبری انطباق اخلاقی در هوش مصنوعی 06:57
-
اهمیت حفظ حریم خصوصی داده در هوش مصنوعی 07:26
-
مطالعه موردی - تعادل بین نوآوری هوش مصنوعی و حفظ حریم خصوصی داده 07:13
-
انطباق با قوانین حفاظت از داده 06:57
-
مطالعه موردی - تضمین اخلاق هوش مصنوعی و انطباق در حفاظت از داده 06:38
-
ناشناسسازی و به حداقل رساندن داده 06:34
-
مطالعه موردی - سفر هوش مصنوعی اخلاقی DataGuards در حفاظت از داده سلامت 05:57
-
برخورد با داده حساس در سیستمهای هوش مصنوعی 07:11
-
مطالعه موردی - رویکرد DataGuard Inc.s برای امنیت هوش مصنوعی در مراقبتهای بهداشتی 06:54
-
تضمین امنیت داده در هوش مصنوعی 06:19
-
مطالعه موردی - ناوبری چالشهای حریم خصوصی و امنیت هوش مصنوعی با انطباق با GDPR 06:32
-
کاربردهای اخلاقی هوش مصنوعی در صنعت 05:57
-
مطالعه موردی - ناوبری چالشهای اخلاقی در هوش مصنوعی 06:55
-
هوش مصنوعی در تصمیمگیری - ملاحظات اخلاقی 05:56
-
مطالعه موردی - چالشها و استراتژیهای اخلاقی در امتیازدهی اعتباری هوش مصنوعی محور 06:24
-
نقش هوش مصنوعی در تعامل با مشتری 06:45
-
مطالعه موردی - استفاده از هوش مصنوعی برای تعامل بهتر با مشتری 07:29
-
هوش مصنوعی برای خیر اجتماعی و پایداری 07:42
-
مطالعه موردی - پایداری هوش مصنوعی محور 07:32
-
یوزکیسهای هوش مصنوعی مسئول 07:14
-
مطالعه موردی - استراتژی TechNovas برای نوآوری مسئول 06:29
-
درک سوگیری در مدلهای هوش مصنوعی 05:54
-
مطالعه موردی - سفر TechNovas برای کاهش سوگیری در مدلهای استخدام 06:51
-
تکنیکها برای شناسایی سوگیری 05:59
-
مطالعه موردی - سفر InnovateAIs برای شناسایی چهره اخلاقی 05:54
-
متدها برای کاهش سوگیری در هوش مصنوعی 07:05
-
مطالعه موردی - مسیر Optima Technologie به سوی راهحلهای عادلانه و فراگیر 06:40
-
تضمین انصاف در نتایج هوش مصنوعی 05:13
-
مطالعه موردی - رویکرد MediTechs به کاهش سوگیری در سیستمهای هوش مصنوعی در مراقبتهای بهداشتی 06:21
-
پیامدهای قانونی سوگیری در هوش مصنوعی 06:30
-
مطالعه موردی- استراتژی TechNovas برای سیستمهای استخدامی عادلانه و شفاف 06:20
-
ایجاد پاسخگویی در سیستمهای هوش مصنوعی 07:08
-
مطالعه موردی - تعبیه پاسخگویی در هوش مصنوعی 07:07
-
اهمیت شفافیت در هوش مصنوعی 07:17
-
مطالعه موردی - چالشهای اخلاقی و عملیاتی MedAI در مراقبتهای بهداشتی 07:07
-
شیوههای مستندسازی و افشا 06:41
-
مطالعه موردی - پاسخگویی و شفافیت در مراقبتهای بهداشتی و مالی 05:41
-
گزارشدهی شفافیت در هوش مصنوعی 07:08
-
مطالعه موردی - تقویت شفافیت هوش مصنوعی - درسهایی از مطالعه موردی COMPAS 05:52
-
تعادل بین شفافیت و امنیت 08:12
-
مطالعه موردی - تعادل بین شفافیت هوش مصنوعی و امنیت در مراقبتهای بهداشتی و امور مالی 07:08
-
ساختارهای سازمانی برای حاکمیت هوش مصنوعی 06:31
-
مطالعه موردی - تعادل بین نوآوری و پاسخگویی اخلاقی 05:36
-
نقش افسران انطباق در حاکمیت هوش مصنوعی 06:09
-
مطالعه موردی - افسران انطباق بهعنوان تسهیلکنندههای هوش مصنوعی اخلاقی در FinServe 08:22
-
یکپارچهسازی حاکمیت هوش مصنوعی با سیاستهای شرکتی 08:30
-
مطالعه موردی - یکپارچهسازی حاکمیت هوش مصنوعی 08:23
-
توسعه برنامههای انطباق هوش مصنوعی 07:10
-
مطالعه موردی - ناوبری چالشهای اخلاقی و قانونی در TechNova 06:48
-
ارزیابی و حسابرسی حاکمیت هوش مصنوعی 08:08
-
مطالعه موردی - رویکرد استراتژیک TechNovas به یکپارچهسازی هوش مصنوعی اخلاقی 07:00
-
تأثیر هوش مصنوعی بر اشتغال و جامعه 06:23
-
مطالعه موردی - تعادل بین نوآوری، حریم خصوصی و همدلی انسانی 06:36
-
چالشهای اخلاقی با سیستمهای خودران 07:05
-
مطالعه موردی - ناوبری چالشهای اخلاقی در سیستمهای خودمختار 07:22
-
هوش مصنوعی در اجرای قانون و نظارت 06:25
-
مطالعه موردی - تعادل بین نوآوری هوش مصنوعی و اخلاق در اجرای قانون در Metropolis 07:07
-
آینده هوش مصنوعی در پزشکی و مراقبتهای بهداشتی 07:31
-
مطالعه موردی - بهبود مراقبت از بیمار و اخلاق در مرکز پزشکی Evergreen 06:43
-
آمادگی برای چالشهای اخلاقی آینده 07:43
-
مطالعه موردی - چالشهای انصاف، حریم خصوصی و شفافیت در سرویسهای عمومی 06:57
-
ساخت فرهنگ اخلاقی در توسعه هوش مصنوعی 06:42
-
مطالعه موردی - تعبیه اخلاق در هوش مصنوعی 06:51
-
آموزش کارکنان درباره اخلاق و حاکمیت هوش مصنوعی 06:08
-
مطالعه موردی - پرورش شیوههای اخلاقی در هوش مصنوعی 07:05
-
تعامل با ذینفعان در شیوههای اخلاقی هوش مصنوعی 07:04
-
مطالعه موردی - تعامل با ذینفعان اخلاقی در مراقبتهای بهداشتی هوش مصنوعی 08:10
-
توسعه استراتژیهای ارتباطی اخلاقی هوش مصنوعی 07:10
-
مطالعه موردی - طراحی ارتباطات اخلاقی در هوش مصنوعی 05:41
-
ارزیابی اثربخشی آموزش و ارتباطات 07:16
-
مطالعه موردی - ارزیابی آموزش اخلاق هوش مصنوعی - استراتژی و چالشهای InnovateAIs 07:06
-
نتیجه گیری 02:56
مشخصات آموزش
گواهینامه Certified AI Ethics & Governance Professional (CAEGP)
- تاریخ به روز رسانی: 1404/06/14
- سطح دوره:همه سطوح
- تعداد درس:151
- مدت زمان :18:14:07
- حجم :10.27GB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy