تسلط به LLMها به صورت محلی با استفاده از Ollama - کاملاً عملی
✅ سرفصل و جزئیات آموزش
آنچه یاد خواهید گرفت:
- اصول LLMها و Ollama
- استفاده از Ollama CLI و دسکتاپ
- اجرای LLMهای متنباز مانند Gemma 3 و Llama3
- رجیستری مدل در Ollama برای بارگذاری مدلهای سفارشیشده
- تعداد توکن، طول زمینه و تنظیم دقیق با مجموعه دادههای شخصی
- کار با Ollama از طریق REST API، کتابخانه Ollama-python و یکپارچهسازی Ollama با Python و Streamlit
- تنظیم دقیق مدل به همراه نمایش عملی زنده
- ساخت یک اپلیکیشن RAG محلی
پیشنیازهای دوره
- دانش اولیه Python
- آشنایی با مفاهیم هوش مصنوعی/یادگیری ماشین (AI/ML) و LLMها
- علاقه به کار با ابزارهای متنباز برای پیادهسازی محلی هوش مصنوعی
توضیحات دوره
مدلهای زبانی بزرگ (LLMها) در مرکز انقلاب امروزی هوش مصنوعی قرار دارند و به چتباتها، سیستمهای اتوماسیون و اپلیکیشنهای هوشمند قدرت میبخشند. با این حال، پیادهسازی و سفارشیسازی آنها اغلب پیچیده و وابسته به ابر به نظر میرسد. Ollama این معادله را تغییر میدهد و اجرای، مدیریت و تنظیم دقیق LLMها را به صورت محلی روی دستگاه شما آسان میکند.
این دوره برای توسعهدهندگان، علاقهمندان به هوش مصنوعی و متخصصانی طراحی شده است که میخواهند با استفاده از Ollama به LLMها روی سختافزار/لپتاپ شخصی خود مسلط شوند. شما همهچیز را، از راهاندازی محیط تا ساخت مدلهای هوش مصنوعی سفارشی، تنظیم دقیق آنها و یکپارچهسازیشان در اپلیکیشنهای واقعی، همگی بدون اتکا به زیرساختهای گرانقیمت ابری، خواهید آموخت.
در این دوره چه چیزی پوشش داده میشود؟
مدرس دوره با اصول LLMها و Ollama شروع میکند، معماری آنها را بررسی کرده و به مقایسه Ollama با ابزارهایی مانند LangChain و Hugging Face میپردازد. پس از آن، شما Ollama را روی سیستمعاملهای مختلف راهاندازی میکنید، با ابزارهای CLI و دسکتاپ آن کار خواهید کرد و به بررسی عمیق مباحث ساخت و مدیریت مدل خواهید پرداخت.
شما پروژههای عملی خواهید ساخت، از جمله:
- ایجاد و پیکربندی مدلهای هوش مصنوعی سفارشی با استفاده از Modelfile
- یکپارچهسازی Ollama با Python و REST APIها و Streamlit
- تنظیم دقیق مدلها با مجموعه دادههای سفارشی (CSV/JSON)
- مدیریت چندین نسخه از مدلهای تنظیم دقیق شده
- ساخت اولین اپلیکیشن RAG (تولید مبتنی بر بازیابی) محلی خود با Ollama
در پایان، شما کاملاً مجهز خواهید بود تا اپلیکیشنهای پیشرفته LLM را به صورت محلی پیادهسازی و اجرا کنید، که به شما کنترل کامل، حریم خصوصی و انعطافپذیری میبخشد.
نکته ویژه
این دوره بر یادگیری عملی و کاربردی تأکید دارد. هر ماژول شامل نمایشهای عملی زنده همراه با عیبیابی در دنیای واقعی است، تا شما نه تنها تئوری، بلکه اعتماد به نفس لازم برای پیادهسازی مستقل راهحلهای LLM را نیز به دست آورید.
ساختار دوره
- درسها
- نمایشهای عملی زنده
محتوای دوره
- مقدمهای بر LLMها و Ollama
- معماری Ollama
- مقایسه - Ollama در مقابل LangChain و Hugging Face
- راهاندازی محیط Ollama
- فرمان های پرکاربرد Ollama (CLI)
- درک فایل پیکربندی مدل (Modelfile)
- کار با مدلها (پیکربندی، رجیستری، توکنها، طول زمینه)
- Ollama با Python (REST API، کتابخانه Python، رابط کاربری Streamlit)
- تنظیم دقیق مدل و مدیریت نسخه
- ساخت اولین اپلیکیشن RAG محلی شما
تمام بخشها شامل نمایشهای عملی هستند. فراگیران تشویق میشوند که محیط Ollama خود را راهاندازی کنند، تمرینها را دنبال نمایند و درک خود را از طریق یک رویکرد عملی تقویت کنند.
این دوره برای چه کسانی مناسب است؟
- مهندسان هوش مصنوعی یا یادگیری ماشین و دانشمندان داده
- علاقهمندان به هوش مصنوعی و GenAI که به دنبال اجرای محلی مدلها هستند
- مدیران فنی و مدیران محصول که در حال بررسی گزینههای پیادهسازی LLM هستند.
- توسعهدهندگان، مهندسان DevOps و مهندسان ابر علاقهمند به گردشکارهای متنباز LLM
تسلط به LLMها به صورت محلی با استفاده از Ollama - کاملاً عملی
-
مقدمه 02:08
-
معرفی بخش 00:40
-
LLMها و چالشهای پیادهسازی آنها 03:36
-
شروع کار با Ollama 03:03
-
معماری Ollama 03:14
-
مقایسه: Ollama در مقابل LangChain و Hugging Face 03:14
-
معرفی بخش 01:04
-
نمایش عملی: بررسی مستندات Ollama 04:27
-
نمایش عملی: راهاندازی Ollama (ویندوز، لینوکس، macOS) 06:31
-
آشنایی با Ollama CLI 01:08
-
نمایش عملی: فرمان های پرکاربرد Ollama (CLI) 04:21
-
نمایش عملی: راهاندازی Ollama Desktop 05:04
-
معرفی بخش 01:17
-
درک فایل پیکربندی مدل (Modelfile) 03:33
-
پارامترها در Modelfile 03:51
-
نمایش عملی: ساخت مدل هوش مصنوعی سفارشی با Modelfile 04:25
-
رجیستری مدل (Model Registry) در Ollama 02:45
-
نمایش عملی: پوش کردن مدل سفارشی به رجیستری مدل 06:06
-
تعداد توکن و طول زمینه (Context Length) 04:00
-
معرفی بخش 00:53
-
نمایش عملی: Ollama با REST API 08:15
-
نمایش عملی: کتابخانه Ollama-python 06:02
-
نمایش عملی: یکپارچهسازی Streamlit برای رابط کاربری ساده 06:07
-
معرفی بخش 00:44
-
درک مفهوم تنظیم دقیق 06:26
-
نمایش عملی: آمادهسازی مجموعه داده (CSV/JSON) 05:03
-
نمایش عملی: تنظیم دقیق مدل 08:03
-
مدیریت نسخههای مدلهای تنظیم دقیق شده 03:14
-
معرفی بخش 00:45
-
RAG چیست و چرا از آن استفاده میشود؟ 04:11
-
کامپوننت های پایپ لاین RAG 03:02
-
نمایش عملی: ساخت اپلیکیشن RAG 12:10
-
نتیجهگیری 01:30
مشخصات آموزش
تسلط به LLMها به صورت محلی با استفاده از Ollama - کاملاً عملی
- تاریخ به روز رسانی: 1404/09/07
- سطح دوره:همه سطوح
- تعداد درس:33
- مدت زمان :02:11:11
- حجم :828.0MB
- زبان:دوبله زبان فارسی
- دوره آموزشی:AI Academy