راهنمای شروع local روی ویندوز، مک و لینوکس
اگر نمیدانید برای local AI از کجا شروع کنید، این صفحه مسیر سادهتر را برای Windows، macOS و Linux روشن میکند و میگوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.
بهترین کاربرد
تیمها و افرادی که میخواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.
مسیر اجرا
desktop و workstation
ملاحظه مهم
local run همیشه بهترین انتخاب نیست؛ اگر هدف شما محصول چندکاربره یا SLAدار است، باید بعد از pilot تصمیم serving را دوباره بگیرید.
پوشش واقعی
این صفحه چه packهایی را واقعاً پوشش میدهد؟
مرور مدل
کاملاین صفحه باید اول بهعنوان مرجع شناخت، fit و boundary تصمیمگیری قابل اتکا باشد.
آموزش عملی
کاملسناریوی شروع و مسیر استفاده اولیه روی همین صفحه آمده است.
نصب و راهاندازی
کاملاین صفحه برای setup و onboarding عمیق طراحی شده است.
serving و runtime
کاملruntime و serving path در این نوع صفحه بخش اصلی decision surface است.
پیادهسازی
از طریق guide مرتبطintegration اینجا فقط تا حد اشاره آمده و عمق بیشتر در guideهای مرتبط است.
سازگارسازی
تعریف نشدهدر این نوع صفحه pack مستقلی برای fine-tuning تعریف نشده است.
استقرار
از طریق guide مرتبطدر این صفحه deployment فقط برای انتخاب direction آمده و جزئیات در guideهای مرتبط است.
مقایسه
خلاصه روی همین صفحهمقایسه در این نوع صفحه برای ایجاد context آمده، نه بهعنوان matrix کامل.
ارزیابی
خلاصه روی همین صفحهدر setup guide ارزیابی بیشتر در حد readiness check میآید.
منابع رسمی
کاملمنابع رسمی و مسیر مطالعه بیشتر باید روی هر صفحه کامل و شفاف باشد.
مرور مدل
این مدل چیست و کجا میدرخشد؟
این صفحه یکی از مهمترین guideهای D3 است چون به سؤال ساده اما حیاتی پاسخ میدهد: «برای local run کدام مسیر از همه سادهتر است؟»
قانون ساده ما این است: برای GUI و demo سراغ LM Studio، برای local API سراغ Ollama، و برای GGUF/edge/control بیشتر سراغ llama.cpp بروید.
Windows، macOS و Linux مسیر یکسان ندارند؛ این guide تفاوتها را شفاف میکند.
نقاط قوت
- مسیر شروع روشن بر اساس سیستمعامل
- توضیح تفاوت desktop، local API و GGUF
- کمک به تصمیمگیری قبل از پیچیدهکردن stack
محدودیتها
- برای production serving کافی نیست
- hardware ceiling محلی را از بین نمیبرد
تفاوت کلیدی
سه نکتهای که این خانواده را از گزینههای همرده جدا میکند.
نکته 1
برخلاف صفحههای tool-specific، اینجا روی «انتخاب مسیر» تمرکز داریم.
برای چه مناسب است
- تیمها و افرادی که میخواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.
- وقتی در مرحله discovery هستید
- وقتی تککاربر یا تیم کوچک دارید
برای چه مناسب نیست
- local run همیشه بهترین انتخاب نیست؛ اگر هدف شما محصول چندکاربره یا SLAدار است، باید بعد از pilot تصمیم serving را دوباره بگیرید.
- وقتی محصول چندکاربره یا SLAدار میسازید
آموزش عملی
اولین local run بدون سردرگمی
کاربر میخواهد ظرف یک روز مدل را روی سیستم خودش اجرا کند و بسنجد
مرحله 1
هدف را روشن کنید: GUI demo، local API یا GGUF/edge.
مرحله 2
مسیر مناسب سیستمعامل و سختافزار خود را انتخاب کنید.
مرحله 3
یک مدل کوچک یا میانی انتخاب کنید و quality را با promptهای واقعی بسنجید.
مرحله 4
اگر local جواب داد، تازه درباره migration یا shared access تصمیم بگیرید.
نمونه ورودی
macOS با Apple Silicon یا Windows لپتاپ برای تست assistant داخلی
خروجی مورد انتظار
یک local run پایدار با مدل مناسب و شناخت درست از محدودیتها
خطاهای رایج
اشتباههایی که معمولاً باعث میشوند pilot یا implementation شکست بخورد.
نکته 1
بزرگترین اشتباه، انتخاب مدل بزرگتر از hardware است.
راهنمای نصب
راهنمای نصب مرحلهبهمرحله
Windows
برای چه مناسب است
کاربرانی که GUI میخواهند یا با WSL راحتاند
کجا مناسب نیست
کاربران non-technical که میخواهند server stack production بسازند
مسیر شروع
- برای GUI از LM Studio شروع کنید.
- برای API محلی، اگر لازم شد Ollama + WSL را بررسی کنید.
- برای GGUF تخصصی، llama.cpp را فقط اگر واقعاً نیاز دارید انتخاب کنید.
نمونه دستور
LM Studio installer
ollama run qwen2.5
trade-off
macOS
برای چه مناسب است
pilot محلی، demo و local productivity
کجا مناسب نیست
جایگزین production backend
مسیر شروع
- با LM Studio یا Ollama شروع کنید.
- مدل را بر اساس memory و responsiveness انتخاب کنید.
- اگر quality کافی نبود، قبل از پیچیدهکردن stack مدل را عوض کنید.
نمونه دستور
ollama pull mistral
trade-off
Linux
برای چه مناسب است
workstation جدیتر یا shared local server
کجا مناسب نیست
کسانی که فقط GUI desktop میخواهند
مسیر شروع
- برای local API از Ollama یا مستقیماً vLLM staging استفاده کنید.
- برای GGUF یا edge buildهای خاص، llama.cpp را در نظر بگیرید.
- اگر shared access میخواهید، auth و reverse proxy را بیرون اضافه کنید.
نمونه دستور
ollama serve
vllm serve meta-llama/Llama-3.1-8B-Instruct
trade-off
پیشنیازها
- دانستن RAM/GPU تقریبی سیستم
- ۵۰ تا ۱۰۰ گیگ فضای خالی در صورت نیاز
- انتظار واقعبینانه از کیفیت
محیطها
- Windows
- macOS
- Linux
نکتههای مهم
- macOS و Apple Silicon معمولاً تجربه local روانتری از Windows بدون WSL میدهند.
- Linux برای بعد از pilot و shared workstation مناسبتر است.
مرحله 1
اگر GUI میخواهید از LM Studio شروع کنید.
مرحله 2
اگر endpoint محلی میخواهید از Ollama شروع کنید.
مرحله 3
اگر GGUF، edge یا کنترل low-level میخواهید از llama.cpp استفاده کنید.
فلو راهاندازی
یک نگاه سریع برای اینکه pilot را مرحلهبهمرحله جلو ببرید.
بلوک 1
اگر GUI میخواهید از LM Studio شروع کنید.
بلوک 2
اگر endpoint محلی میخواهید از Ollama شروع کنید.
بلوک 3
اگر GGUF، edge یا کنترل low-level میخواهید از llama.cpp استفاده کنید.
نمونه دستورها
ollama pull llama3.1
Use LM Studio app
./build/bin/llama-server -m model.gguf
serving و runtime
چه زمانی local منطقی است؟
وقتی میخواهید prompt و use-case را سریع تست کنید.
وقتی data residency سبک لازم دارید و بار کاربر پایین است.
وقتی هنوز معلوم نیست self-host production ارزشش را دارد یا نه.
desktop GUI
کجا مناسب است
- single-user evaluation
- ساده
- غیرمقیاسپذیر
کجا مناسب نیست
- backend shared
مسیر شروع
گام 1
LM Studio
گام 2
shortlist model
گام 3
quality check
hardware / fit
- desktop یا laptop با RAM کافی
latency و cost
ارزان ولی محدود به دستگاه کاربر
local API
کجا مناسب است
- automation سبک و prototype backend
- integration بهتر
- ops محدود
کجا مناسب نیست
- enterprise production
مسیر شروع
گام 1
Ollama
گام 2
backend wrapper
گام 3
timeout/fallback
hardware / fit
- workstation یا single node
latency و cost
برای تیم کوچک منطقی، برای scale محدود
عملیات production
بعد از local چه کنیم؟
فازهای rollout
- desktop/local pilot
- team decision
- migration to API or self-host serving
امنیت و policy
- داده حساس را بیدلیل روی دستگاههای متعدد پخش نکنید
observability و review
- pilot notes
- decision log
maintenance و trade-off
- مسیر migration را زود مشخص کنید
ریسکهای رایج
چیزهایی که معمولاً pilot یا rollout را خراب میکنند
pitfallهای اصلی
این نکتهها معمولاً همان جاهایی هستند که تیمها قبل از رسیدن به value عملی زمین میخورند.
نکته 1
بزرگترین اشتباه، یکیگرفتن موفقیت local demo با آمادگی برای deployment است.
مقایسه
چه زمانی local run منطقی است؟
وقتی این مدل انتخاب خوبی است
- وقتی در مرحله discovery هستید
- وقتی تککاربر یا تیم کوچک دارید
وقتی باید سراغ گزینه دیگر رفت
- وقتی محصول چندکاربره یا SLAدار میسازید
نقشه تصمیم
اگر هنوز بین این خانواده و گزینههای رقیب مردد هستید، از این trade-off path شروع کنید.
بلوک 1
تیمها و افرادی که میخواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.
بلوک 2
desktop و workstation
بلوک 3
local run همیشه بهترین انتخاب نیست؛ اگر هدف شما محصول چندکاربره یا SLAدار است، باید بعد از pilot تصمیم serving را دوباره بگیرید.
مقایسه local، API و self-host
چه زمانی راهنمای شروع local روی ویندوز، مک و لینوکس بهتر است
برای onboarding سریع بهترین نقطه شروع است.
چه زمانی گزینه مقابل بهتر است
برای تصمیم استراتژیک deployment، صفحه مقایسه کاملتر است.
ارزیابی
Checklist local setup
مرحله 1
model را متناسب با hardware انتخاب کنید
مرحله 2
quality را روی promptهای واقعی بسنجید
مرحله 3
مسیر migration بعدی را روشن کنید
منابع رسمی