Hooshgate Referenceراهنمای نصبمتن‌بازبازبینی: 2026-04-22

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

بهترین کاربرد

تیم‌ها و افرادی که می‌خواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.

مسیر اجرا

desktop و workstation

ملاحظه مهم

local run همیشه بهترین انتخاب نیست؛ اگر هدف شما محصول چندکاربره یا SLAدار است، باید بعد از pilot تصمیم serving را دوباره بگیرید.

دسترسی سریع

لایسنس

Practical setup guide

پیچیدگی

راهنمای onboarding عملی

تسک‌ها

چت و دستیار • کدنویسی • RAG و دانش سازمانی

مودالیته‌ها

متن و چت • چندوجهی • Embedding • صوت و گفتار

پوشش واقعی

این صفحه چه packهایی را واقعاً پوشش می‌دهد؟

مرور مدل

کامل

این صفحه باید اول به‌عنوان مرجع شناخت، fit و boundary تصمیم‌گیری قابل اتکا باشد.

آموزش عملی

کامل

سناریوی شروع و مسیر استفاده اولیه روی همین صفحه آمده است.

نصب و راه‌اندازی

کامل

این صفحه برای setup و onboarding عمیق طراحی شده است.

serving و runtime

کامل

runtime و serving path در این نوع صفحه بخش اصلی decision surface است.

پیاده‌سازی

از طریق guide مرتبط

integration اینجا فقط تا حد اشاره آمده و عمق بیشتر در guideهای مرتبط است.

سازگارسازی

تعریف نشده

در این نوع صفحه pack مستقلی برای fine-tuning تعریف نشده است.

استقرار

از طریق guide مرتبط

در این صفحه deployment فقط برای انتخاب direction آمده و جزئیات در guideهای مرتبط است.

مقایسه

خلاصه روی همین صفحه

مقایسه در این نوع صفحه برای ایجاد context آمده، نه به‌عنوان matrix کامل.

ارزیابی

خلاصه روی همین صفحه

در setup guide ارزیابی بیشتر در حد readiness check می‌آید.

منابع رسمی

کامل

منابع رسمی و مسیر مطالعه بیشتر باید روی هر صفحه کامل و شفاف باشد.

مرور مدل

این مدل چیست و کجا می‌درخشد؟

این صفحه یکی از مهم‌ترین guideهای D3 است چون به سؤال ساده اما حیاتی پاسخ می‌دهد: «برای local run کدام مسیر از همه ساده‌تر است؟»

قانون ساده ما این است: برای GUI و demo سراغ LM Studio، برای local API سراغ Ollama، و برای GGUF/edge/control بیشتر سراغ llama.cpp بروید.

Windows، macOS و Linux مسیر یکسان ندارند؛ این guide تفاوت‌ها را شفاف می‌کند.

نقاط قوت

  • مسیر شروع روشن بر اساس سیستم‌عامل
  • توضیح تفاوت desktop، local API و GGUF
  • کمک به تصمیم‌گیری قبل از پیچیده‌کردن stack

محدودیت‌ها

  • برای production serving کافی نیست
  • hardware ceiling محلی را از بین نمی‌برد

تفاوت کلیدی

سه نکته‌ای که این خانواده را از گزینه‌های هم‌رده جدا می‌کند.

نکته 1

برخلاف صفحه‌های tool-specific، اینجا روی «انتخاب مسیر» تمرکز داریم.

برای چه مناسب است

  • تیم‌ها و افرادی که می‌خواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.
  • وقتی در مرحله discovery هستید
  • وقتی تک‌کاربر یا تیم کوچک دارید

برای چه مناسب نیست

  • local run همیشه بهترین انتخاب نیست؛ اگر هدف شما محصول چندکاربره یا SLAدار است، باید بعد از pilot تصمیم serving را دوباره بگیرید.
  • وقتی محصول چندکاربره یا SLAدار می‌سازید

آموزش عملی

اولین local run بدون سردرگمی

کاربر می‌خواهد ظرف یک روز مدل را روی سیستم خودش اجرا کند و بسنجد

مرحله 1

هدف را روشن کنید: GUI demo، local API یا GGUF/edge.

مرحله 2

مسیر مناسب سیستم‌عامل و سخت‌افزار خود را انتخاب کنید.

مرحله 3

یک مدل کوچک یا میانی انتخاب کنید و quality را با promptهای واقعی بسنجید.

مرحله 4

اگر local جواب داد، تازه درباره migration یا shared access تصمیم بگیرید.

نمونه ورودی

macOS با Apple Silicon یا Windows لپ‌تاپ برای تست assistant داخلی

خروجی مورد انتظار

یک local run پایدار با مدل مناسب و شناخت درست از محدودیت‌ها

خطاهای رایج

اشتباه‌هایی که معمولاً باعث می‌شوند pilot یا implementation شکست بخورد.

نکته 1

بزرگ‌ترین اشتباه، انتخاب مدل بزرگ‌تر از hardware است.

راهنمای نصب

راهنمای نصب مرحله‌به‌مرحله

Windows

برای چه مناسب است

کاربرانی که GUI می‌خواهند یا با WSL راحت‌اند

کجا مناسب نیست

کاربران non-technical که می‌خواهند server stack production بسازند

مسیر شروع

  • برای GUI از LM Studio شروع کنید.
  • برای API محلی، اگر لازم شد Ollama + WSL را بررسی کنید.
  • برای GGUF تخصصی، llama.cpp را فقط اگر واقعاً نیاز دارید انتخاب کنید.

نمونه دستور

LM Studio installer
ollama run qwen2.5

trade-off

ساده برای demoتنوع تجربه بسته به setup سیستم

macOS

برای چه مناسب است

pilot محلی، demo و local productivity

کجا مناسب نیست

جایگزین production backend

مسیر شروع

  • با LM Studio یا Ollama شروع کنید.
  • مدل را بر اساس memory و responsiveness انتخاب کنید.
  • اگر quality کافی نبود، قبل از پیچیده‌کردن stack مدل را عوض کنید.

نمونه دستور

ollama pull mistral

trade-off

onboarding عالیمحدودیت در scale

Linux

برای چه مناسب است

workstation جدی‌تر یا shared local server

کجا مناسب نیست

کسانی که فقط GUI desktop می‌خواهند

مسیر شروع

  • برای local API از Ollama یا مستقیماً vLLM staging استفاده کنید.
  • برای GGUF یا edge buildهای خاص، llama.cpp را در نظر بگیرید.
  • اگر shared access می‌خواهید، auth و reverse proxy را بیرون اضافه کنید.

نمونه دستور

ollama serve
vllm serve meta-llama/Llama-3.1-8B-Instruct

trade-off

انعطاف و ثبات بیشترنیاز به دانش فنی بیشتر

پیش‌نیازها

  • دانستن RAM/GPU تقریبی سیستم
  • ۵۰ تا ۱۰۰ گیگ فضای خالی در صورت نیاز
  • انتظار واقع‌بینانه از کیفیت

محیط‌ها

  • Windows
  • macOS
  • Linux

نکته‌های مهم

  • macOS و Apple Silicon معمولاً تجربه local روان‌تری از Windows بدون WSL می‌دهند.
  • Linux برای بعد از pilot و shared workstation مناسب‌تر است.

مرحله 1

اگر GUI می‌خواهید از LM Studio شروع کنید.

مرحله 2

اگر endpoint محلی می‌خواهید از Ollama شروع کنید.

مرحله 3

اگر GGUF، edge یا کنترل low-level می‌خواهید از llama.cpp استفاده کنید.

فلو راه‌اندازی

یک نگاه سریع برای اینکه pilot را مرحله‌به‌مرحله جلو ببرید.

بلوک 1

اگر GUI می‌خواهید از LM Studio شروع کنید.

بلوک 2

اگر endpoint محلی می‌خواهید از Ollama شروع کنید.

بلوک 3

اگر GGUF، edge یا کنترل low-level می‌خواهید از llama.cpp استفاده کنید.

نمونه دستورها

ollama pull llama3.1
Use LM Studio app
./build/bin/llama-server -m model.gguf

serving و runtime

چه زمانی local منطقی است؟

وقتی می‌خواهید prompt و use-case را سریع تست کنید.

وقتی data residency سبک لازم دارید و بار کاربر پایین است.

وقتی هنوز معلوم نیست self-host production ارزشش را دارد یا نه.

desktop GUI

کجا مناسب است

  • single-user evaluation
  • ساده
  • غیرمقیاس‌پذیر

کجا مناسب نیست

  • backend shared

مسیر شروع

گام 1

LM Studio

گام 2

shortlist model

گام 3

quality check

hardware / fit

  • desktop یا laptop با RAM کافی

latency و cost

ارزان ولی محدود به دستگاه کاربر

local API

کجا مناسب است

  • automation سبک و prototype backend
  • integration بهتر
  • ops محدود

کجا مناسب نیست

  • enterprise production

مسیر شروع

گام 1

Ollama

گام 2

backend wrapper

گام 3

timeout/fallback

hardware / fit

  • workstation یا single node

latency و cost

برای تیم کوچک منطقی، برای scale محدود

عملیات production

بعد از local چه کنیم؟

فازهای rollout

  • desktop/local pilot
  • team decision
  • migration to API or self-host serving

امنیت و policy

  • داده حساس را بی‌دلیل روی دستگاه‌های متعدد پخش نکنید

observability و review

  • pilot notes
  • decision log

maintenance و trade-off

  • مسیر migration را زود مشخص کنید

ریسک‌های رایج

چیزهایی که معمولاً pilot یا rollout را خراب می‌کنند

pitfallهای اصلی

این نکته‌ها معمولاً همان جاهایی هستند که تیم‌ها قبل از رسیدن به value عملی زمین می‌خورند.

نکته 1

بزرگ‌ترین اشتباه، یکی‌گرفتن موفقیت local demo با آمادگی برای deployment است.

مقایسه

چه زمانی local run منطقی است؟

وقتی این مدل انتخاب خوبی است

  • وقتی در مرحله discovery هستید
  • وقتی تک‌کاربر یا تیم کوچک دارید

وقتی باید سراغ گزینه دیگر رفت

  • وقتی محصول چندکاربره یا SLAدار می‌سازید

نقشه تصمیم

اگر هنوز بین این خانواده و گزینه‌های رقیب مردد هستید، از این trade-off path شروع کنید.

بلوک 1

تیم‌ها و افرادی که می‌خواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.

بلوک 2

desktop و workstation

بلوک 3

local run همیشه بهترین انتخاب نیست؛ اگر هدف شما محصول چندکاربره یا SLAدار است، باید بعد از pilot تصمیم serving را دوباره بگیرید.

مقایسه local، API و self-host

چه زمانی راهنمای شروع local روی ویندوز، مک و لینوکس بهتر است

برای onboarding سریع بهترین نقطه شروع است.

چه زمانی گزینه مقابل بهتر است

برای تصمیم استراتژیک deployment، صفحه مقایسه کامل‌تر است.

ارزیابی

Checklist local setup

مرحله 1

model را متناسب با hardware انتخاب کنید

مرحله 2

quality را روی promptهای واقعی بسنجید

مرحله 3

مسیر migration بعدی را روشن کنید

منابع رسمی

منابع رسمی و مسیر مطالعه بیشتر