Hooshgate Referenceراهنمای نصبمتن‌بازبازبینی: 2026-04-23

مدل‌های local روی ویندوز

این setup guide دقیقاً برای کاربر ویندوز است: از local LLM روی لپ‌تاپ یا ورک‌استیشن شروع کنید، بدون اینکه pretend کنیم همه setupها یکسان هستند.

بهترین کاربرد

developer workstation ویندوز، pilot محلی، تست code assistant و تیم‌هایی که local AI را روی Windows/WSL می‌خواهند.

مسیر اجرا

Windows / WSL local-first

ملاحظه مهم

Windows setup با Linux production یکی نیست؛ local success را با production parity اشتباه نگیرید.

دسترسی سریع

لایسنس

Local open stack

پیچیدگی

عملی برای شروع ولی hardware-sensitive

تسک‌ها

چت و دستیار • کدنویسی • RAG و دانش سازمانی

مودالیته‌ها

متن و چت • چندوجهی • Embedding

پوشش واقعی

این صفحه چه packهایی را واقعاً پوشش می‌دهد؟

مرور مدل

کامل

این صفحه باید اول به‌عنوان مرجع شناخت، fit و boundary تصمیم‌گیری قابل اتکا باشد.

آموزش عملی

کامل

سناریوی شروع و مسیر استفاده اولیه روی همین صفحه آمده است.

نصب و راه‌اندازی

کامل

این صفحه برای setup و onboarding عمیق طراحی شده است.

serving و runtime

کامل

runtime و serving path در این نوع صفحه بخش اصلی decision surface است.

پیاده‌سازی

از طریق guide مرتبط

integration اینجا فقط تا حد اشاره آمده و عمق بیشتر در guideهای مرتبط است.

سازگارسازی

تعریف نشده

در این نوع صفحه pack مستقلی برای fine-tuning تعریف نشده است.

استقرار

از طریق guide مرتبط

در این صفحه deployment فقط برای انتخاب direction آمده و جزئیات در guideهای مرتبط است.

مقایسه

خلاصه روی همین صفحه

مقایسه در این نوع صفحه برای ایجاد context آمده، نه به‌عنوان matrix کامل.

ارزیابی

خلاصه روی همین صفحه

در setup guide ارزیابی بیشتر در حد readiness check می‌آید.

منابع رسمی

کامل

منابع رسمی و مسیر مطالعه بیشتر باید روی هر صفحه کامل و شفاف باشد.

مرور مدل

این مدل چیست و کجا می‌درخشد؟

این guide generic نیست؛ روی ویندوز بودن خودش محدودیت و انتخاب runtime را تغییر می‌دهد.

در Hooshgate این page برای این است که setup واقعاً usable باشد، نه فقط یک لیست ابزار.

برای خیلی از تیم‌ها Windows workstation نقطه شروع local AI است و باید coverage روشن داشته باشد.

نقاط قوت

  • OS-specific guidance
  • مناسب شروع سریع
  • usable برای local pilot

محدودیت‌ها

  • production guide نیست
  • hardware و WSL quality روی تجربه اثر زیادی دارند

تفاوت کلیدی

سه نکته‌ای که این خانواده را از گزینه‌های هم‌رده جدا می‌کند.

نکته 1

در برابر local guide عمومی، برای Windows/WSL دقیق‌تر است.

نکته 2

در برابر Linux self-host، بیشتر developer setup را هدف می‌گیرد.

نکته 3

برای Hooshgate این guide setup/install واقعی روی ویندوز را می‌بندد.

برای چه مناسب است

  • developer workstation ویندوز، pilot محلی، تست code assistant و تیم‌هایی که local AI را روی Windows/WSL می‌خواهند.
  • روی ویندوز کار می‌کنید.
  • local AI برای dev workflow می‌خواهید.

برای چه مناسب نیست

  • Windows setup با Linux production یکی نیست؛ local success را با production parity اشتباه نگیرید.
  • shared serving یا production هدف اصلی است.
  • Linux server در دسترس دارید.

آموزش عملی

اولین مسیر عملی با مدل‌های local روی ویندوز

بالاآوردن اولین مدل local روی ویندوز یا WSL برای chat، coding یا RAG سبک

مرحله 1

ابتدا use-case را به‌صورت محدود برای بالاآوردن اولین مدل local روی ویندوز یا WSL برای chat، coding یا RAG سبک تعریف کنید و success metric را قبل از اجرا بنویسید.

مرحله 2

روی مدل‌های local روی ویندوز فقط با چند ورودی واقعی pilot بگیرید و خروجی را با schema، human review یا benchmark داخلی بسنجید.

مرحله 3

اگر pilot قابل‌دفاع بود، بعد سراغ integration، logging و rollout کنترل‌شده بروید نه rollout کامل از روز اول.

نمونه ورودی

یک issue واقعی، function signature یا diff target به همراه constraintهای repo

خروجی مورد انتظار

patch، پیشنهاد refactor یا پاسخ ساخت‌یافته برای review مهندسی

خطاهای رایج

اشتباه‌هایی که معمولاً باعث می‌شوند pilot یا implementation شکست بخورد.

نکته 1

pilot را با داده مصنوعی یا ورودی خیلی تمیز قضاوت نکنید.

نکته 2

بدون schema، quality gate و fallback، مسیر production خیلی زود ناپایدار می‌شود.

نکته 3

قبل از rollout، هزینه و latency را در mode واقعی deployment بسنجید.

راهنمای نصب

راه‌اندازی مدل‌های local روی ویندوز

pilot محلی

برای چه مناسب است

discovery، prompt testing و single-user evaluation

کجا مناسب نیست

محصول چندکاربره یا rollout production با SLA مشخص

مسیر شروع

  • نسخه runtime یا API path را مشخص کنید و از همان ابتدا logging و owner را تعیین کنید.
  • اول با یک workload کوچک و repeatable health check بگیرید و بعد quality را روی داده واقعی بسنجید.
  • مدل را روی سخت‌افزار واقعی تیم با داده و prompt واقعی benchmark کنید.

نمونه دستور

winget install Ollama.Ollama
winget install LMStudio.LMStudio

trade-off

friction کمپیش‌بینی‌پذیری کمتر برای scaleوابستگی شدید به hardware local

پیش‌نیازها

  • Windows 11 or WSL
  • فضای دیسک و RAM کافی
  • انتخاب مدل متناسب با سخت‌افزار

محیط‌ها

  • Windows native app
  • Windows + WSL
  • desktop GPU optional

نکته‌های مهم

  • اگر WSL path را می‌روید، file path و resource sharing را ساده نگه دارید.
  • برای شروع از مدل سبک‌تر استفاده کنید تا تجربه اولیه خراب نشود.

مرحله 1

نسخه runtime یا API path را مشخص کنید و از همان ابتدا logging و owner را تعیین کنید.

مرحله 2

اول با یک workload کوچک و repeatable health check بگیرید و بعد quality را روی داده واقعی بسنجید.

مرحله 3

وقتی baseline روشن شد، فقط همان flow را وارد stack اصلی یا CI/CD کنید.

فلو راه‌اندازی

یک نگاه سریع برای اینکه pilot را مرحله‌به‌مرحله جلو ببرید.

بلوک 1

نسخه runtime یا API path را مشخص کنید و از همان ابتدا logging و owner را تعیین کنید.

بلوک 2

اول با یک workload کوچک و repeatable health check بگیرید و بعد quality را روی داده واقعی بسنجید.

بلوک 3

وقتی baseline روشن شد، فقط همان flow را وارد stack اصلی یا CI/CD کنید.

نمونه دستورها

winget install Ollama.Ollama
winget install LMStudio.LMStudio
ollama pull qwen2.5

serving و runtime

انتخاب runtime و serving path

اول use-case، latency target و boundary داده را روشن کنید؛ بعد runtime را انتخاب کنید.

local برای discovery خوب است، نه لزوماً برای production.

local run

کجا مناسب است

  • pilot محلی، prompt workshop و team evaluation
  • راه‌اندازی سریع
  • generalization ضعیف‌تر برای production

کجا مناسب نیست

  • بار چندکاربره، SLA سخت و governance production

مسیر شروع

گام 1

نسخه runtime یا API path را مشخص کنید و از همان ابتدا logging و owner را تعیین کنید.

گام 2

اول با یک workload کوچک و repeatable health check بگیرید و بعد quality را روی داده واقعی بسنجید.

گام 3

قبل از تصمیم deployment، latency و memory را روی task واقعی ثبت کنید.

hardware / fit

  • Windows native app
  • Windows + WSL
  • developer PC with sufficient RAM or GPU

latency و cost

هزینه پولی کم است اما latency و quality مستقیماً به سخت‌افزار محلی بستگی دارد.

عملیات production

چک‌لیست production

فازهای rollout

  • offline eval و success criteria
  • staging با tracing و feature flag
  • limited rollout و سپس rollout مرحله‌ای

امنیت و policy

  • artifact trust، network policy و access control را قبل از launch روشن کنید.
  • PII masking و audit trail را بیرون از مدل طراحی کنید.
  • local pilot را جایگزین benchmark production نکنید.

observability و review

  • memory pressure
  • latency
  • task-level cost، latency و quality review را کنار هم مانیتور کنید.

maintenance و trade-off

  • model، prompt/template و routing policy را version کنید.
  • Windows path برای shared serving محدودتر از Linux است.
  • time-to-first-run

ریسک‌های رایج

چیزهایی که معمولاً pilot یا rollout را خراب می‌کنند

pitfallهای اصلی

این نکته‌ها معمولاً همان جاهایی هستند که تیم‌ها قبل از رسیدن به value عملی زمین می‌خورند.

نکته 1

pilot را با داده مصنوعی یا ورودی خیلی تمیز قضاوت نکنید.

نکته 2

بدون schema، quality gate و fallback، مسیر production خیلی زود ناپایدار می‌شود.

نکته 3

قبل از rollout، هزینه و latency را در mode واقعی deployment بسنجید.

نکته 4

Windows setup با Linux production یکی نیست؛ local success را با production parity اشتباه نگیرید.

نکته 5

local pilot را جایگزین benchmark production نکنید.

مقایسه

چه زمانی مدل‌های local روی ویندوز را انتخاب کنیم؟

وقتی این مدل انتخاب خوبی است

  • روی ویندوز کار می‌کنید.
  • local AI برای dev workflow می‌خواهید.

وقتی باید سراغ گزینه دیگر رفت

  • shared serving یا production هدف اصلی است.
  • Linux server در دسترس دارید.

نقشه تصمیم

اگر هنوز بین این خانواده و گزینه‌های رقیب مردد هستید، از این trade-off path شروع کنید.

بلوک 1

developer workstation ویندوز، pilot محلی، تست code assistant و تیم‌هایی که local AI را روی Windows/WSL می‌خواهند.

بلوک 2

Windows / WSL local-first

بلوک 3

Windows setup با Linux production یکی نیست؛ local success را با production parity اشتباه نگیرید.

راهنمای شروع local روی ویندوز، مک و لینوکس

چه زمانی مدل‌های local روی ویندوز بهتر است

برای Windows-specific setup دقیق‌تر است.

چه زمانی گزینه مقابل بهتر است

برای overview چند پلتفرم، آن guide مناسب‌تر است.

اکوسیستم MLX / mlx-lm

چه زمانی مدل‌های local روی ویندوز بهتر است

برای Windows path بهتر است.

چه زمانی گزینه مقابل بهتر است

برای مک، MLX route relevantتر است.

راهنمای self-host روی لینوکس

چه زمانی مدل‌های local روی ویندوز بهتر است

برای local Windows بهتر است.

چه زمانی گزینه مقابل بهتر است

برای shared Linux serving، آن guide مهم‌تر است.

ارزیابی

Checklist ارزیابی

مرحله 1

time-to-first-run

مرحله 2

latency

مرحله 3

stability on target PC

مرحله 4

migration readiness

منابع رسمی

منابع رسمی و مسیر مطالعه بیشتر