Hooshgate Models Hub

دایرکتوری حرفه‌ای مدل‌ها، ابزارها و راهنماهای راه‌اندازی

این hub فقط فهرست اسم‌ها نیست. اینجا باید بتوانید خانواده‌های مهم را کنار هم ببینید، بین open-source و proprietary تصمیم بگیرید، مسیر local/API/self-host را بفهمید و برای setup، integration و deployment به guide درست برسید.

catalog + guideopen-source / open-weightproprietarytext / image / video / audio / embedding
کل صفحه‌های پذیرفته‌شده
۱۰۲
خانواده مدل
۶۴
guide و ecosystem
۳۸
queue غیرقابل‌نمایش
۲

مرز انتشار

سطح عملیاتی پذیرفته‌شده

فقط چیزهایی public هستند که taxonomy روشن، فارسی قابل‌اتکا و surface contract مشخص داشته باشند.

family pageها قرار نیست وانمود کنند همه‌چیز را عمیق پوشش می‌دهند. این صفحه‌ها بیشتر برای browse، selection و boundary decision هستند.

guide pageها و ecosystem pageها جایی هستند که setup، runtime، integration و deployment با عمق بیشتر باز می‌شوند.

مدل‌ها و guideهای queue فقط در ادمین می‌مانند تا قبل از تکمیل pack محتوایی، فارسی، source و review وارد public surface نشوند.

خانواده مدل: ۶۴اکوسیستم / ابزار: ۲۰راهنمای نصب: ۵راهنمای integration: ۴راهنمای deployment: ۳مقایسه تصمیم‌یار: ۳پیاده‌سازی use-case: ۳family page = reference + decision layerguide page = setup / integration / deployment depth

فهرست عمومی

۴۱ صفحه مرجع

هر کارت یا family reference است، یا ecosystem/tooling page، یا guide عملی برای setup، integration و deployment.

کدنویسی

راهنماهای D3

ورود سریع به مسیرهای عملی

اگر دنبال جواب اجرایی هستید، از یکی از guideهای زیر شروع کنید؛ این‌ها برای تصمیم deployment و integration ساخته شده‌اند.

راهنمای نصب

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

راهنمای integration

راهنمای API-first برای مدل‌های proprietary

اگر نمی‌خواهید وارد serving شوید و زمان رسیدن به MVP برایتان حیاتی است، مسیر API-first هنوز سریع‌ترین راه حرفه‌ای است؛ به‌شرط اینکه cost، lock-in و governance را از ابتدا مهندسی کنید.

مقایسه تصمیم‌یار

مقایسه local، API و self-host

مهم‌ترین سؤال عملی بسیاری از تیم‌ها همین است: local run کنم، API بگیرم یا self-host شوم؟ این صفحه به‌جای پاسخ شعاری، trade-off تصمیم را شفاف می‌کند.

راهنمای integration

راهنمای integration برای RAG

RAG با وصل‌کردن یک LLM به vector DB حل نمی‌شود. این guide مسیر حرفه‌ای integration را از ingest تا retrieval، reranking، answer synthesis و evaluation توضیح می‌دهد.

راهنمای deployment

راهنمای deployment برای محصول و سازمان

deployment حرفه‌ای با «انتخاب مدل» تمام نمی‌شود. این guide از phaseهای rollout تا security، observability، guardrails و maintenance trade-off را برای محصول و سازمان جمع می‌کند.

راهنمای deployment

Guardrails، observability و evaluation

بخش بزرگی از production readiness نه در مدل، بلکه در guardrails، observability و evaluation است. این صفحه نشان می‌دهد چطور AI feature را قابل‌پایش، قابل‌کنترل و قابل‌اعتماد نگه دارید.

اکوسیستم / ابزار

اکوسیستم Ollama

Ollama بهترین نقطه شروع برای تیم‌هایی است که می‌خواهند بدون درگیرشدن با serving stackهای سنگین، مدل را روی لپ‌تاپ، ورک‌استیشن یا سرور کوچک بالا بیاورند.

اکوسیستم / ابزار

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

نوع صفحه

اگر از قبل می‌دانید دنبال مدل هستید یا guide deployment و tooling می‌خواهید، از اینجا شروع کنید.

مرور بر اساس مودالیته

اول از modality شروع کن، بعد با deployment و vendor فهرست را باریک کن.

Vendorهای شاخص

برای مقایسه خانواده‌های بزرگ و proprietary/open-weight از vendor filter شروع کن.

Ecosystemهای کلیدی

برای انتخاب runtime، toolchain و stack serving از روی ecosystem وارد شوید.

Collection Browse

مسیرهای پیشنهادی برای شروع

اگر هنوز vendor یا مدل مشخصی در ذهن ندارید، از یکی از collectionهای زیر شروع کنید تا hub سریع‌تر قابل‌فهم شود.

OpenAI

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

۹۹
خانواده مدلاختصاصیCommercial APIمتن و چتچندوجهیچت و دستیاراستدلال و تحلیل

محصولات agentic، backofficeهای سندمحور، workflowهای کدنویسی و تیم‌هایی که می‌خواهند عملیات inference را برون‌سپاری کنند.

مسیر اجرا

API-first

استقرار

API • ابر مدیریت‌شده

پیچیدگی

پیاده‌سازی سریع، governance مهم

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Hooshgate Reference

مقایسه local، API و self-host

مهم‌ترین سؤال عملی بسیاری از تیم‌ها همین است: local run کنم، API بگیرم یا self-host شوم؟ این صفحه به‌جای پاسخ شعاری، trade-off تصمیم را شفاف می‌کند.

۹۹
مقایسه تصمیم‌یاروزن‌بازCommunity / Open-weightمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌های product، infra و enterprise که باید تصمیم deployment بگیرند و نمی‌خواهند تحت‌تأثیر hype یک مسیر اشتباه انتخاب کنند.

مسیر اجرا

decision framework

استقرار

محیط محلی • API

پیچیدگی

راهنمای تصمیم‌یار

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۴ pack کامل • ۱ pack خلاصه • ۴ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Anthropic

خانواده Claude

Claude برای تیم‌هایی مناسب است که long-context، کیفیت نوشتار و رفتار پایدار در workflowهای document-heavy می‌خواهند.

۹۷
خانواده مدلاختصاصیCommercial APIمتن و چتچندوجهیچت و دستیاراستدلال و تحلیل

تحلیل سند، agentهای دانشی، بازنویسی حرفه‌ای و تیم‌هایی که روی Bedrock یا Vertex AI نیز deployment می‌خواهند.

مسیر اجرا

API-first

استقرار

API • ابر مدیریت‌شده

پیچیدگی

پیاده‌سازی متوسط، کنترل tone قوی

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

vLLM Project

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

۹۷
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

LLM serving سازمانی، endpointهای چندکاربره، self-host در مقیاس متوسط تا بالا، embedding service و migration از pilot local به production.

مسیر اجرا

self-host production-grade

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

قوی برای serving، نیازمند infra discipline

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Google

خانواده Gemini

Gemini برای تیم‌هایی جذاب است که از ورودی‌های چندوجهی، PDF، ویدئو یا Google stack استفاده می‌کنند و می‌خواهند API و cloud-native workflow یکپارچه باشد.

۹۶
خانواده مدلاختصاصیCommercial APIمتن و چتچندوجهیچت و دستیاراستدلال و تحلیل

محصولات multimodal، تحلیل PDF و ویدئو، RAGهای اسنادی و تیم‌هایی که روی Google Cloud یا Vertex AI کار می‌کنند.

مسیر اجرا

API-first

استقرار

API • ابر مدیریت‌شده

پیچیدگی

multimodal قوی، cloud fit بالا

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: دستیار عمومی • پردازش سند

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Hugging Face

اکوسیستم Hugging Face

Hugging Face یک ابزار واحد نیست؛ لایه‌ای است که model discovery، artifact management، dataset handling، docs و deployment path بسیاری از تیم‌های open-weight را به هم وصل می‌کند.

۹۶
اکوسیستم / ابزارمتن‌بازترکیبی / متغیرمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌هایی که می‌خواهند مدل‌ها را مقایسه، weightها را مدیریت، dataset و adapter را منتشر و از یک ecosystem منسجم برای open model workflow استفاده کنند.

مسیر اجرا

ecosystem backbone

استقرار

API • محیط محلی

پیچیدگی

مرجع اصلی open modelها

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hooshgate Reference

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

۹۶
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌ها و افرادی که می‌خواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.

مسیر اجرا

desktop و workstation

استقرار

محیط محلی

پیچیدگی

راهنمای onboarding عملی

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

Windows • macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hooshgate Reference

راهنمای API-first برای مدل‌های proprietary

اگر نمی‌خواهید وارد serving شوید و زمان رسیدن به MVP برایتان حیاتی است، مسیر API-first هنوز سریع‌ترین راه حرفه‌ای است؛ به‌شرط اینکه cost، lock-in و governance را از ابتدا مهندسی کنید.

۹۶
راهنمای integrationاختصاصیترکیبی / متغیرمتن و چتچندوجهیچت و دستیارکدنویسی

محصولات agentic، document AI، multimodal appها و تیم‌هایی که زیرساخت inference را نمی‌خواهند خودشان نگه دارند.

مسیر اجرا

API-managed path

استقرار

API • ابر مدیریت‌شده

پیچیدگی

پیاده‌سازی سریع، governance حیاتی

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Meta

خانواده Llama

Llama یکی از مهم‌ترین خانواده‌های open-weight برای self-host، سفارشی‌سازی و ساخت stack مستقل سازمانی است.

۹۵
خانواده مدلوزن‌بازCommunity / Open-weightمتن و چتچندوجهیچت و دستیاراستدلال و تحلیل

تیم‌هایی که می‌خواهند مدل را داخل زیرساخت خودشان اجرا کنند، quantize کنند، LoRA بزنند و control بیشتری روی داده و serving داشته باشند.

مسیر اجرا

self-host قوی

استقرار

محیط محلی • self-host

پیچیدگی

عملیاتی‌تر از API مدل‌ها

راهنمای مرتبط

۸ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Ollama

اکوسیستم Ollama

Ollama بهترین نقطه شروع برای تیم‌هایی است که می‌خواهند بدون درگیرشدن با serving stackهای سنگین، مدل را روی لپ‌تاپ، ورک‌استیشن یا سرور کوچک بالا بیاورند.

۹۵
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

prototype محلی، ارزیابی اولیه مدل‌های open-weight، demo داخلی، RAG سبک و backendهایی که OpenAI-compatible local endpoint می‌خواهند.

مسیر اجرا

local-first و self-host سبک

استقرار

محیط محلی • self-host

پیچیدگی

ساده برای شروع، محدود برای scale

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

macOS • Linux | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Alibaba / Qwen Team

خانواده Qwen

Qwen یکی از خانواده‌های open-weight مهم برای تیم‌هایی است که هم multilingual support می‌خواهند و هم self-host و fine-tuning.

۹۴
خانواده مدلوزن‌بازCommunity / Open-weightمتن و چتچندوجهیچت و دستیاراستدلال و تحلیل

محصولات چندزبانه، assistantهای self-host، coding workflowها و تیم‌هایی که stack open-weight اما مدرن می‌خواهند.

مسیر اجرا

self-host قوی

استقرار

محیط محلی • self-host

پیچیدگی

open-weight منعطف

راهنمای مرتبط

۸ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Windows | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

ggml-org / llama.cpp

اکوسیستم llama.cpp

llama.cpp برای وقتی مناسب است که کنترل دقیق روی GGUF، اجرای CPU-friendly، edge deployment یا بسته‌بندی محلی برایتان مهم‌تر از سادگی UX باشد.

۹۴
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

GGUF، edge، inference روی CPU یا GPUهای کوچک، embedded apps و تیم‌هایی که می‌خواهند behavior runtime را دقیق‌تر کنترل کنند.

مسیر اجرا

local و edge-oriented

استقرار

محیط محلی • self-host

پیچیدگی

کنترل زیاد، setup فنی‌تر

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hooshgate Reference

مرور اکوسیستم fine-tuning

همه مسائل با fine-tuning حل نمی‌شود. این صفحه کمک می‌کند بفهمید چه زمانی tuning واقعاً ارزش دارد، چه زمانی retrieval یا prompt بهتر است و کدام ecosystem برای LoRA یا full training مناسب‌تر است.

۹۴
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌هایی که بعد از رسیدن به baseline خوب، به adaptation جدی فکر می‌کنند و نمی‌خواهند زودتر از موعد وارد training pipeline پرهزینه شوند.

مسیر اجرا

adaptation decision guide

استقرار

محیط محلی • self-host

پیچیدگی

high leverage, high risk

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۱۰ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: ابزار توسعه • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-22

ورود به راهنما

Mistral AI

Codestral

Codestral برای code completion، FIM و سناریوهای coding assistant مناسب است؛ مخصوصاً وقتی می‌خواهید latency بهتر و کنترل بیشتر از مدل‌های chat عمومی بگیرید.

۹۳
خانواده مدلوزن‌بازOpen model termsمتن و چتکدنویسیworkflow عامل‌محور

IDE completion، fill-in-the-middle، code generation، code editing و ابزارهای توسعه که باید روی codebase واقعی کار کنند.

مسیر اجرا

API یا self-host

استقرار

API • self-host

پیچیدگی

کدنویسی تخصصی

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux | مناسب برای: ابزار توسعه • دستیار عمومی

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Hugging Face

Transformers stack

Transformers stack زمانی مناسب است که می‌خواهید روی اجرای مدل، pre/post-processing و training/inference workflow کنترل عمیق داشته باشید و حاضر باشید از سادگی runtimeهای turnkey صرف‌نظر کنید.

۹۳
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌های فنی، سرویس‌های سفارشی Python، inference با منطق اختصاصی، training/fine-tuning و کار با مدل‌هایی که runtime آماده برایشان کافی نیست.

مسیر اجرا

custom Python stack

استقرار

محیط محلی • self-host

پیچیدگی

انعطاف بالا، boilerplate بیشتر

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: ابزار توسعه • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hooshgate Reference

راهنمای GGUF و بسته‌بندی local

GGUF برای local AI فقط یک فرمت فایل نیست؛ تصمیمی است درباره portability، quantization و trade-off کیفیت در برابر resource. این صفحه می‌گوید چه زمانی GGUF منطقی است و چه زمانی نه.

۹۳
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

local deployment، edge، laptop inference و تیم‌هایی که می‌خواهند مدل را با footprint کوچک‌تر اجرا و جابه‌جا کنند.

مسیر اجرا

portable local packaging

استقرار

محیط محلی • لبه / روی دستگاه

پیچیدگی

به ظاهر ساده، در عمل نیازمند benchmark

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

Edge / Device | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Mistral AI

خانواده Mistral

Mistral برای تیم‌هایی جذاب است که هم self-host می‌خواهند و هم سبدی از مدل‌های تخصصی‌تر مثل coding، multimodal و document AI را در یک خانواده ببینند.

۹۲
خانواده مدلوزن‌بازترکیبی / متغیرمتن و چتچندوجهیچت و دستیاراستدلال و تحلیل

سازمان‌هایی که بین API و self-host جابه‌جا می‌شوند و می‌خواهند از مدل‌های متنوع این خانواده برای code، vision و enterprise search استفاده کنند.

مسیر اجرا

API + self-host

استقرار

API • محیط محلی

پیچیدگی

خانواده متنوع، نیازمند governance

راهنمای مرتبط

۸ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Mistral AI

Devstral

Devstral برای workflowهای agentic در توسعه نرم‌افزار ساخته شده است؛ جایی که model فقط کد تولید نمی‌کند، بلکه باید ابزار و context را هم درست به‌کار بگیرد.

۹۲
خانواده مدلوزن‌بازOpen-source permissiveمتن و چتکدنویسیworkflow عامل‌محور

coding agents، tool use در توسعه، repository workflows و تیم‌هایی که code generation را در مسیر task-based می‌خواهند.

مسیر اجرا

self-host مناسب

استقرار

API • self-host

پیچیدگی

agentic coding stack

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux | مناسب برای: ابزار توسعه • دستیار عمومی

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Alibaba / Qwen

Qwen Coder

Qwen Coder برای تیم‌هایی جذاب است که coding مدل باز با ecosystem قوی Qwen، vLLM، Ollama و GGUF می‌خواهند.

۹۲
خانواده مدلوزن‌بازOpen-source permissiveمتن و چتکدنویسیworkflow عامل‌محور

code generation، repo-aware workflows سبک، local coding assistants و self-host روی stackهای رایج.

مسیر اجرا

local / self-host

استقرار

محیط محلی • self-host

پیچیدگی

coding family باز

راهنمای مرتبط

۶ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: ابزار توسعه • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

LM Studio

LM Studio و runtimeهای desktop

LM Studio برای تیم‌هایی مناسب است که می‌خواهند بدون درگیری با CLI و serving stack، مدل محلی را روی desktop اجرا، مقایسه و برای demo یا evaluation آماده کنند.

۹۲
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

product discovery، مقایسه سریع مدل‌های محلی، demo برای غیرتوسعه‌دهنده‌ها و تیم‌هایی که GUI desktop می‌خواهند.

مسیر اجرا

desktop local GUI

استقرار

محیط محلی

پیچیدگی

خیلی ساده برای ارزیابی، محدود برای production

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Windows • macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

DeepSeek

خانواده DeepSeek

DeepSeek برای تیم‌هایی مهم است که reasoning و coding را با رویکرد open-weight یا API اقتصادی‌تر بررسی می‌کنند.

۹۱
خانواده مدلوزن‌بازترکیبی / متغیرمتن و چتچت و دستیاراستدلال و تحلیل

ارزیابی‌های comparative، code-heavy workloads و سازمان‌هایی که می‌خواهند بین API و self-host انعطاف داشته باشند.

مسیر اجرا

API + self-host

استقرار

API • محیط محلی

پیچیدگی

reasoning/coding محور

راهنمای مرتبط

۶ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Voyage AI

Voyage Embeddings

Voyage برای تیم‌هایی مهم است که embedding و retrieval را به‌صورت تخصصی نگاه می‌کنند، نه صرفاً به‌عنوان feature فرعی.

۹۱
خانواده مدلاختصاصیCommercial APIEmbeddingجست‌وجوی معناییRAG و دانش سازمانی

semantic search، RAGهای retrieval-heavy و use-caseهای تخصصی مثل code، legal یا finance retrieval.

مسیر اجرا

API-only

استقرار

API

پیچیدگی

retrieval تخصصی

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: جست‌وجوی سازمانی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

NVIDIA

Nemotron

Nemotron برای تیم‌هایی مناسب است که reasoning و agent workflows می‌خواهند و هم‌زمان می‌خواهند deployment را در اکوسیستم NVIDIA و NIM نگه دارند.

۹۱
خانواده مدلوزن‌بازOpen model termsمتن و چتچت و دستیاراستدلال و تحلیل

reasoning، long-context workflows، coding و serving روی GPUهای NVIDIA با NIM، vLLM یا stackهای محلی.

مسیر اجرا

NIM / vLLM / local

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

GPU-centric reasoning stack

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: ابزار توسعه • دستیار عمومی

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Hugging Face

Text Generation Inference (TGI)

TGI سرور inference مربوط به Hugging Face است و برای تیم‌هایی معنا دارد که stack آن‌ها از قبل حول artifactهای Hugging Face، containerized serving و الگوهای سازمانی آن شکل گرفته است.

۹۱
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

سازمان‌هایی که از قبل روی Hugging Face ecosystem سرمایه‌گذاری کرده‌اند، container-based serving می‌خواهند و deployment inference را با artifact management رسمی HF می‌بینند.

مسیر اجرا

HF-oriented self-host

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

container serving با fit سازمانی

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-22

ورود به راهنما

DeepSeek

DeepSeek Coder

DeepSeek Coder برای تیم‌هایی مهم است که coding model باز می‌خواهند و می‌خواهند code completion، refactor و repo Q&A را داخل infra خودشان جلو ببرند.

۹۰
خانواده مدلوزن‌بازترکیبی / متغیرمتن و چتکدنویسیچت و دستیار

IDE assistant داخلی، code review helper، generation روی repo خصوصی و pipelineهایی که self-host و cost control مهم است.

مسیر اجرا

local یا self-host

استقرار

محیط محلی • self-host

پیچیدگی

مدل کدنویسی باز

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: ابزار توسعه • دستیار عمومی

آخرین بازبینی: 2026-04-23

ورود به صفحه مرجع

Hugging Face

اکوسیستم PEFT

PEFT در hub به این خاطر مهم است که لایه adaptation عملی برای modelهای باز را پوشش می‌دهد؛ یعنی جایی بین prompt-only و full fine-tuning.

۹۰
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

LoRA، adapter-based tuning، domain adaptation کم‌هزینه و تیم‌هایی که می‌خواهند experimentation را بدون full training شروع کنند.

مسیر اجرا

training-adaptation toolkit

استقرار

محیط محلی • self-host

پیچیدگی

adapter training برای مدل‌های باز

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Linux • Cloud managed | مناسب برای: ابزار توسعه • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Hooshgate Reference

راهنمای self-host روی لینوکس

این guide برای تیمی است که واقعاً می‌خواهد روی Linux self-host کند: انتخاب بین vLLM، TGI، GGUF، container و incident path.

۹۰
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

stack self-host، private infra، rollout مدل‌های باز و تیم‌هایی که production serving را روی Linux جلو می‌برند.

مسیر اجرا

Linux production-minded

استقرار

self-host

پیچیدگی

مسیر واقعی infra و serving

راهنمای مرتبط

۶ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

Google

خانواده Gemma

Gemma برای تیم‌هایی مناسب است که مدل باز و سبک‌تر می‌خواهند، اما همچنان می‌خواهند از lineage و tooling گوگل بهره ببرند.

۸۹
خانواده مدلوزن‌بازOpen model termsمتن و چتچندوجهیچت و دستیاراستدلال و تحلیل

edge و local AI، prototypeهای self-host و تیم‌هایی که مدل بازتر اما manageable می‌خواهند.

مسیر اجرا

local / edge friendly

استقرار

محیط محلی • self-host

پیچیدگی

سبک‌تر و منعطف

راهنمای مرتبط

۶ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

IBM

Granite Code

Granite Code یک خانواده باز و enterprise-friendly برای code generation است که برای تیم‌های حساس به license و governance گزینه جالبی می‌شود.

۸۹
خانواده مدلمتن‌بازOpen-source permissiveمتن و چتکدنویسی

code generation، explanation، bug fixing و ابزارهای توسعه‌ای که باید روی زیرساخت داخلی و license روشن کار کنند.

مسیر اجرا

local / self-host

استقرار

محیط محلی • self-host

پیچیدگی

code LLM باز

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: ابزار توسعه • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Hugging Face

اکوسیستم TRL

TRL برای تیم‌هایی مهم است که از adaptation ساده عبور کرده‌اند و به SFT، DPO یا post-training جدی‌تر فکر می‌کنند.

۸۹
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارworkflow عامل‌محور

SFT، preference optimization، reward modeling و تیم‌هایی که می‌خواهند post-training را reproducible و scriptable جلو ببرند.

مسیر اجرا

post-training toolkit

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

پیچیده‌تر از adapter-only

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Linux • Cloud managed | مناسب برای: ابزار توسعه • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به راهنما

xAI

خانواده Grok

Grok گزینه‌ای برای تیم‌هایی است که می‌خواهند از مدل xAI در سناریوهای API-based، tool use و long-context استفاده کنند.

۸۸
خانواده مدلاختصاصیCommercial APIمتن و چتچندوجهیچت و دستیاراستدلال و تحلیل

تیم‌هایی که به مدل جدید API-first با context بزرگ، function calling و workflowهای agentic علاقه دارند و می‌خواهند گزینه جایگزین جدی در سبد proprietary داشته باشند.

مسیر اجرا

API-only

استقرار

API

پیچیدگی

جدیدتر، نیازمند pilot دقیق

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Google

CodeGemma

CodeGemma برای تیم‌هایی مهم است که coding model سبک‌تر و باز می‌خواهند و ترجیح می‌دهند روی همان ecosystem Gemma/Google باقی بمانند.

۸۸
خانواده مدلوزن‌بازOpen model termsمتن و چتکدنویسیچت و دستیار

code completion سبک، local experimentation، IDE prototype و تیم‌هایی که می‌خواهند code model باز را با footprint معقول‌تر امتحان کنند.

مسیر اجرا

local-friendly

استقرار

محیط محلی • self-host

پیچیدگی

نسبتاً سبک برای code experimentation

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Container / Docker • Cloud managed | مناسب برای: ابزار توسعه • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به صفحه مرجع

Microsoft

اکوسیستم Azure AI Foundry

Azure AI Foundry برای سازمان‌هایی مهم است که enterprise controls مایکروسافتی و model access را در یک platform واحد می‌خواهند.

۸۸
اکوسیستم / ابزاراختصاصیCommercial APIمتن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

Azure-centric organizations، enterprise governance، app teams که می‌خواهند model access و security controls را داخل Azure نگه دارند.

مسیر اجرا

managed enterprise platform

استقرار

API • ابر مدیریت‌شده

پیچیدگی

cloud governance path

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: دستیار عمومی • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Hooshgate Reference

مقایسه مدل‌های کدنویسی

این comparison guide برای تیم‌هایی است که بین GPT، Qwen Coder، DeepSeek Coder، Codestral و code modelهای مشابه گیر کرده‌اند و می‌خواهند trade-off عملی را ببینند.

۸۸
مقایسه تصمیم‌یاروزن‌بازCommunity / Open-weightمتن و چتکدنویسیworkflow عامل‌محور

انتخاب coding assistant، تعیین build-vs-buy، و تصمیم بین API proprietary و self-host code modelها.

مسیر اجرا

API یا self-host

استقرار

API • محیط محلی

پیچیدگی

تصمیم‌گیری میان چند family

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۴ pack کامل • ۱ pack خلاصه • ۴ pack لینک‌شده

fit عملیاتی

macOS | مناسب برای: ابزار توسعه • دستیار عمومی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Microsoft

خانواده Phi

Phi بیشتر وقتی مهم می‌شود که مدل کوچک‌تر، deployment سبک و integration با اکوسیستم مایکروسافت برایتان مهم باشد.

۸۷
خانواده مدلوزن‌بازCommunity / Open-weightمتن و چتچندوجهیچت و دستیاراستدلال و تحلیل

copilotهای داخلی سبک، edge deployment و تیم‌هایی که Azure و Windows/ONNX مسیر مهمشان است.

مسیر اجرا

edge / local

استقرار

محیط محلی • self-host

پیچیدگی

مدل کوچک و کارآمد

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Windows • Linux | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Apple MLX community

اکوسیستم MLX / mlx-lm

MLX / mlx-lm برای تیم‌هایی مهم است که macOS و Apple Silicon را به‌عنوان مسیر واقعی local AI می‌بینند، نه فقط fallback development machine.

۸۷
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

local inference روی مک، developer workflow، ارزیابی مدل‌های باز روی Apple Silicon و تیم‌هایی که pilot را روی لپ‌تاپ‌های مک جلو می‌برند.

مسیر اجرا

macOS local-native

استقرار

محیط محلی

پیچیدگی

بهترین fit روی Apple Silicon

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

NVIDIA

اکوسیستم TensorRT-LLM

TensorRT-LLM برای تیم‌هایی مهم است که deployment روی GPU انویدیا را به‌صورت performance-driven می‌بینند و می‌خواهند از optimization stack انویدیا استفاده کنند.

۸۷
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارworkflow عامل‌محور

GPU-heavy serving، latency/throughput optimization و تیم‌هایی که serving production را روی انویدیا استاندارد کرده‌اند.

مسیر اجرا

GPU serving optimization

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

پیشرفته و infra-heavy

راهنمای مرتبط

۱ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

LangChain

راهنمای agent با LangGraph

این guide برای تیم‌هایی است که agent را به‌صورت graph و stateful workflow می‌بینند، نه فقط یک chain ساده یا tool call تک‌مرحله‌ای.

۸۷
پیاده‌سازی use-caseمتن‌بازOpen-source permissiveمتن و چتچندوجهیworkflow عامل‌محورچت و دستیار

agent workflow چندمرحله‌ای، stateful execution، tool orchestration و تیم‌هایی که graph-based control می‌خواهند.

مسیر اجرا

agent orchestration layer

استقرار

self-host • API

پیچیدگی

stateful workflow implementation

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۳ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

وابسته به stack انتخابی | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

SGLang Project

اکوسیستم SGLang

SGLang برای تیم‌هایی مهم است که inference و serving را performance-first می‌بینند و می‌خواهند beyond simple vLLM-style setup به scheduling و execution توجه کنند.

۸۶
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارworkflow عامل‌محور

serving مدل‌های باز، performance-sensitive inference و تیم‌هایی که throughput و latency را جدی‌تر optimize می‌کنند.

مسیر اجرا

performance-oriented serving

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

stack inference پیشرفته‌تر

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

LiteLLM

اکوسیستم LiteLLM

LiteLLM برای تیم‌هایی مهم است که multi-provider gateway، routing و compatibility layer می‌خواهند و نمی‌خواهند هر provider را جدا در backend پیاده کنند.

۸۶
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارworkflow عامل‌محور

provider routing، fallback، cost control، unified API surface و backendهایی که چند vendor را هم‌زمان مصرف می‌کنند.

مسیر اجرا

gateway and routing layer

استقرار

self-host • API

پیچیدگی

مناسب multi-provider backend

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

وابسته به stack انتخابی | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

Hooshgate Reference

مدل‌های local روی ویندوز

این setup guide دقیقاً برای کاربر ویندوز است: از local LLM روی لپ‌تاپ یا ورک‌استیشن شروع کنید، بدون اینکه pretend کنیم همه setupها یکسان هستند.

۸۶
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

developer workstation ویندوز، pilot محلی، تست code assistant و تیم‌هایی که local AI را روی Windows/WSL می‌خواهند.

مسیر اجرا

Windows / WSL local-first

استقرار

محیط محلی

پیچیدگی

عملی برای شروع ولی hardware-sensitive

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

Windows | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

ورود سریع

ورود سریع بر اساس سناریو

اگر هنوز مطمئن نیستی دنبال چه خانواده‌ای بگردی، از shortcutهای زیر شروع کن.