Hooshgate Models Hub

دایرکتوری حرفه‌ای مدل‌ها، ابزارها و راهنماهای راه‌اندازی

این hub فقط فهرست اسم‌ها نیست. اینجا باید بتوانید خانواده‌های مهم را کنار هم ببینید، بین open-source و proprietary تصمیم بگیرید، مسیر local/API/self-host را بفهمید و برای setup، integration و deployment به guide درست برسید.

catalog + guideopen-source / open-weightproprietarytext / image / video / audio / embedding
کل صفحه‌های پذیرفته‌شده
۱۰۲
خانواده مدل
۶۴
guide و ecosystem
۳۸
queue غیرقابل‌نمایش
۲

مرز انتشار

سطح عملیاتی پذیرفته‌شده

فقط چیزهایی public هستند که taxonomy روشن، فارسی قابل‌اتکا و surface contract مشخص داشته باشند.

family pageها قرار نیست وانمود کنند همه‌چیز را عمیق پوشش می‌دهند. این صفحه‌ها بیشتر برای browse، selection و boundary decision هستند.

guide pageها و ecosystem pageها جایی هستند که setup، runtime، integration و deployment با عمق بیشتر باز می‌شوند.

مدل‌ها و guideهای queue فقط در ادمین می‌مانند تا قبل از تکمیل pack محتوایی، فارسی، source و review وارد public surface نشوند.

خانواده مدل: ۶۴اکوسیستم / ابزار: ۲۰راهنمای نصب: ۵راهنمای integration: ۴راهنمای deployment: ۳مقایسه تصمیم‌یار: ۳پیاده‌سازی use-case: ۳family page = reference + decision layerguide page = setup / integration / deployment depth

فهرست عمومی

۲۰ صفحه مرجع

هر کارت یا family reference است، یا ecosystem/tooling page، یا guide عملی برای setup، integration و deployment.

اکوسیستم / ابزار

راهنماهای D3

ورود سریع به مسیرهای عملی

اگر دنبال جواب اجرایی هستید، از یکی از guideهای زیر شروع کنید؛ این‌ها برای تصمیم deployment و integration ساخته شده‌اند.

راهنمای نصب

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

راهنمای integration

راهنمای API-first برای مدل‌های proprietary

اگر نمی‌خواهید وارد serving شوید و زمان رسیدن به MVP برایتان حیاتی است، مسیر API-first هنوز سریع‌ترین راه حرفه‌ای است؛ به‌شرط اینکه cost، lock-in و governance را از ابتدا مهندسی کنید.

مقایسه تصمیم‌یار

مقایسه local، API و self-host

مهم‌ترین سؤال عملی بسیاری از تیم‌ها همین است: local run کنم، API بگیرم یا self-host شوم؟ این صفحه به‌جای پاسخ شعاری، trade-off تصمیم را شفاف می‌کند.

راهنمای integration

راهنمای integration برای RAG

RAG با وصل‌کردن یک LLM به vector DB حل نمی‌شود. این guide مسیر حرفه‌ای integration را از ingest تا retrieval، reranking، answer synthesis و evaluation توضیح می‌دهد.

راهنمای deployment

راهنمای deployment برای محصول و سازمان

deployment حرفه‌ای با «انتخاب مدل» تمام نمی‌شود. این guide از phaseهای rollout تا security، observability، guardrails و maintenance trade-off را برای محصول و سازمان جمع می‌کند.

راهنمای deployment

Guardrails، observability و evaluation

بخش بزرگی از production readiness نه در مدل، بلکه در guardrails، observability و evaluation است. این صفحه نشان می‌دهد چطور AI feature را قابل‌پایش، قابل‌کنترل و قابل‌اعتماد نگه دارید.

اکوسیستم / ابزار

اکوسیستم Ollama

Ollama بهترین نقطه شروع برای تیم‌هایی است که می‌خواهند بدون درگیرشدن با serving stackهای سنگین، مدل را روی لپ‌تاپ، ورک‌استیشن یا سرور کوچک بالا بیاورند.

اکوسیستم / ابزار

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

نوع صفحه

اگر از قبل می‌دانید دنبال مدل هستید یا guide deployment و tooling می‌خواهید، از اینجا شروع کنید.

مرور بر اساس مودالیته

اول از modality شروع کن، بعد با deployment و vendor فهرست را باریک کن.

Vendorهای شاخص

برای مقایسه خانواده‌های بزرگ و proprietary/open-weight از vendor filter شروع کن.

Ecosystemهای کلیدی

برای انتخاب runtime، toolchain و stack serving از روی ecosystem وارد شوید.

Collection Browse

مسیرهای پیشنهادی برای شروع

اگر هنوز vendor یا مدل مشخصی در ذهن ندارید، از یکی از collectionهای زیر شروع کنید تا hub سریع‌تر قابل‌فهم شود.

vLLM Project

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

۹۷
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

LLM serving سازمانی، endpointهای چندکاربره، self-host در مقیاس متوسط تا بالا، embedding service و migration از pilot local به production.

مسیر اجرا

self-host production-grade

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

قوی برای serving، نیازمند infra discipline

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hugging Face

اکوسیستم Hugging Face

Hugging Face یک ابزار واحد نیست؛ لایه‌ای است که model discovery، artifact management، dataset handling، docs و deployment path بسیاری از تیم‌های open-weight را به هم وصل می‌کند.

۹۶
اکوسیستم / ابزارمتن‌بازترکیبی / متغیرمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌هایی که می‌خواهند مدل‌ها را مقایسه، weightها را مدیریت، dataset و adapter را منتشر و از یک ecosystem منسجم برای open model workflow استفاده کنند.

مسیر اجرا

ecosystem backbone

استقرار

API • محیط محلی

پیچیدگی

مرجع اصلی open modelها

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Ollama

اکوسیستم Ollama

Ollama بهترین نقطه شروع برای تیم‌هایی است که می‌خواهند بدون درگیرشدن با serving stackهای سنگین، مدل را روی لپ‌تاپ، ورک‌استیشن یا سرور کوچک بالا بیاورند.

۹۵
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

prototype محلی، ارزیابی اولیه مدل‌های open-weight، demo داخلی، RAG سبک و backendهایی که OpenAI-compatible local endpoint می‌خواهند.

مسیر اجرا

local-first و self-host سبک

استقرار

محیط محلی • self-host

پیچیدگی

ساده برای شروع، محدود برای scale

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

macOS • Linux | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

ggml-org / llama.cpp

اکوسیستم llama.cpp

llama.cpp برای وقتی مناسب است که کنترل دقیق روی GGUF، اجرای CPU-friendly، edge deployment یا بسته‌بندی محلی برایتان مهم‌تر از سادگی UX باشد.

۹۴
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

GGUF، edge، inference روی CPU یا GPUهای کوچک، embedded apps و تیم‌هایی که می‌خواهند behavior runtime را دقیق‌تر کنترل کنند.

مسیر اجرا

local و edge-oriented

استقرار

محیط محلی • self-host

پیچیدگی

کنترل زیاد، setup فنی‌تر

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hooshgate Reference

مرور اکوسیستم fine-tuning

همه مسائل با fine-tuning حل نمی‌شود. این صفحه کمک می‌کند بفهمید چه زمانی tuning واقعاً ارزش دارد، چه زمانی retrieval یا prompt بهتر است و کدام ecosystem برای LoRA یا full training مناسب‌تر است.

۹۴
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌هایی که بعد از رسیدن به baseline خوب، به adaptation جدی فکر می‌کنند و نمی‌خواهند زودتر از موعد وارد training pipeline پرهزینه شوند.

مسیر اجرا

adaptation decision guide

استقرار

محیط محلی • self-host

پیچیدگی

high leverage, high risk

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۱۰ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: ابزار توسعه • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hugging Face

Transformers stack

Transformers stack زمانی مناسب است که می‌خواهید روی اجرای مدل، pre/post-processing و training/inference workflow کنترل عمیق داشته باشید و حاضر باشید از سادگی runtimeهای turnkey صرف‌نظر کنید.

۹۳
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌های فنی، سرویس‌های سفارشی Python، inference با منطق اختصاصی، training/fine-tuning و کار با مدل‌هایی که runtime آماده برایشان کافی نیست.

مسیر اجرا

custom Python stack

استقرار

محیط محلی • self-host

پیچیدگی

انعطاف بالا، boilerplate بیشتر

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: ابزار توسعه • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-22

ورود به راهنما

LM Studio

LM Studio و runtimeهای desktop

LM Studio برای تیم‌هایی مناسب است که می‌خواهند بدون درگیری با CLI و serving stack، مدل محلی را روی desktop اجرا، مقایسه و برای demo یا evaluation آماده کنند.

۹۲
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

product discovery، مقایسه سریع مدل‌های محلی، demo برای غیرتوسعه‌دهنده‌ها و تیم‌هایی که GUI desktop می‌خواهند.

مسیر اجرا

desktop local GUI

استقرار

محیط محلی

پیچیدگی

خیلی ساده برای ارزیابی، محدود برای production

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Windows • macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hugging Face

Diffusers stack

Diffusers بهترین انتخاب برای تیم‌هایی است که می‌خواهند image/video generation را با pipelineهای سفارشی، LoRA، control و experimentation مهندسی کنند.

۹۲
اکوسیستم / ابزارمتن‌بازOpen-source permissiveتولید تصویرویدئوتولید تصویرتولید ویدئو

تیم‌های تولید تصویر، پژوهش، pipelineهای visual generation، custom workflows و integration با adapterها و controlهای متنوع.

مسیر اجرا

custom generation stack

استقرار

محیط محلی • self-host

پیچیدگی

قوی برای experimentation و custom pipelines

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Linux | مناسب برای: تولید رسانه • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hugging Face

Text Embeddings Inference

TEI یکی از مهم‌ترین runtimeهای hub برای embedding و reranking است؛ چون self-host retrieval را از مرحله notebook به سرویس production نزدیک می‌کند.

۹۲
اکوسیستم / ابزارمتن‌بازOpen-source permissiveEmbeddingRerankingجست‌وجوی معناییRAG و دانش سازمانی

embedding و reranking service، RAG داخلی، search production و تیم‌هایی که می‌خواهند open models را با runtime مخصوص retrieval بالا بیاورند.

مسیر اجرا

serving تخصصی retrieval

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

runtime ویژه embedding/reranking

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Container / Docker • Linux | مناسب برای: جست‌وجوی سازمانی • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Hugging Face

Text Generation Inference (TGI)

TGI سرور inference مربوط به Hugging Face است و برای تیم‌هایی معنا دارد که stack آن‌ها از قبل حول artifactهای Hugging Face، containerized serving و الگوهای سازمانی آن شکل گرفته است.

۹۱
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

سازمان‌هایی که از قبل روی Hugging Face ecosystem سرمایه‌گذاری کرده‌اند، container-based serving می‌خواهند و deployment inference را با artifact management رسمی HF می‌بینند.

مسیر اجرا

HF-oriented self-host

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

container serving با fit سازمانی

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hugging Face

اکوسیستم PEFT

PEFT در hub به این خاطر مهم است که لایه adaptation عملی برای modelهای باز را پوشش می‌دهد؛ یعنی جایی بین prompt-only و full fine-tuning.

۹۰
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

LoRA، adapter-based tuning، domain adaptation کم‌هزینه و تیم‌هایی که می‌خواهند experimentation را بدون full training شروع کنند.

مسیر اجرا

training-adaptation toolkit

استقرار

محیط محلی • self-host

پیچیدگی

adapter training برای مدل‌های باز

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Linux • Cloud managed | مناسب برای: ابزار توسعه • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Hugging Face

اکوسیستم TRL

TRL برای تیم‌هایی مهم است که از adaptation ساده عبور کرده‌اند و به SFT، DPO یا post-training جدی‌تر فکر می‌کنند.

۸۹
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارworkflow عامل‌محور

SFT، preference optimization، reward modeling و تیم‌هایی که می‌خواهند post-training را reproducible و scriptable جلو ببرند.

مسیر اجرا

post-training toolkit

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

پیچیده‌تر از adapter-only

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Linux • Cloud managed | مناسب برای: ابزار توسعه • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به راهنما

AWS / Amazon

اکوسیستم Amazon Bedrock

Amazon Bedrock برای تیم‌هایی مهم است که multi-model access را در بستر AWS و با دغدغه enterprise governance می‌خواهند.

۸۹
اکوسیستم / ابزاراختصاصیCommercial APIمتن و چتچندوجهیچت و دستیارworkflow عامل‌محور

سازمان‌هایی که already در AWS هستند، policy و governance برایشان مهم است و می‌خواهند model access را داخل همان cloud plane نگه دارند.

مسیر اجرا

managed cloud platform

استقرار

API • ابر مدیریت‌شده

پیچیدگی

cloud-native enterprise path

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Cloud managed • Serverless | مناسب برای: دستیار عمومی • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Google

اکوسیستم Vertex AI Model Garden

Vertex AI Model Garden برای تیم‌هایی مهم است که در Google Cloud هستند و می‌خواهند هم مدل‌های گوگل و هم بعضی model familyهای third-party را از یک cloud plane ببینند.

۸۹
اکوسیستم / ابزاراختصاصیCommercial APIمتن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

Google Cloud-native teams، managed AI platform، teamهای data/ML که already روی Vertex و GCP workflow دارند.

مسیر اجرا

managed cloud platform

استقرار

API • ابر مدیریت‌شده

پیچیدگی

cloud-native model catalog

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: دستیار عمومی • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Open WebUI

اکوسیستم Open WebUI

Open WebUI برای تیم‌هایی مهم است که UI و control plane برای local یا self-host مدل‌ها می‌خواهند، نه فقط یک inference server خام.

۸۸
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

chat UI داخلی، RAG demo، تیم‌های غیرزیرساختی که می‌خواهند model access، user-facing interface و tooling را سریع ببینند.

مسیر اجرا

UI + orchestration layer

استقرار

محیط محلی • self-host

پیچیدگی

ساده برای demo، محدود برای ops سنگین

راهنمای مرتبط

۶ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Container / Docker • Linux | مناسب برای: دستیار عمومی • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Microsoft

اکوسیستم Azure AI Foundry

Azure AI Foundry برای سازمان‌هایی مهم است که enterprise controls مایکروسافتی و model access را در یک platform واحد می‌خواهند.

۸۸
اکوسیستم / ابزاراختصاصیCommercial APIمتن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

Azure-centric organizations، enterprise governance، app teams که می‌خواهند model access و security controls را داخل Azure نگه دارند.

مسیر اجرا

managed enterprise platform

استقرار

API • ابر مدیریت‌شده

پیچیدگی

cloud governance path

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: دستیار عمومی • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Apple MLX community

اکوسیستم MLX / mlx-lm

MLX / mlx-lm برای تیم‌هایی مهم است که macOS و Apple Silicon را به‌عنوان مسیر واقعی local AI می‌بینند، نه فقط fallback development machine.

۸۷
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

local inference روی مک، developer workflow، ارزیابی مدل‌های باز روی Apple Silicon و تیم‌هایی که pilot را روی لپ‌تاپ‌های مک جلو می‌برند.

مسیر اجرا

macOS local-native

استقرار

محیط محلی

پیچیدگی

بهترین fit روی Apple Silicon

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

NVIDIA

اکوسیستم TensorRT-LLM

TensorRT-LLM برای تیم‌هایی مهم است که deployment روی GPU انویدیا را به‌صورت performance-driven می‌بینند و می‌خواهند از optimization stack انویدیا استفاده کنند.

۸۷
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارworkflow عامل‌محور

GPU-heavy serving، latency/throughput optimization و تیم‌هایی که serving production را روی انویدیا استاندارد کرده‌اند.

مسیر اجرا

GPU serving optimization

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

پیشرفته و infra-heavy

راهنمای مرتبط

۱ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

SGLang Project

اکوسیستم SGLang

SGLang برای تیم‌هایی مهم است که inference و serving را performance-first می‌بینند و می‌خواهند beyond simple vLLM-style setup به scheduling و execution توجه کنند.

۸۶
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارworkflow عامل‌محور

serving مدل‌های باز، performance-sensitive inference و تیم‌هایی که throughput و latency را جدی‌تر optimize می‌کنند.

مسیر اجرا

performance-oriented serving

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

stack inference پیشرفته‌تر

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

LiteLLM

اکوسیستم LiteLLM

LiteLLM برای تیم‌هایی مهم است که multi-provider gateway، routing و compatibility layer می‌خواهند و نمی‌خواهند هر provider را جدا در backend پیاده کنند.

۸۶
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارworkflow عامل‌محور

provider routing، fallback، cost control، unified API surface و backendهایی که چند vendor را هم‌زمان مصرف می‌کنند.

مسیر اجرا

gateway and routing layer

استقرار

self-host • API

پیچیدگی

مناسب multi-provider backend

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

وابسته به stack انتخابی | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

ورود سریع

ورود سریع بر اساس سناریو

اگر هنوز مطمئن نیستی دنبال چه خانواده‌ای بگردی، از shortcutهای زیر شروع کن.