Hooshgate Models Center

مرجع فارسی انتخاب مدل، setup، integration و deployment

این بخش playground یا inference UI نیست. اینجا برای browse، مقایسه، انتخاب مسیر local/API/self-host و رسیدن به guideهای درست ساخته شده است. در بازسازی فعلی، فقط مرز curated و قابل‌اتکا روی surface عمومی مانده است.

مرجع و directoryopen-source / open-weightproprietary / API-firstsetup / integration / deployment

مرز عمومی فعلی

بازسازی با فهرست curated

در این فاز فقط صفحه‌هایی روی /fa/models دیده می‌شوند که برای reference، selection یا guide عملی ارزش روشن دارند.

کل صفحه‌های visible

۸۶

خانواده و مدل

۳۳

guide و tooling

۵۳

متن‌باز

۳۰

وزن‌باز

۲۳

صفحه‌های proprietary

۳۳

اگر دنبال عمق هستید، از guideها شروع کنید. family pageها بیشتر برای فهم fit، trade-off و shortlist هستند؛ setup و deployment عمیق معمولاً روی pageهای dedicated باز می‌شوند.

Browse سریع

۴۵ صفحه در مرز عمومی فعلی

مرکز مدل‌ها فعلاً فقط روی curated boundary اجرا می‌شود تا surface تمیز، قابل‌جست‌وجو و مرجع‌گونه بماند.

RAG و دانش سازمانی

خانواده‌های پایه LLM

برای انتخاب بین GPT، Claude، Gemini، Llama، Qwen و Mistral از اینجا شروع کنید.

۱۴ صفحه

کدنویسی و workflow توسعه

مدل‌ها و guideهایی برای code assistant، repo workflow و انتخاب coding stack.

۴۱ صفحه

Embedding، RAG و reranking

برای retrieval stack، document AI و search quality مسیرهای مرتبط را اینجا ببینید.

۴۶ صفحه

تصویر، ویدئو و صوت

مدل‌های media و voice را کنار هم ببینید و بعد بین API و self-host تصمیم بگیرید.

۳۷ صفحه

اکوسیستم و serving

برای Ollama، vLLM، TGI، Hugging Face و runtimeهای محلی و production.

۱۸ صفحه

نصب، integration و deployment

اگر دنبال جواب اجرایی هستید، به‌جای family pages از guideها شروع کنید.

۳۱ صفحه

عمق M4B

عمق را از نوع guide وارد کنید

برای این فاز، landing نقش hub دارد نه card dump. از laneهای curated وارد setup، comparison، deployment، implementation، local/self-host و API-first شوید.

ورود از مسیر task

اگر use-case را می‌دانید، از task شروع کنید و بعد vendor یا runtime را باریک کنید.

ورود از مسیر ecosystem

اگر stack را می‌دانید، از Hugging Face، Ollama، vLLM یا runtimeهای محلی وارد شوید.

نقطه‌های شروع خوب

چند صفحه برای شروع سریع

اگر هنوز مطمئن نیستید از کجا شروع کنید، یکی از این صفحه‌های مرجع یا guide را باز کنید.

خانواده مدل

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

راهنمای نصب

مدل هاي local روي macOS

اگر قرار است local AI را روي مک جدي و قابل تکرار جلو ببريد، اين صفحه تفاوت Ollama، MLX و LM Studio را از نگاه hardware fit، developer workflow و مسير migration روشن مي کند.

مقایسه تصمیم‌یار

مقايسه مدل هاي proprietary و open-weight

اين comparison براي تصميم ايدئولوژيک نوشته نشده است؛ براي وقتي است که بايد بين quality آماده، time-to-market و enterprise support از يک سو، و data control، local/self-host و flexibility از سوي ديگر انتخاب عملي کنيد.

مقایسه تصمیم‌یار

مقايسه stackهاي serving و inference

وقتي open model انتخاب شده، سؤال بعدي فقط «کجا deploy کنيم؟» نيست؛ سؤال اين است که vLLM، TGI، endpoint managed يا cloud serving براي latency، throughput، ownership و migration path شما کدام trade-off را مي سازند.

مقایسه تصمیم‌یار

مقایسه خانواده‌های هوش مصنوعی ویدئو

این راهنما برای انتخاب عملی بین text-to-video، image-to-video، video editing و video understanding است؛ با این نگاه که ویدئو هنوز گران، کند، policy-heavy و وابسته به workflow انسانی است.

راهنمای استقرار

راه اندازي self-host براي LLM در production

اين guide براي لحظه اي است که self-host از demo و benchmark عبور مي کند و بايد به سرويس پايدار، monitorable و rollbackable تبديل شود؛ با owner روشن براي GPU، gateway، observability و incident response.

راهنمای استقرار

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

راهنمای پیاده‌سازی

GitHub Copilot Coding Agent

GitHub Copilot Coding Agent برای تیم‌هایی مهم است که می‌خواهند issue-to-PR automation را داخل همان workflow گیت‌هاب خودشان جلو ببرند، با review و policyهای سازمانی نزدیک به محل کار اصلی تیم.

راهنمای پیاده‌سازی

پیاده‌سازی voice stack و voice agent

voice product فقط STT یا TTS نیست. این guide نشان می‌دهد برای ساخت voice agent باید latency زنجیره‌ای، barge-in، fallback و انتخاب بین managed voice stack و local/self-host را چطور ببینید.

Hooshgate Referenceمقایسه تصمیم‌یاروزن‌باز

مقایسه local، API و self-host

مهم‌ترین سؤال عملی بسیاری از تیم‌ها همین است: local run کنم، API بگیرم یا self-host شوم؟ این صفحه به‌جای پاسخ شعاری، trade-off تصمیم را شفاف می‌کند.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

تیم‌های product، infra و enterprise که باید تصمیم deployment بگیرند و نمی‌خواهند تحت‌تأثیر hype یک مسیر اشتباه انتخاب کنند.

مسیر شروع

decision framework

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

محیط محلی • API

محیط

Cloud managed

نکته‌ی مهم: هیچ مسیر «همیشه درست» وجود ندارد؛ تصمیم باید بر اساس latency target، داده، team maturity و economics workload گرفته شود.

ورود به راهنما
Hooshgate Referenceراهنمای یکپارچه‌سازیوزن‌باز

راهنمای integration برای RAG

RAG با وصل‌کردن یک LLM به vector DB حل نمی‌شود. این guide مسیر حرفه‌ای integration را از ingest تا retrieval، reranking، answer synthesis و evaluation توضیح می‌دهد.

متن و چتEmbedding / بردارسازیRAG و دانش سازمانیجست‌وجوی معنایی

کجا به کار می‌آید؟

تیم‌هایی که می‌خواهند روی اسناد داخلی، دانش سازمانی، policy و document assistant یک RAG قابل‌نگهداری بسازند.

مسیر شروع

integration-focused

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بدون dataset ارزیابی، metadata درست و failure taxonomy، بیشتر RAGها فقط demo خوب هستند نه محصول قابل اتکا.

ورود به راهنما
Hooshgate Referenceراهنمای استقراراختصاصی

Guardrails، observability و evaluation

بخش بزرگی از production readiness نه در مدل، بلکه در guardrails، observability و evaluation است. این صفحه نشان می‌دهد چطور AI feature را قابل‌پایش، قابل‌کنترل و قابل‌اعتماد نگه دارید.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

هر تیمی که AI را از demo وارد محصول یا فرایند سازمانی می‌کند؛ مخصوصاً محیط‌های حساس، customer-facing و agentic.

مسیر شروع

ops and safety layer

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بدون quality review، trace و policy checks، حتی بهترین مدل‌ها هم به‌مرور drift می‌کنند و اعتماد کاربر را از بین می‌برند.

ورود به راهنما
vLLM Projectاکوسیستم / ابزارمتن‌باز

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

LLM serving سازمانی، endpointهای چندکاربره، self-host در مقیاس متوسط تا بالا، embedding service و migration از pilot local به production.

مسیر شروع

self-host production-grade

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Linux • Container / Docker

نکته‌ی مهم: vLLM ابزار onboarding مبتدی نیست؛ بدون GPU sizing، model selection و observability خوب، deployment آن می‌تواند پرهزینه و ناپایدار شود.

ورود به راهنما
Hooshgate Referenceراهنمای استقراراختصاصی

راهنمای deployment برای محصول و سازمان

deployment حرفه‌ای با «انتخاب مدل» تمام نمی‌شود. این guide از phaseهای rollout تا security، observability، guardrails و maintenance trade-off را برای محصول و سازمان جمع می‌کند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

tech leadها، infra leadها و product ownerهایی که باید یک AI feature را به‌شکل production-grade وارد سیستم واقعی کنند.

مسیر شروع

production operations

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بیشتر شکست‌های production نه از خود مدل، بلکه از فقدان rollout phase، logging، fallback و ownership عملیاتی می‌آید.

ورود به راهنما
Hugging Faceاکوسیستم / ابزارمتن‌باز

اکوسیستم Hugging Face

Hugging Face یک ابزار واحد نیست؛ لایه‌ای است که model discovery، artifact management، dataset handling، docs و deployment path بسیاری از تیم‌های open-weight را به هم وصل می‌کند.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

تیم‌هایی که می‌خواهند مدل‌ها را مقایسه، weightها را مدیریت، dataset و adapter را منتشر و از یک ecosystem منسجم برای open model workflow استفاده کنند.

مسیر شروع

ecosystem backbone

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

API • محیط محلی

محیط

Cloud managed

نکته‌ی مهم: داشتن model card روی Hugging Face به معنی production-ready بودن مدل یا روشن‌بودن license آن نیست؛ governance و review هنوز بر عهده شماست.

ورود به راهنما
Hooshgate Referenceراهنمای نصبمتن‌باز

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

تیم‌ها و افرادی که می‌خواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.

مسیر شروع

desktop و workstation

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی

محیط

Windows • macOS

نکته‌ی مهم: local run همیشه بهترین انتخاب نیست؛ اگر هدف شما محصول چندکاربره یا SLAدار است، باید بعد از pilot تصمیم serving را دوباره بگیرید.

ورود به راهنما
Metaخانواده مدلوزن‌باز

خانواده Llama

Llama یکی از مهم‌ترین خانواده‌های open-weight برای self-host، سفارشی‌سازی و ساخت stack مستقل سازمانی است.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

تیم‌هایی که می‌خواهند مدل را داخل زیرساخت خودشان اجرا کنند، quantize کنند، LoRA بزنند و control بیشتری روی داده و serving داشته باشند.

مسیر شروع

self-host قوی

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • macOS

نکته‌ی مهم: راه‌اندازی حرفه‌ای Llama بدون شناخت vLLM، quantization، monitoring و hardware sizing به‌هم می‌ریزد.

ورود به صفحه مرجع
Ollamaاکوسیستم / ابزارمتن‌باز

اکوسیستم Ollama

Ollama بهترین نقطه شروع برای تیم‌هایی است که می‌خواهند بدون درگیرشدن با serving stackهای سنگین، مدل را روی لپ‌تاپ، ورک‌استیشن یا سرور کوچک بالا بیاورند.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

prototype محلی، ارزیابی اولیه مدل‌های open-weight، demo داخلی، RAG سبک و backendهایی که OpenAI-compatible local endpoint می‌خواهند.

مسیر شروع

local-first و self-host سبک

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

macOS • Linux

نکته‌ی مهم: وقتی concurrency بالا، batching پیشرفته یا multi-tenant production می‌خواهید، Ollama معمولاً باید جای خود را به runtimeهای جدی‌تری مثل vLLM بدهد.

ورود به راهنما
Hooshgate Referenceراهنمای پیاده‌سازیوزن‌باز

پیاده‌سازی document AI و سندمحور

document AI فقط OCR یا chat با PDF نیست. این guide نشان می‌دهد برای ingestion، extraction، validation، citation و human review چطور یک pipeline سندمحور قابل‌اعتماد بسازید.

چندوجهیمتن و چتتحلیل سندRAG و دانش سازمانی

کجا به کار می‌آید؟

workflowهای قرارداد، فاکتور، policy، proposal review و هر use-case که سند source-of-truth است.

مسیر شروع

use-case implementation

پوشش صفحه

۵ کامل / ۳ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بزرگ‌ترین خطا این است که extraction را مستقیماً به مدل بسپارید بدون schema، validator و review path.

ورود به راهنما
Alibaba / Qwen Teamخانواده مدلوزن‌باز

خانواده Qwen

Qwen یکی از خانواده‌های open-weight مهم برای تیم‌هایی است که هم multilingual support می‌خواهند و هم self-host و fine-tuning.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

محصولات چندزبانه، assistantهای self-host، coding workflowها و تیم‌هایی که stack open-weight اما مدرن می‌خواهند.

مسیر شروع

self-host قوی

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • Windows

نکته‌ی مهم: مثل Llama، کیفیت نهایی به runtime، quantization، prompt template و discipline deployment گره خورده است.

ورود به صفحه مرجع
ggml-org / llama.cppاکوسیستم / ابزارمتن‌باز

اکوسیستم llama.cpp

llama.cpp برای وقتی مناسب است که کنترل دقیق روی GGUF، اجرای CPU-friendly، edge deployment یا بسته‌بندی محلی برایتان مهم‌تر از سادگی UX باشد.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

GGUF، edge، inference روی CPU یا GPUهای کوچک، embedded apps و تیم‌هایی که می‌خواهند behavior runtime را دقیق‌تر کنترل کنند.

مسیر شروع

local و edge-oriented

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • macOS

نکته‌ی مهم: اگر فقط می‌خواهید سریع demo بگیرید، llama.cpp معمولاً نقطه شروع راحتی نیست و Ollama یا LM Studio friction کمتری دارند.

ورود به راهنما
Hooshgate Referenceاکوسیستم / ابزارمتن‌باز

مرور اکوسیستم fine-tuning

همه مسائل با fine-tuning حل نمی‌شود. این صفحه کمک می‌کند بفهمید چه زمانی tuning واقعاً ارزش دارد، چه زمانی retrieval یا prompt بهتر است و کدام ecosystem برای LoRA یا full training مناسب‌تر است.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

تیم‌هایی که بعد از رسیدن به baseline خوب، به adaptation جدی فکر می‌کنند و نمی‌خواهند زودتر از موعد وارد training pipeline پرهزینه شوند.

مسیر شروع

adaptation decision guide

پوشش صفحه

۱۰ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بزرگ‌ترین اشتباه، رفتن سراغ tuning قبل از داشتن eval set، failure taxonomy و baseline درست است.

ورود به راهنما
Hooshgate Referenceراهنمای استقراروزن‌باز

راه اندازي self-host براي LLM در production

اين guide براي لحظه اي است که self-host از demo و benchmark عبور مي کند و بايد به سرويس پايدار، monitorable و rollbackable تبديل شود؛ با owner روشن براي GPU، gateway، observability و incident response.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

تيم هايي که workload پايدار، data boundary روشن و آمادگي on-call و capacity planning دارند و مي خواهند self-host را واقعا وارد production کنند.

مسیر شروع

production self-host with explicit ownership

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Linux • Cloud managed

نکته‌ی مهم: اگر تيم شما هنوز owner عملياتي براي GPU، rollout و incident ندارد، self-host production بيشتر از آن که صرفه اقتصادي بسازد، debt و downtime مي سازد.

ورود به راهنما
Hugging Faceاکوسیستم / ابزارمتن‌باز

Transformers stack

Transformers stack زمانی مناسب است که می‌خواهید روی اجرای مدل، pre/post-processing و training/inference workflow کنترل عمیق داشته باشید و حاضر باشید از سادگی runtimeهای turnkey صرف‌نظر کنید.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

تیم‌های فنی، سرویس‌های سفارشی Python، inference با منطق اختصاصی، training/fine-tuning و کار با مدل‌هایی که runtime آماده برایشان کافی نیست.

مسیر شروع

custom Python stack

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • macOS

نکته‌ی مهم: اگر فقط endpoint production می‌خواهید، بسیاری از تیم‌ها با vLLM یا TGI سریع‌تر به نتیجه می‌رسند؛ Transformers انعطاف می‌دهد اما burden بیشتری هم می‌آورد.

ورود به راهنما
Hooshgate Referenceراهنمای نصبمتن‌باز

راهنمای GGUF و بسته‌بندی local

GGUF برای local AI فقط یک فرمت فایل نیست؛ تصمیمی است درباره portability، quantization و trade-off کیفیت در برابر resource. این صفحه می‌گوید چه زمانی GGUF منطقی است و چه زمانی نه.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

local deployment، edge، laptop inference و تیم‌هایی که می‌خواهند مدل را با footprint کوچک‌تر اجرا و جابه‌جا کنند.

مسیر شروع

portable local packaging

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی • لبه / روی دستگاه

محیط

Edge / Device

نکته‌ی مهم: هر GGUF خوب نیست و هر quantization به‌صرفه هم لزوماً برای task شما مناسب نیست؛ باید quality را روی use-case واقعی بسنجید.

ورود به راهنما
Alibaba / Qwenخانواده مدلوزن‌باز

Qwen Embedding و Reranker

خانواده Qwen Embedding/Reranker برای تیم‌هایی مهم است که retrieval چندزبانه، RAG جدی و کنترل بیشتر روی embedding stack می‌خواهند.

Embedding / بردارسازیReranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG چندزبانه، semantic search، reranking روی corpus سازمانی و pipelineهایی که کیفیت retrieval برایشان حیاتی‌تر از chat model است.

مسیر شروع

self-host یا API

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Linux • Container / Docker

نکته‌ی مهم: اگر chunking، indexing و evaluation را درست طراحی نکنید، حتی embedding قوی هم retrieval خوبی به شما نمی‌دهد.

ورود به صفحه مرجع
Mistral AIخانواده مدلوزن‌باز

خانواده Mistral

Mistral برای تیم‌هایی جذاب است که هم self-host می‌خواهند و هم سبدی از مدل‌های تخصصی‌تر مثل coding، multimodal و document AI را در یک خانواده ببینند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

سازمان‌هایی که بین API و self-host جابه‌جا می‌شوند و می‌خواهند از مدل‌های متنوع این خانواده برای code، vision و enterprise search استفاده کنند.

مسیر شروع

API + self-host

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • محیط محلی

محیط

Linux • Container / Docker

نکته‌ی مهم: تنوع مدل‌ها مزیت است، اما بدون taxonomy داخلی و استاندارد انتخاب مدل، تیم به‌سرعت سردرگم می‌شود.

ورود به صفحه مرجع
LM Studioاکوسیستم / ابزارمتن‌باز

LM Studio و runtimeهای desktop

LM Studio برای تیم‌هایی مناسب است که می‌خواهند بدون درگیری با CLI و serving stack، مدل محلی را روی desktop اجرا، مقایسه و برای demo یا evaluation آماده کنند.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

product discovery، مقایسه سریع مدل‌های محلی، demo برای غیرتوسعه‌دهنده‌ها و تیم‌هایی که GUI desktop می‌خواهند.

مسیر شروع

desktop local GUI

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی

محیط

Windows • macOS

نکته‌ی مهم: LM Studio معمولاً مقصد نهایی production نیست؛ اگر نیاز backend shared یا API سازمانی دارید باید به stackهای دیگر مهاجرت کنید.

ورود به راهنما
Hugging Faceاکوسیستم / ابزارمتن‌باز

Text Embeddings Inference

TEI یکی از مهم‌ترین runtimeهای hub برای embedding و reranking است؛ چون self-host retrieval را از مرحله notebook به سرویس production نزدیک می‌کند.

Embedding / بردارسازیReranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

embedding و reranking service، RAG داخلی، search production و تیم‌هایی که می‌خواهند open models را با runtime مخصوص retrieval بالا بیاورند.

مسیر شروع

serving تخصصی retrieval

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Container / Docker • Linux

نکته‌ی مهم: اگر stack شما heterogeneous است، باید آن را کنار vLLM، custom services و managed embedding APIها هم بسنجید.

ورود به راهنما
Hooshgate Referenceراهنمای نصبمتن‌باز

مدل هاي local روي macOS

اگر قرار است local AI را روي مک جدي و قابل تکرار جلو ببريد، اين صفحه تفاوت Ollama، MLX و LM Studio را از نگاه hardware fit، developer workflow و مسير migration روشن مي کند.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

Apple Silicon workstationها، تيم هاي developer يا knowledge worker که مي خواهند local pilot، coding workflow يا RAG سبک را بدون رفتن فوري به سرور Linux شروع کنند.

مسیر شروع

Apple Silicon local-first

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

macOS

نکته‌ی مهم: macOS نقطه شروع خوبي براي evaluation و workflow شخصي است، اما shared serving يا rollout چندکاربره را نبايد با production-ready بودن يکي گرفت؛ مخصوصا روي Intel Mac.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یارمتن‌باز

مقايسه stackهاي serving و inference

وقتي open model انتخاب شده، سؤال بعدي فقط «کجا deploy کنيم؟» نيست؛ سؤال اين است که vLLM، TGI، endpoint managed يا cloud serving براي latency، throughput، ownership و migration path شما کدام trade-off را مي سازند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

platform teamها، infra ownerها و تيم هايي که از pilot گذشته اند و حالا بايد serving stack را بر اساس workload، hardware و on-call reality انتخاب کنند.

مسیر شروع

engine و platform selection

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Cloud managed • Container / Docker

نکته‌ی مهم: engine benchmark به تنهايي براي انتخاب stack کافي نيست؛ observability، upgrade path، batching behavior و incident ownership هم بخشي از تصميم هستند.

ورود به راهنما
Hooshgate Referenceراهنمای استقراراختصاصی

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

صوت و گفتارمتن و چتدستیار صوتیتبدیل گفتار به متن

کجا به کار می‌آید؟

تیم‌هایی که voice assistant، call automation، spoken UI یا voice support را با کاربر واقعی اجرا می‌کنند و باید chain کامل STT → reasoning → tools/RAG → TTS را قابل اتکا کنند.

مسیر شروع

managed-first with selective self-host

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: اگر هنوز conversational design، privacy policy، on-call owner یا fallback text channel ندارید، deployment صوتی real-time زود است.

ورود به راهنما
Hugging Faceاکوسیستم / ابزارمتن‌باز

Text Generation Inference (TGI)

TGI سرور inference مربوط به Hugging Face است و برای تیم‌هایی معنا دارد که stack آن‌ها از قبل حول artifactهای Hugging Face، containerized serving و الگوهای سازمانی آن شکل گرفته است.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

سازمان‌هایی که از قبل روی Hugging Face ecosystem سرمایه‌گذاری کرده‌اند، container-based serving می‌خواهند و deployment inference را با artifact management رسمی HF می‌بینند.

مسیر شروع

HF-oriented self-host

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Linux • Container / Docker

نکته‌ی مهم: اگر صرفاً دنبال ساده‌ترین مسیر serving هستید، در عمل بسیاری از تیم‌ها vLLM را روان‌تر می‌یابند؛ TGI را بیشتر وقتی انتخاب کنید که ecosystem fit آن برای شما روشن است.

ورود به راهنما
OpenAIخانواده مدلاختصاصی

OpenAI Embeddings

اگر به embedding API ساده، پایدار و کم‌دردسر نیاز دارید، خانواده text-embedding-3 یکی از baselineهای حرفه‌ای بازار است.

Embedding / بردارسازیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG، semantic search، deduplication و هر جایی که می‌خواهید embedding به‌عنوان سرویس مدیریت شود.

مسیر شروع

API-only

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API

محیط

Linux • macOS

نکته‌ی مهم: مثل هر embedding API دیگر، هزینه در scale بالا باید با حجم سند، refresh index و dimension strategy سنجیده شود.

ورود به صفحه مرجع
Voyage AIخانواده مدلاختصاصی

Voyage Rerank

Voyage Rerank برای تیم‌هایی مهم است که retrieval stack آن‌ها embedding خوبی دارد اما برای precision نهایی و ranking enterprise-grade به یک مرحله reranking تمیز نیاز دارند.

Reranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG چندمرحله‌ای، search stack سازمانی، ranking مجدد روی top-k و تیم‌هایی که می‌خواهند answer quality را بدون ساخت مدل خودشان بهتر کنند.

مسیر شروع

API reranking layer

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: reranker جایگزین corpus hygiene، chunking درست یا ارزیابی retrieval نیست؛ فقط لایه دوم تصمیم است.

ورود به صفحه مرجع
Hugging Faceاکوسیستم / ابزارمتن‌باز

اکوسیستم PEFT

PEFT در hub به این خاطر مهم است که لایه adaptation عملی برای modelهای باز را پوشش می‌دهد؛ یعنی جایی بین prompt-only و full fine-tuning.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

LoRA، adapter-based tuning، domain adaptation کم‌هزینه و تیم‌هایی که می‌خواهند experimentation را بدون full training شروع کنند.

مسیر شروع

training-adaptation toolkit

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • Cloud managed

نکته‌ی مهم: بدون baseline، eval و data curation، PEFT فقط complexity اضافه می‌کند و الزاماً quality بهتر نمی‌دهد.

ورود به راهنما
Hooshgate Referenceراهنمای نصبمتن‌باز

راهنمای self-host روی لینوکس

این guide برای تیمی است که واقعاً می‌خواهد روی Linux self-host کند: انتخاب بین vLLM، TGI، GGUF، container و incident path.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

stack self-host، private infra، rollout مدل‌های باز و تیم‌هایی که production serving را روی Linux جلو می‌برند.

مسیر شروع

Linux production-minded

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان

محیط

Linux • Container / Docker

نکته‌ی مهم: self-host فقط نصب مدل نیست؛ queueing، logging، incident، security و upgrade path هم باید روشن باشند.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یاروزن‌باز

مقایسه embedding و reranking

این comparison guide برای تیم‌هایی است که می‌خواهند retrieval stack را جدی انتخاب کنند: فقط embedding، embedding + reranker، یا managed retrieval API.

Embedding / بردارسازیReranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG system design، enterprise search selection و تیم‌هایی که retrieval quality برایشان KPI واقعی است.

مسیر شروع

self-host یا managed retrieval

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Container / Docker

نکته‌ی مهم: embedding leaderboards به‌تنهایی کافی نیستند؛ query set، chunking و corpus behavior تعیین‌کننده‌اند.

ورود به راهنما
FlagOpen / BAAIخانواده مدلمتن‌باز

خانواده BGE / FlagEmbedding

BGE برای تیم‌هایی مهم است که retrieval stack را کاملاً open و self-host می‌خواهند؛ از embedding تا reranker.

Embedding / بردارسازیReranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG self-host، enterprise search داخل VPC و تیم‌هایی که می‌خواهند retrieval را تا لایه مدل کنترل کنند.

مسیر شروع

کاملاً self-host

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • Container / Docker

نکته‌ی مهم: بدون دانش کافی در ارزیابی retrieval، open بودن به‌تنهایی مزیت عملیاتی نمی‌سازد.

ورود به صفحه مرجع
AWS / Amazonاکوسیستم / ابزاراختصاصی

اکوسیستم Amazon Bedrock

Amazon Bedrock برای تیم‌هایی مهم است که multi-model access را در بستر AWS و با دغدغه enterprise governance می‌خواهند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

سازمان‌هایی که already در AWS هستند، policy و governance برایشان مهم است و می‌خواهند model access را داخل همان cloud plane نگه دارند.

مسیر شروع

managed cloud platform

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed • Serverless

نکته‌ی مهم: Bedrock یک model family واحد نیست؛ quality و ops آن به provider انتخابی، region و service design شما وابسته است.

ورود به راهنما
Googleاکوسیستم / ابزاراختصاصی

اکوسیستم Vertex AI Model Garden

Vertex AI Model Garden برای تیم‌هایی مهم است که در Google Cloud هستند و می‌خواهند هم مدل‌های گوگل و هم بعضی model familyهای third-party را از یک cloud plane ببینند.

متن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

کجا به کار می‌آید؟

Google Cloud-native teams، managed AI platform، teamهای data/ML که already روی Vertex و GCP workflow دارند.

مسیر شروع

managed cloud platform

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: Model Garden هم یک platform layer است؛ باید کیفیت هر family را جدا benchmark و governance آن را جدا طراحی کنید.

ورود به راهنما
Hugging Face / ViDoReخانواده مدلوزن‌باز

ColQwen2

ColQwen2 برای تیم‌هایی مهم است که visual retrieval و document search را به‌صورت باز و self-hostable می‌خواهند، نه فقط OCR یا embedding متنی ساده.

چندوجهیEmbedding / بردارسازیتحلیل سندجست‌وجوی معنایی

کجا به کار می‌آید؟

PDF retrieval، visual search در اسناد پیچیده، pipelineهای RAG سندی و محیط‌هایی که می‌خواهند retrieval تصویر-محور را خودشان کنترل کنند.

مسیر شروع

self-host retrieval stack

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: اگر هنوز retrieval pipeline و eval سندی شما ساده است، ممکن است ColQwen2 زودتر از نیاز واقعی‌تان پیچیدگی وارد کند.

ورود به صفحه مرجع
Open WebUIاکوسیستم / ابزارمتن‌باز

اکوسیستم Open WebUI

Open WebUI برای تیم‌هایی مهم است که UI و control plane برای local یا self-host مدل‌ها می‌خواهند، نه فقط یک inference server خام.

متن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

کجا به کار می‌آید؟

chat UI داخلی، RAG demo، تیم‌های غیرزیرساختی که می‌خواهند model access، user-facing interface و tooling را سریع ببینند.

مسیر شروع

UI + orchestration layer

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Container / Docker • Linux

نکته‌ی مهم: Open WebUI خودِ serving stack نهایی نیست و برای enterprise production باید auth، audit، policy و backend ownership را جدا ببینید.

ورود به راهنما
LangChainراهنمای یکپارچه‌سازیمتن‌باز

راهنمای RAG با LangChain

این guide برای تیم‌هایی است که RAG را واقعاً implement می‌کنند و دنبال wiring بین retriever، prompt، model و evaluation هستند.

متن و چتEmbedding / بردارسازیRAG و دانش سازمانیجست‌وجوی معنایی

کجا به کار می‌آید؟

prototype تا implementation RAG، document pipeline، retrieval orchestration و تیم‌هایی که chain-level composition می‌خواهند.

مسیر شروع

orchestration-first

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

وابسته به stack انتخابی

نکته‌ی مهم: LangChain خودِ answer quality را تضمین نمی‌کند؛ retrieval quality، schema و evaluation هنوز مسئولیت تیم است.

ورود به راهنما
Googleخانواده مدلاختصاصی

Gemini Embedding

Gemini Embedding برای تیم‌هایی مناسب است که retrieval stack خود را روی Google ecosystem نگه می‌دارند.

Embedding / بردارسازیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG، semantic retrieval و pipelineهایی که هم generation و هم embedding را در Google stack می‌خواهند.

مسیر شروع

API-only

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: اگر vendor-neutrality مهم است، abstraction layer لازم است.

ورود به صفحه مرجع
Microsoftاکوسیستم / ابزاراختصاصی

اکوسیستم Azure AI Foundry

Azure AI Foundry برای سازمان‌هایی مهم است که enterprise controls مایکروسافتی و model access را در یک platform واحد می‌خواهند.

متن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

کجا به کار می‌آید؟

Azure-centric organizations، enterprise governance، app teams که می‌خواهند model access و security controls را داخل Azure نگه دارند.

مسیر شروع

managed enterprise platform

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: مثل بقیه platform pageها، اینجا درباره delivery و governance حرف می‌زنیم نه تضمین کیفیت هر model family.

ورود به راهنما
Apple MLX communityاکوسیستم / ابزارمتن‌باز

اکوسیستم MLX / mlx-lm

MLX / mlx-lm برای تیم‌هایی مهم است که macOS و Apple Silicon را به‌عنوان مسیر واقعی local AI می‌بینند، نه فقط fallback development machine.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

local inference روی مک، developer workflow، ارزیابی مدل‌های باز روی Apple Silicon و تیم‌هایی که pilot را روی لپ‌تاپ‌های مک جلو می‌برند.

مسیر شروع

macOS local-native

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی

محیط

macOS

نکته‌ی مهم: اگر deployment نهایی شما روی Linux/GPU است، pilot مک را با production stack یکی نگیرید.

ورود به راهنما
Hooshgate Referenceراهنمای نصبمتن‌باز

راهنمای Open WebUI + Ollama

این setup guide دقیقاً برای تیمی است که می‌خواهد سریع‌ترین مسیر usable برای local یا internal chat stack را با Ollama و Open WebUI ببندد.

متن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

کجا به کار می‌آید؟

pilot داخلی، chat portal تیمی، RAG سبک و تیم‌هایی که می‌خواهند بدون serving سنگین سریع به surface usable برسند.

مسیر شروع

local or single-node stack

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

macOS • Linux

نکته‌ی مهم: اگر concurrency بالا، audit سخت یا enterprise governance می‌خواهید، این stack را solution نهایی فرض نکنید.

ورود به راهنما
Hooshgate Referenceراهنمای نصبمتن‌باز

مدل‌های local روی ویندوز

این setup guide دقیقاً برای کاربر ویندوز است: از local LLM روی لپ‌تاپ یا ورک‌استیشن شروع کنید، بدون اینکه pretend کنیم همه setupها یکسان هستند.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

developer workstation ویندوز، pilot محلی، تست code assistant و تیم‌هایی که local AI را روی Windows/WSL می‌خواهند.

مسیر شروع

Windows / WSL local-first

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی

محیط

Windows

نکته‌ی مهم: Windows setup با Linux production یکی نیست؛ local success را با production parity اشتباه نگیرید.

ورود به راهنما
Cohereخانواده مدلاختصاصی

خانواده Command

Command برای تیم‌هایی مهم است که RAG، agents و multilingual enterprise workload را با API مصرف می‌کنند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

دانش سازمانی، search-heavy assistantها و تیم‌هایی که روی retrieval و citation حساس‌اند.

مسیر شروع

API / managed

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: برای همه use-caseها گزینه پیش‌فرض نیست؛ بیشترین ارزشش را در retrieval-heavy enterprise appها نشان می‌دهد.

ورود به صفحه مرجع
AWS / Amazonراهنمای استقراراختصاصی

استقرار LLM روی SageMaker

این guide برای تیم‌هایی است که می‌خواهند serving مدل‌های باز یا سفارشی را روی SageMaker جلو ببرند و به rollout، endpoint lifecycle و cloud ops فکر می‌کنند.

متن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

کجا به کار می‌آید؟

سازمان‌های AWS-centric که endpoint، autoscaling، model package و rollout cloud-managed می‌خواهند.

مسیر شروع

managed cloud deployment

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: اگر فقط یک pilot ساده دارید، complexity این مسیر می‌تواند از نیاز واقعی شما بیشتر باشد.

ورود به راهنما
deepsetراهنمای یکپارچه‌سازیمتن‌باز

راهنمای RAG با Haystack

این guide Haystack را به‌عنوان implementation route برای search و RAG پوشش می‌دهد؛ مخصوص تیم‌هایی که pipelineهای retrieval را structured می‌خواهند.

متن و چتEmbedding / بردارسازیRAG و دانش سازمانیجست‌وجوی معنایی

کجا به کار می‌آید؟

pipelineهای retrieval، document-centric systems و تیم‌هایی که Haystack-style component model را ترجیح می‌دهند.

مسیر شروع

component-based RAG

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • API

محیط

وابسته به stack انتخابی

نکته‌ی مهم: Framework choice مسئله اصلی نیست؛ corpus quality، evaluation و answer rubric هنوز تعیین‌کننده‌اند.

ورود به راهنما
LiteLLMاکوسیستم / ابزارمتن‌باز

اکوسیستم LiteLLM

LiteLLM برای تیم‌هایی مهم است که multi-provider gateway، routing و compatibility layer می‌خواهند و نمی‌خواهند هر provider را جدا در backend پیاده کنند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

provider routing، fallback، cost control، unified API surface و backendهایی که چند vendor را هم‌زمان مصرف می‌کنند.

مسیر شروع

gateway and routing layer

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • API

محیط

وابسته به stack انتخابی

نکته‌ی مهم: gateway جای benchmark و model selection را نمی‌گیرد؛ فقط integration layer را یکدست‌تر می‌کند.

ورود به راهنما
AWSخانواده مدلاختصاصی

خانواده Amazon Nova

Nova برای تیم‌هایی مناسب است که روی AWS هستند و می‌خواهند از مدل‌های چندوجهی با governance و integration بومی آمازون استفاده کنند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

سازمان‌های AWS-first، RAG و assistantهای enterprise با integration نزدیک به Bedrock و خدمات ابری آمازون.

مسیر شروع

Bedrock / AWS-managed

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

ابر مدیریت‌شده • API

محیط

Cloud managed

نکته‌ی مهم: برای تیم‌های خارج از AWS، lock-in و معماری cloud-native باید آگاهانه مدیریت شود.

ورود به صفحه مرجع