Hooshgate Models Hub

دایرکتوری حرفه‌ای مدل‌ها، ابزارها و راهنماهای راه‌اندازی

این hub فقط فهرست اسم‌ها نیست. اینجا باید بتوانید خانواده‌های مهم را کنار هم ببینید، بین open-source و proprietary تصمیم بگیرید، مسیر local/API/self-host را بفهمید و برای setup، integration و deployment به guide درست برسید.

catalog + guideopen-source / open-weightproprietarytext / image / video / audio / embedding
کل صفحه‌های پذیرفته‌شده
۱۰۲
خانواده مدل
۶۴
guide و ecosystem
۳۸
queue غیرقابل‌نمایش
۲

مرز انتشار

سطح عملیاتی پذیرفته‌شده

فقط چیزهایی public هستند که taxonomy روشن، فارسی قابل‌اتکا و surface contract مشخص داشته باشند.

family pageها قرار نیست وانمود کنند همه‌چیز را عمیق پوشش می‌دهند. این صفحه‌ها بیشتر برای browse، selection و boundary decision هستند.

guide pageها و ecosystem pageها جایی هستند که setup، runtime، integration و deployment با عمق بیشتر باز می‌شوند.

مدل‌ها و guideهای queue فقط در ادمین می‌مانند تا قبل از تکمیل pack محتوایی، فارسی، source و review وارد public surface نشوند.

خانواده مدل: ۶۴اکوسیستم / ابزار: ۲۰راهنمای نصب: ۵راهنمای integration: ۴راهنمای deployment: ۳مقایسه تصمیم‌یار: ۳پیاده‌سازی use-case: ۳family page = reference + decision layerguide page = setup / integration / deployment depth

فهرست عمومی

۱۰ صفحه مرجع

هر کارت یا family reference است، یا ecosystem/tooling page، یا guide عملی برای setup، integration و deployment.

Reranking

راهنماهای D3

ورود سریع به مسیرهای عملی

اگر دنبال جواب اجرایی هستید، از یکی از guideهای زیر شروع کنید؛ این‌ها برای تصمیم deployment و integration ساخته شده‌اند.

راهنمای نصب

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

راهنمای integration

راهنمای API-first برای مدل‌های proprietary

اگر نمی‌خواهید وارد serving شوید و زمان رسیدن به MVP برایتان حیاتی است، مسیر API-first هنوز سریع‌ترین راه حرفه‌ای است؛ به‌شرط اینکه cost، lock-in و governance را از ابتدا مهندسی کنید.

مقایسه تصمیم‌یار

مقایسه local، API و self-host

مهم‌ترین سؤال عملی بسیاری از تیم‌ها همین است: local run کنم، API بگیرم یا self-host شوم؟ این صفحه به‌جای پاسخ شعاری، trade-off تصمیم را شفاف می‌کند.

راهنمای integration

راهنمای integration برای RAG

RAG با وصل‌کردن یک LLM به vector DB حل نمی‌شود. این guide مسیر حرفه‌ای integration را از ingest تا retrieval، reranking، answer synthesis و evaluation توضیح می‌دهد.

راهنمای deployment

راهنمای deployment برای محصول و سازمان

deployment حرفه‌ای با «انتخاب مدل» تمام نمی‌شود. این guide از phaseهای rollout تا security، observability، guardrails و maintenance trade-off را برای محصول و سازمان جمع می‌کند.

راهنمای deployment

Guardrails، observability و evaluation

بخش بزرگی از production readiness نه در مدل، بلکه در guardrails، observability و evaluation است. این صفحه نشان می‌دهد چطور AI feature را قابل‌پایش، قابل‌کنترل و قابل‌اعتماد نگه دارید.

اکوسیستم / ابزار

اکوسیستم Ollama

Ollama بهترین نقطه شروع برای تیم‌هایی است که می‌خواهند بدون درگیرشدن با serving stackهای سنگین، مدل را روی لپ‌تاپ، ورک‌استیشن یا سرور کوچک بالا بیاورند.

اکوسیستم / ابزار

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

نوع صفحه

اگر از قبل می‌دانید دنبال مدل هستید یا guide deployment و tooling می‌خواهید، از اینجا شروع کنید.

مرور بر اساس مودالیته

اول از modality شروع کن، بعد با deployment و vendor فهرست را باریک کن.

Vendorهای شاخص

برای مقایسه خانواده‌های بزرگ و proprietary/open-weight از vendor filter شروع کن.

Ecosystemهای کلیدی

برای انتخاب runtime، toolchain و stack serving از روی ecosystem وارد شوید.

Collection Browse

مسیرهای پیشنهادی برای شروع

اگر هنوز vendor یا مدل مشخصی در ذهن ندارید، از یکی از collectionهای زیر شروع کنید تا hub سریع‌تر قابل‌فهم شود.

Hooshgate Reference

راهنمای integration برای RAG

RAG با وصل‌کردن یک LLM به vector DB حل نمی‌شود. این guide مسیر حرفه‌ای integration را از ingest تا retrieval، reranking، answer synthesis و evaluation توضیح می‌دهد.

۹۸
راهنمای integrationوزن‌بازCommunity / Open-weightمتن و چتEmbeddingRAG و دانش سازمانیجست‌وجوی معنایی

تیم‌هایی که می‌خواهند روی اسناد داخلی، دانش سازمانی، policy و document assistant یک RAG قابل‌نگهداری بسازند.

مسیر اجرا

integration-focused

استقرار

API • self-host

پیچیدگی

چندلایه و evaluation-heavy

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-22

ورود به راهنما

Alibaba / Qwen

Qwen Embedding و Reranker

خانواده Qwen Embedding/Reranker برای تیم‌هایی مهم است که retrieval چندزبانه، RAG جدی و کنترل بیشتر روی embedding stack می‌خواهند.

۹۳
خانواده مدلوزن‌بازOpen-source permissiveEmbeddingRerankingجست‌وجوی معناییRAG و دانش سازمانی

RAG چندزبانه، semantic search، reranking روی corpus سازمانی و pipelineهایی که کیفیت retrieval برایشان حیاتی‌تر از chat model است.

مسیر اجرا

self-host یا API

استقرار

API • self-host

پیچیدگی

retrieval stack تخصصی

راهنمای مرتبط

۷ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Hugging Face

Text Embeddings Inference

TEI یکی از مهم‌ترین runtimeهای hub برای embedding و reranking است؛ چون self-host retrieval را از مرحله notebook به سرویس production نزدیک می‌کند.

۹۲
اکوسیستم / ابزارمتن‌بازOpen-source permissiveEmbeddingRerankingجست‌وجوی معناییRAG و دانش سازمانی

embedding و reranking service، RAG داخلی، search production و تیم‌هایی که می‌خواهند open models را با runtime مخصوص retrieval بالا بیاورند.

مسیر اجرا

serving تخصصی retrieval

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

runtime ویژه embedding/reranking

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Container / Docker • Linux | مناسب برای: جست‌وجوی سازمانی • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به راهنما

FlagOpen / BAAI

BGE Reranker

BGE Reranker برای تیم‌هایی مهم است که retrieval را فقط با embedding متوقف نمی‌کنند و می‌خواهند مرحله دوم ranking را هم دقیق و self-host جلو ببرند.

۹۰
خانواده مدلوزن‌بازOpen-source permissiveRerankingجست‌وجوی معناییRAG و دانش سازمانی

RAG دقیق‌تر، legal or policy retrieval، search pipelineهای چندمرحله‌ای و تیم‌هایی که top-k اولیه را با reranker پالایش می‌کنند.

مسیر اجرا

self-host retrieval stage

استقرار

محیط محلی • self-host

پیچیدگی

مرحله دوم retrieval

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-23

ورود به صفحه مرجع

FlagOpen / BAAI

خانواده BGE / FlagEmbedding

BGE برای تیم‌هایی مهم است که retrieval stack را کاملاً open و self-host می‌خواهند؛ از embedding تا reranker.

۸۹
خانواده مدلمتن‌بازOpen-source permissiveEmbeddingRerankingجست‌وجوی معناییRAG و دانش سازمانی

RAG self-host، enterprise search داخل VPC و تیم‌هایی که می‌خواهند retrieval را تا لایه مدل کنترل کنند.

مسیر اجرا

کاملاً self-host

استقرار

محیط محلی • self-host

پیچیدگی

retrieval engineering جدی

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: جست‌وجوی سازمانی • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Hooshgate Reference

مقایسه embedding و reranking

این comparison guide برای تیم‌هایی است که می‌خواهند retrieval stack را جدی انتخاب کنند: فقط embedding، embedding + reranker، یا managed retrieval API.

۸۹
مقایسه تصمیم‌یاروزن‌بازCommunity / Open-weightEmbeddingRerankingجست‌وجوی معناییRAG و دانش سازمانی

RAG system design، enterprise search selection و تیم‌هایی که retrieval quality برایشان KPI واقعی است.

مسیر اجرا

self-host یا managed retrieval

استقرار

محیط محلی • self-host

پیچیدگی

تصمیم‌گیری روی search stack

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۴ pack کامل • ۱ pack خلاصه • ۴ pack لینک‌شده

fit عملیاتی

Container / Docker | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-23

ورود به راهنما

LangChain

راهنمای RAG با LangChain

این guide برای تیم‌هایی است که RAG را واقعاً implement می‌کنند و دنبال wiring بین retriever، prompt، model و evaluation هستند.

۸۸
راهنمای integrationمتن‌بازOpen-source permissiveمتن و چتEmbeddingRAG و دانش سازمانیجست‌وجوی معنایی

prototype تا implementation RAG، document pipeline، retrieval orchestration و تیم‌هایی که chain-level composition می‌خواهند.

مسیر اجرا

orchestration-first

استقرار

محیط محلی • self-host

پیچیدگی

پیاده‌سازی RAG کاربردی

راهنمای مرتبط

۶ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

وابسته به stack انتخابی | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-23

ورود به راهنما

Cohere

Cohere Rerank

وقتی retrieval اولیه خوب است اما top resultها هنوز noisy هستند، Cohere Rerank یکی از ابزارهای حرفه‌ای برای بالا بردن precision نهایی است.

۸۷
خانواده مدلاختصاصیCommercial APIRerankingجست‌وجوی معناییRAG و دانش سازمانی

RAG، enterprise search و pipelineهایی که embedding-only جواب کافی نداده است.

مسیر اجرا

API-only

استقرار

API • ابر مدیریت‌شده

پیچیدگی

precision layer

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Jina AI

Jina Reranker

Jina Reranker برای تیم‌هایی مهم است که retrieval multilingual و stage دوم ranking می‌خواهند و ترجیح می‌دهند آن را داخل stack باز یا hybrid نگه دارند.

۸۷
خانواده مدلوزن‌بازترکیبی / متغیرRerankingجست‌وجوی معناییRAG و دانش سازمانی

RAG چندزبانه، search ranking، corpusهای متنوع و pipelineهایی که precision مرحله دوم برایشان مهم است.

مسیر اجرا

self-host ranking stage

استقرار

محیط محلی • self-host

پیچیدگی

رتبه‌بندی مرحله دوم

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Container / Docker • Linux | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-23

ورود به صفحه مرجع

deepset

راهنمای RAG با Haystack

این guide Haystack را به‌عنوان implementation route برای search و RAG پوشش می‌دهد؛ مخصوص تیم‌هایی که pipelineهای retrieval را structured می‌خواهند.

۸۶
راهنمای integrationمتن‌بازOpen-source permissiveمتن و چتEmbeddingRAG و دانش سازمانیجست‌وجوی معنایی

pipelineهای retrieval، document-centric systems و تیم‌هایی که Haystack-style component model را ترجیح می‌دهند.

مسیر اجرا

component-based RAG

استقرار

self-host • API

پیچیدگی

retrieval pipeline implementation

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

وابسته به stack انتخابی | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-23

ورود به راهنما

ورود سریع

ورود سریع بر اساس سناریو

اگر هنوز مطمئن نیستی دنبال چه خانواده‌ای بگردی، از shortcutهای زیر شروع کن.