Hooshgate Models Hub

دایرکتوری حرفه‌ای مدل‌ها، ابزارها و راهنماهای راه‌اندازی

این hub فقط فهرست اسم‌ها نیست. اینجا باید بتوانید خانواده‌های مهم را کنار هم ببینید، بین open-source و proprietary تصمیم بگیرید، مسیر local/API/self-host را بفهمید و برای setup، integration و deployment به guide درست برسید.

catalog + guideopen-source / open-weightproprietarytext / image / video / audio / embedding
کل صفحه‌های پذیرفته‌شده
۱۰۲
خانواده مدل
۶۴
guide و ecosystem
۳۸
queue غیرقابل‌نمایش
۲

مرز انتشار

سطح عملیاتی پذیرفته‌شده

فقط چیزهایی public هستند که taxonomy روشن، فارسی قابل‌اتکا و surface contract مشخص داشته باشند.

family pageها قرار نیست وانمود کنند همه‌چیز را عمیق پوشش می‌دهند. این صفحه‌ها بیشتر برای browse، selection و boundary decision هستند.

guide pageها و ecosystem pageها جایی هستند که setup، runtime، integration و deployment با عمق بیشتر باز می‌شوند.

مدل‌ها و guideهای queue فقط در ادمین می‌مانند تا قبل از تکمیل pack محتوایی، فارسی، source و review وارد public surface نشوند.

خانواده مدل: ۶۴اکوسیستم / ابزار: ۲۰راهنمای نصب: ۵راهنمای integration: ۴راهنمای deployment: ۳مقایسه تصمیم‌یار: ۳پیاده‌سازی use-case: ۳family page = reference + decision layerguide page = setup / integration / deployment depth

فهرست عمومی

۲۱ صفحه مرجع

هر کارت یا family reference است، یا ecosystem/tooling page، یا guide عملی برای setup، integration و deployment.

Embeddingجست‌وجوی معنایی

راهنماهای D3

ورود سریع به مسیرهای عملی

اگر دنبال جواب اجرایی هستید، از یکی از guideهای زیر شروع کنید؛ این‌ها برای تصمیم deployment و integration ساخته شده‌اند.

راهنمای نصب

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

راهنمای integration

راهنمای API-first برای مدل‌های proprietary

اگر نمی‌خواهید وارد serving شوید و زمان رسیدن به MVP برایتان حیاتی است، مسیر API-first هنوز سریع‌ترین راه حرفه‌ای است؛ به‌شرط اینکه cost، lock-in و governance را از ابتدا مهندسی کنید.

مقایسه تصمیم‌یار

مقایسه local، API و self-host

مهم‌ترین سؤال عملی بسیاری از تیم‌ها همین است: local run کنم، API بگیرم یا self-host شوم؟ این صفحه به‌جای پاسخ شعاری، trade-off تصمیم را شفاف می‌کند.

راهنمای integration

راهنمای integration برای RAG

RAG با وصل‌کردن یک LLM به vector DB حل نمی‌شود. این guide مسیر حرفه‌ای integration را از ingest تا retrieval، reranking، answer synthesis و evaluation توضیح می‌دهد.

راهنمای deployment

راهنمای deployment برای محصول و سازمان

deployment حرفه‌ای با «انتخاب مدل» تمام نمی‌شود. این guide از phaseهای rollout تا security، observability، guardrails و maintenance trade-off را برای محصول و سازمان جمع می‌کند.

راهنمای deployment

Guardrails، observability و evaluation

بخش بزرگی از production readiness نه در مدل، بلکه در guardrails، observability و evaluation است. این صفحه نشان می‌دهد چطور AI feature را قابل‌پایش، قابل‌کنترل و قابل‌اعتماد نگه دارید.

اکوسیستم / ابزار

اکوسیستم Ollama

Ollama بهترین نقطه شروع برای تیم‌هایی است که می‌خواهند بدون درگیرشدن با serving stackهای سنگین، مدل را روی لپ‌تاپ، ورک‌استیشن یا سرور کوچک بالا بیاورند.

اکوسیستم / ابزار

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

نوع صفحه

اگر از قبل می‌دانید دنبال مدل هستید یا guide deployment و tooling می‌خواهید، از اینجا شروع کنید.

مرور بر اساس مودالیته

اول از modality شروع کن، بعد با deployment و vendor فهرست را باریک کن.

Vendorهای شاخص

برای مقایسه خانواده‌های بزرگ و proprietary/open-weight از vendor filter شروع کن.

Ecosystemهای کلیدی

برای انتخاب runtime، toolchain و stack serving از روی ecosystem وارد شوید.

Collection Browse

مسیرهای پیشنهادی برای شروع

اگر هنوز vendor یا مدل مشخصی در ذهن ندارید، از یکی از collectionهای زیر شروع کنید تا hub سریع‌تر قابل‌فهم شود.

Hooshgate Reference

راهنمای integration برای RAG

RAG با وصل‌کردن یک LLM به vector DB حل نمی‌شود. این guide مسیر حرفه‌ای integration را از ingest تا retrieval، reranking، answer synthesis و evaluation توضیح می‌دهد.

۹۸
راهنمای integrationوزن‌بازCommunity / Open-weightمتن و چتEmbeddingRAG و دانش سازمانیجست‌وجوی معنایی

تیم‌هایی که می‌خواهند روی اسناد داخلی، دانش سازمانی، policy و document assistant یک RAG قابل‌نگهداری بسازند.

مسیر اجرا

integration-focused

استقرار

API • self-host

پیچیدگی

چندلایه و evaluation-heavy

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-22

ورود به راهنما

vLLM Project

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

۹۷
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

LLM serving سازمانی، endpointهای چندکاربره، self-host در مقیاس متوسط تا بالا، embedding service و migration از pilot local به production.

مسیر اجرا

self-host production-grade

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

قوی برای serving، نیازمند infra discipline

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hooshgate Reference

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

۹۶
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌ها و افرادی که می‌خواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.

مسیر اجرا

desktop و workstation

استقرار

محیط محلی

پیچیدگی

راهنمای onboarding عملی

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

Windows • macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

ggml-org / llama.cpp

اکوسیستم llama.cpp

llama.cpp برای وقتی مناسب است که کنترل دقیق روی GGUF، اجرای CPU-friendly، edge deployment یا بسته‌بندی محلی برایتان مهم‌تر از سادگی UX باشد.

۹۴
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

GGUF، edge، inference روی CPU یا GPUهای کوچک، embedded apps و تیم‌هایی که می‌خواهند behavior runtime را دقیق‌تر کنترل کنند.

مسیر اجرا

local و edge-oriented

استقرار

محیط محلی • self-host

پیچیدگی

کنترل زیاد، setup فنی‌تر

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Alibaba / Qwen

Qwen Embedding و Reranker

خانواده Qwen Embedding/Reranker برای تیم‌هایی مهم است که retrieval چندزبانه، RAG جدی و کنترل بیشتر روی embedding stack می‌خواهند.

۹۳
خانواده مدلوزن‌بازOpen-source permissiveEmbeddingRerankingجست‌وجوی معناییRAG و دانش سازمانی

RAG چندزبانه، semantic search، reranking روی corpus سازمانی و pipelineهایی که کیفیت retrieval برایشان حیاتی‌تر از chat model است.

مسیر اجرا

self-host یا API

استقرار

API • self-host

پیچیدگی

retrieval stack تخصصی

راهنمای مرتبط

۷ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Hugging Face

Transformers stack

Transformers stack زمانی مناسب است که می‌خواهید روی اجرای مدل، pre/post-processing و training/inference workflow کنترل عمیق داشته باشید و حاضر باشید از سادگی runtimeهای turnkey صرف‌نظر کنید.

۹۳
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌های فنی، سرویس‌های سفارشی Python، inference با منطق اختصاصی، training/fine-tuning و کار با مدل‌هایی که runtime آماده برایشان کافی نیست.

مسیر اجرا

custom Python stack

استقرار

محیط محلی • self-host

پیچیدگی

انعطاف بالا، boilerplate بیشتر

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۱ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: ابزار توسعه • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hooshgate Reference

راهنمای GGUF و بسته‌بندی local

GGUF برای local AI فقط یک فرمت فایل نیست؛ تصمیمی است درباره portability، quantization و trade-off کیفیت در برابر resource. این صفحه می‌گوید چه زمانی GGUF منطقی است و چه زمانی نه.

۹۳
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

local deployment، edge، laptop inference و تیم‌هایی که می‌خواهند مدل را با footprint کوچک‌تر اجرا و جابه‌جا کنند.

مسیر اجرا

portable local packaging

استقرار

محیط محلی • لبه / روی دستگاه

پیچیدگی

به ظاهر ساده، در عمل نیازمند benchmark

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

Edge / Device | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

LM Studio

LM Studio و runtimeهای desktop

LM Studio برای تیم‌هایی مناسب است که می‌خواهند بدون درگیری با CLI و serving stack، مدل محلی را روی desktop اجرا، مقایسه و برای demo یا evaluation آماده کنند.

۹۲
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

product discovery، مقایسه سریع مدل‌های محلی، demo برای غیرتوسعه‌دهنده‌ها و تیم‌هایی که GUI desktop می‌خواهند.

مسیر اجرا

desktop local GUI

استقرار

محیط محلی

پیچیدگی

خیلی ساده برای ارزیابی، محدود برای production

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Windows • macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hugging Face

Text Embeddings Inference

TEI یکی از مهم‌ترین runtimeهای hub برای embedding و reranking است؛ چون self-host retrieval را از مرحله notebook به سرویس production نزدیک می‌کند.

۹۲
اکوسیستم / ابزارمتن‌بازOpen-source permissiveEmbeddingRerankingجست‌وجوی معناییRAG و دانش سازمانی

embedding و reranking service، RAG داخلی، search production و تیم‌هایی که می‌خواهند open models را با runtime مخصوص retrieval بالا بیاورند.

مسیر اجرا

serving تخصصی retrieval

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

runtime ویژه embedding/reranking

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۹ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Container / Docker • Linux | مناسب برای: جست‌وجوی سازمانی • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Voyage AI

Voyage Embeddings

Voyage برای تیم‌هایی مهم است که embedding و retrieval را به‌صورت تخصصی نگاه می‌کنند، نه صرفاً به‌عنوان feature فرعی.

۹۱
خانواده مدلاختصاصیCommercial APIEmbeddingجست‌وجوی معناییRAG و دانش سازمانی

semantic search، RAGهای retrieval-heavy و use-caseهای تخصصی مثل code، legal یا finance retrieval.

مسیر اجرا

API-only

استقرار

API

پیچیدگی

retrieval تخصصی

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: جست‌وجوی سازمانی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

OpenAI

OpenAI Embeddings

اگر به embedding API ساده، پایدار و کم‌دردسر نیاز دارید، خانواده text-embedding-3 یکی از baselineهای حرفه‌ای بازار است.

۹۰
خانواده مدلاختصاصیCommercial APIEmbeddingجست‌وجوی معناییRAG و دانش سازمانی

RAG، semantic search، deduplication و هر جایی که می‌خواهید embedding به‌عنوان سرویس مدیریت شود.

مسیر اجرا

API-only

استقرار

API

پیچیدگی

پیاده‌سازی ساده

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Jina AI

Jina Embeddings

Jina Embeddings مخصوص تیم‌هایی است که retrieval اسناد تصویری، PDF و محتوای visually-rich برایشان مهم است.

۹۰
خانواده مدلاختصاصیCommercial APIEmbeddingچندوجهیجست‌وجوی معناییRAG و دانش سازمانی

RAG اسنادی، visually rich retrieval و pipelineهایی که text-only retrieval کافی نیست.

مسیر اجرا

API + private hosting options

استقرار

API • ابر مدیریت‌شده

پیچیدگی

multimodal retrieval

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

FlagOpen / BAAI

خانواده BGE / FlagEmbedding

BGE برای تیم‌هایی مهم است که retrieval stack را کاملاً open و self-host می‌خواهند؛ از embedding تا reranker.

۸۹
خانواده مدلمتن‌بازOpen-source permissiveEmbeddingRerankingجست‌وجوی معناییRAG و دانش سازمانی

RAG self-host، enterprise search داخل VPC و تیم‌هایی که می‌خواهند retrieval را تا لایه مدل کنترل کنند.

مسیر اجرا

کاملاً self-host

استقرار

محیط محلی • self-host

پیچیدگی

retrieval engineering جدی

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: جست‌وجوی سازمانی • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Cohere

Cohere Embed

Cohere Embed برای تیم‌هایی مهم است که embedding API سازمانی می‌خواهند و ترجیح می‌دهند retrieval stack را بدون self-host و model ops سنگین جلو ببرند.

۸۹
خانواده مدلاختصاصیCommercial APIEmbeddingجست‌وجوی معناییRAG و دانش سازمانی

enterprise search، RAG با data pipeline کنترل‌شده و تیم‌هایی که retrieval را با managed API می‌خواهند.

مسیر اجرا

API-first

استقرار

API • ابر مدیریت‌شده

پیچیدگی

managed retrieval path

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Cloud managed • Serverless | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-23

ورود به صفحه مرجع

Hooshgate Reference

مقایسه embedding و reranking

این comparison guide برای تیم‌هایی است که می‌خواهند retrieval stack را جدی انتخاب کنند: فقط embedding، embedding + reranker، یا managed retrieval API.

۸۹
مقایسه تصمیم‌یاروزن‌بازCommunity / Open-weightEmbeddingRerankingجست‌وجوی معناییRAG و دانش سازمانی

RAG system design، enterprise search selection و تیم‌هایی که retrieval quality برایشان KPI واقعی است.

مسیر اجرا

self-host یا managed retrieval

استقرار

محیط محلی • self-host

پیچیدگی

تصمیم‌گیری روی search stack

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۴ pack کامل • ۱ pack خلاصه • ۴ pack لینک‌شده

fit عملیاتی

Container / Docker | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-23

ورود به راهنما

Google

Gemini Embedding

Gemini Embedding برای تیم‌هایی مناسب است که retrieval stack خود را روی Google ecosystem نگه می‌دارند.

۸۸
خانواده مدلاختصاصیCommercial APIEmbeddingجست‌وجوی معناییRAG و دانش سازمانی

RAG، semantic retrieval و pipelineهایی که هم generation و هم embedding را در Google stack می‌خواهند.

مسیر اجرا

API-only

استقرار

API • ابر مدیریت‌شده

پیچیدگی

Google-native retrieval

راهنمای مرتبط

۲ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Nomic

Nomic Embed

Nomic Embed برای تیم‌هایی مناسب است که embedding باز، compact و قابل‌استفاده در search و RAG محلی می‌خواهند.

۸۸
خانواده مدلوزن‌بازOpen-source permissiveEmbeddingجست‌وجوی معناییRAG و دانش سازمانی

semantic search، retrieval سبک‌تر، RAG محلی و سناریوهایی که embedding باز با footprint معقول می‌خواهند.

مسیر اجرا

local / self-host

استقرار

محیط محلی • self-host

پیچیدگی

retrieval ساده‌تر

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • macOS | مناسب برای: جست‌وجوی سازمانی • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

Mixedbread AI

mxbai Embed

mxbai Embed برای تیم‌هایی مهم است که embedding باز، سبک‌تر و مناسب self-host می‌خواهند و می‌خواهند retrieval را بدون vendor API جلو ببرند.

۸۸
خانواده مدلوزن‌بازOpen-source permissiveEmbeddingجست‌وجوی معناییRAG و دانش سازمانی

semantic search، RAG داخلی، workstation-friendly retrieval و تیم‌هایی که embedding باز را با TEI یا HF stack می‌خواهند.

مسیر اجرا

self-host embedding

استقرار

محیط محلی • self-host

پیچیدگی

retrieval باز و سبک

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: جست‌وجوی سازمانی • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به صفحه مرجع

Snowflake

Snowflake Arctic Embed

Arctic Embed برای تیم‌هایی مهم است که embedding باز با positioning سازمانی می‌خواهند و می‌خواهند retrieval stack را روی infra خود نگه دارند.

۸۸
خانواده مدلوزن‌بازOpen-source permissiveEmbeddingجست‌وجوی معناییRAG و دانش سازمانی

enterprise retrieval، warehouse-adjacent search، corpusهای بزرگ و تیم‌هایی که embedding باز اما سازمانی‌تر می‌خواهند.

مسیر اجرا

self-host enterprise retrieval

استقرار

محیط محلی • self-host

پیچیدگی

embedding باز برای search

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Container / Docker • Linux | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-23

ورود به صفحه مرجع

LangChain

راهنمای RAG با LangChain

این guide برای تیم‌هایی است که RAG را واقعاً implement می‌کنند و دنبال wiring بین retriever، prompt، model و evaluation هستند.

۸۸
راهنمای integrationمتن‌بازOpen-source permissiveمتن و چتEmbeddingRAG و دانش سازمانیجست‌وجوی معنایی

prototype تا implementation RAG، document pipeline، retrieval orchestration و تیم‌هایی که chain-level composition می‌خواهند.

مسیر اجرا

orchestration-first

استقرار

محیط محلی • self-host

پیچیدگی

پیاده‌سازی RAG کاربردی

راهنمای مرتبط

۶ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

وابسته به stack انتخابی | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-23

ورود به راهنما

deepset

راهنمای RAG با Haystack

این guide Haystack را به‌عنوان implementation route برای search و RAG پوشش می‌دهد؛ مخصوص تیم‌هایی که pipelineهای retrieval را structured می‌خواهند.

۸۶
راهنمای integrationمتن‌بازOpen-source permissiveمتن و چتEmbeddingRAG و دانش سازمانیجست‌وجوی معنایی

pipelineهای retrieval، document-centric systems و تیم‌هایی که Haystack-style component model را ترجیح می‌دهند.

مسیر اجرا

component-based RAG

استقرار

self-host • API

پیچیدگی

retrieval pipeline implementation

راهنمای مرتبط

۴ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۴ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

وابسته به stack انتخابی | مناسب برای: جست‌وجوی سازمانی • پردازش سند

آخرین بازبینی: 2026-04-23

ورود به راهنما

ورود سریع

ورود سریع بر اساس سناریو

اگر هنوز مطمئن نیستی دنبال چه خانواده‌ای بگردی، از shortcutهای زیر شروع کن.