Hooshgate Models Hub

دایرکتوری حرفه‌ای مدل‌ها، ابزارها و راهنماهای راه‌اندازی

این hub فقط فهرست اسم‌ها نیست. اینجا باید بتوانید خانواده‌های مهم را کنار هم ببینید، بین open-source و proprietary تصمیم بگیرید، مسیر local/API/self-host را بفهمید و برای setup، integration و deployment به guide درست برسید.

catalog + guideopen-source / open-weightproprietarytext / image / video / audio / embedding
کل صفحه‌های پذیرفته‌شده
۱۰۲
خانواده مدل
۶۴
guide و ecosystem
۳۸
queue غیرقابل‌نمایش
۲

مرز انتشار

سطح عملیاتی پذیرفته‌شده

فقط چیزهایی public هستند که taxonomy روشن، فارسی قابل‌اتکا و surface contract مشخص داشته باشند.

family pageها قرار نیست وانمود کنند همه‌چیز را عمیق پوشش می‌دهند. این صفحه‌ها بیشتر برای browse، selection و boundary decision هستند.

guide pageها و ecosystem pageها جایی هستند که setup، runtime، integration و deployment با عمق بیشتر باز می‌شوند.

مدل‌ها و guideهای queue فقط در ادمین می‌مانند تا قبل از تکمیل pack محتوایی، فارسی، source و review وارد public surface نشوند.

خانواده مدل: ۶۴اکوسیستم / ابزار: ۲۰راهنمای نصب: ۵راهنمای integration: ۴راهنمای deployment: ۳مقایسه تصمیم‌یار: ۳پیاده‌سازی use-case: ۳family page = reference + decision layerguide page = setup / integration / deployment depth

فهرست عمومی

۵ صفحه مرجع

هر کارت یا family reference است، یا ecosystem/tooling page، یا guide عملی برای setup، integration و deployment.

راهنمای نصب

راهنماهای D3

ورود سریع به مسیرهای عملی

اگر دنبال جواب اجرایی هستید، از یکی از guideهای زیر شروع کنید؛ این‌ها برای تصمیم deployment و integration ساخته شده‌اند.

راهنمای نصب

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

راهنمای integration

راهنمای API-first برای مدل‌های proprietary

اگر نمی‌خواهید وارد serving شوید و زمان رسیدن به MVP برایتان حیاتی است، مسیر API-first هنوز سریع‌ترین راه حرفه‌ای است؛ به‌شرط اینکه cost، lock-in و governance را از ابتدا مهندسی کنید.

مقایسه تصمیم‌یار

مقایسه local، API و self-host

مهم‌ترین سؤال عملی بسیاری از تیم‌ها همین است: local run کنم، API بگیرم یا self-host شوم؟ این صفحه به‌جای پاسخ شعاری، trade-off تصمیم را شفاف می‌کند.

راهنمای integration

راهنمای integration برای RAG

RAG با وصل‌کردن یک LLM به vector DB حل نمی‌شود. این guide مسیر حرفه‌ای integration را از ingest تا retrieval، reranking، answer synthesis و evaluation توضیح می‌دهد.

راهنمای deployment

راهنمای deployment برای محصول و سازمان

deployment حرفه‌ای با «انتخاب مدل» تمام نمی‌شود. این guide از phaseهای rollout تا security، observability، guardrails و maintenance trade-off را برای محصول و سازمان جمع می‌کند.

راهنمای deployment

Guardrails، observability و evaluation

بخش بزرگی از production readiness نه در مدل، بلکه در guardrails، observability و evaluation است. این صفحه نشان می‌دهد چطور AI feature را قابل‌پایش، قابل‌کنترل و قابل‌اعتماد نگه دارید.

اکوسیستم / ابزار

اکوسیستم Ollama

Ollama بهترین نقطه شروع برای تیم‌هایی است که می‌خواهند بدون درگیرشدن با serving stackهای سنگین، مدل را روی لپ‌تاپ، ورک‌استیشن یا سرور کوچک بالا بیاورند.

اکوسیستم / ابزار

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

نوع صفحه

اگر از قبل می‌دانید دنبال مدل هستید یا guide deployment و tooling می‌خواهید، از اینجا شروع کنید.

مرور بر اساس مودالیته

اول از modality شروع کن، بعد با deployment و vendor فهرست را باریک کن.

Vendorهای شاخص

برای مقایسه خانواده‌های بزرگ و proprietary/open-weight از vendor filter شروع کن.

Ecosystemهای کلیدی

برای انتخاب runtime، toolchain و stack serving از روی ecosystem وارد شوید.

Collection Browse

مسیرهای پیشنهادی برای شروع

اگر هنوز vendor یا مدل مشخصی در ذهن ندارید، از یکی از collectionهای زیر شروع کنید تا hub سریع‌تر قابل‌فهم شود.

Hooshgate Reference

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

۹۶
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌ها و افرادی که می‌خواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.

مسیر اجرا

desktop و workstation

استقرار

محیط محلی

پیچیدگی

راهنمای onboarding عملی

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

Windows • macOS | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hooshgate Reference

راهنمای GGUF و بسته‌بندی local

GGUF برای local AI فقط یک فرمت فایل نیست؛ تصمیمی است درباره portability، quantization و trade-off کیفیت در برابر resource. این صفحه می‌گوید چه زمانی GGUF منطقی است و چه زمانی نه.

۹۳
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

local deployment، edge، laptop inference و تیم‌هایی که می‌خواهند مدل را با footprint کوچک‌تر اجرا و جابه‌جا کنند.

مسیر اجرا

portable local packaging

استقرار

محیط محلی • لبه / روی دستگاه

پیچیدگی

به ظاهر ساده، در عمل نیازمند benchmark

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

Edge / Device | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-22

ورود به راهنما

Hooshgate Reference

راهنمای self-host روی لینوکس

این guide برای تیمی است که واقعاً می‌خواهد روی Linux self-host کند: انتخاب بین vLLM، TGI، GGUF، container و incident path.

۹۰
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

stack self-host، private infra، rollout مدل‌های باز و تیم‌هایی که production serving را روی Linux جلو می‌برند.

مسیر اجرا

Linux production-minded

استقرار

self-host

پیچیدگی

مسیر واقعی infra و serving

راهنمای مرتبط

۶ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: دستیار عمومی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

Hooshgate Reference

راهنمای Open WebUI + Ollama

این setup guide دقیقاً برای تیمی است که می‌خواهد سریع‌ترین مسیر usable برای local یا internal chat stack را با Ollama و Open WebUI ببندد.

۸۷
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

pilot داخلی، chat portal تیمی، RAG سبک و تیم‌هایی که می‌خواهند بدون serving سنگین سریع به surface usable برسند.

مسیر اجرا

local or single-node stack

استقرار

محیط محلی • self-host

پیچیدگی

ساده و practical برای شروع

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

macOS • Linux | مناسب برای: دستیار عمومی • هوش مصنوعی محلی

آخرین بازبینی: 2026-04-23

ورود به راهنما

Hooshgate Reference

مدل‌های local روی ویندوز

این setup guide دقیقاً برای کاربر ویندوز است: از local LLM روی لپ‌تاپ یا ورک‌استیشن شروع کنید، بدون اینکه pretend کنیم همه setupها یکسان هستند.

۸۶
راهنمای نصبمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

developer workstation ویندوز، pilot محلی، تست code assistant و تیم‌هایی که local AI را روی Windows/WSL می‌خواهند.

مسیر اجرا

Windows / WSL local-first

استقرار

محیط محلی

پیچیدگی

عملی برای شروع ولی hardware-sensitive

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۲ pack خلاصه • ۲ pack لینک‌شده

fit عملیاتی

Windows | مناسب برای: هوش مصنوعی محلی • ابزار توسعه

آخرین بازبینی: 2026-04-23

ورود به راهنما

ورود سریع

ورود سریع بر اساس سناریو

اگر هنوز مطمئن نیستی دنبال چه خانواده‌ای بگردی، از shortcutهای زیر شروع کن.