Hooshgate Models Hub

دایرکتوری حرفه‌ای مدل‌ها، ابزارها و راهنماهای راه‌اندازی

این hub فقط فهرست اسم‌ها نیست. اینجا باید بتوانید خانواده‌های مهم را کنار هم ببینید، بین open-source و proprietary تصمیم بگیرید، مسیر local/API/self-host را بفهمید و برای setup، integration و deployment به guide درست برسید.

catalog + guideopen-source / open-weightproprietarytext / image / video / audio / embedding
کل صفحه‌های پذیرفته‌شده
۱۰۲
خانواده مدل
۶۴
guide و ecosystem
۳۸
queue غیرقابل‌نمایش
۲

مرز انتشار

سطح عملیاتی پذیرفته‌شده

فقط چیزهایی public هستند که taxonomy روشن، فارسی قابل‌اتکا و surface contract مشخص داشته باشند.

family pageها قرار نیست وانمود کنند همه‌چیز را عمیق پوشش می‌دهند. این صفحه‌ها بیشتر برای browse، selection و boundary decision هستند.

guide pageها و ecosystem pageها جایی هستند که setup، runtime، integration و deployment با عمق بیشتر باز می‌شوند.

مدل‌ها و guideهای queue فقط در ادمین می‌مانند تا قبل از تکمیل pack محتوایی، فارسی، source و review وارد public surface نشوند.

خانواده مدل: ۶۴اکوسیستم / ابزار: ۲۰راهنمای نصب: ۵راهنمای integration: ۴راهنمای deployment: ۳مقایسه تصمیم‌یار: ۳پیاده‌سازی use-case: ۳family page = reference + decision layerguide page = setup / integration / deployment depth

فهرست عمومی

۲ صفحه مرجع

هر کارت یا family reference است، یا ecosystem/tooling page، یا guide عملی برای setup، integration و deployment.

NVIDIA NeMo

راهنماهای D3

ورود سریع به مسیرهای عملی

اگر دنبال جواب اجرایی هستید، از یکی از guideهای زیر شروع کنید؛ این‌ها برای تصمیم deployment و integration ساخته شده‌اند.

راهنمای نصب

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

راهنمای integration

راهنمای API-first برای مدل‌های proprietary

اگر نمی‌خواهید وارد serving شوید و زمان رسیدن به MVP برایتان حیاتی است، مسیر API-first هنوز سریع‌ترین راه حرفه‌ای است؛ به‌شرط اینکه cost، lock-in و governance را از ابتدا مهندسی کنید.

مقایسه تصمیم‌یار

مقایسه local، API و self-host

مهم‌ترین سؤال عملی بسیاری از تیم‌ها همین است: local run کنم، API بگیرم یا self-host شوم؟ این صفحه به‌جای پاسخ شعاری، trade-off تصمیم را شفاف می‌کند.

راهنمای integration

راهنمای integration برای RAG

RAG با وصل‌کردن یک LLM به vector DB حل نمی‌شود. این guide مسیر حرفه‌ای integration را از ingest تا retrieval، reranking، answer synthesis و evaluation توضیح می‌دهد.

راهنمای deployment

راهنمای deployment برای محصول و سازمان

deployment حرفه‌ای با «انتخاب مدل» تمام نمی‌شود. این guide از phaseهای rollout تا security، observability، guardrails و maintenance trade-off را برای محصول و سازمان جمع می‌کند.

راهنمای deployment

Guardrails، observability و evaluation

بخش بزرگی از production readiness نه در مدل، بلکه در guardrails، observability و evaluation است. این صفحه نشان می‌دهد چطور AI feature را قابل‌پایش، قابل‌کنترل و قابل‌اعتماد نگه دارید.

اکوسیستم / ابزار

اکوسیستم Ollama

Ollama بهترین نقطه شروع برای تیم‌هایی است که می‌خواهند بدون درگیرشدن با serving stackهای سنگین، مدل را روی لپ‌تاپ، ورک‌استیشن یا سرور کوچک بالا بیاورند.

اکوسیستم / ابزار

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

نوع صفحه

اگر از قبل می‌دانید دنبال مدل هستید یا guide deployment و tooling می‌خواهید، از اینجا شروع کنید.

مرور بر اساس مودالیته

اول از modality شروع کن، بعد با deployment و vendor فهرست را باریک کن.

Vendorهای شاخص

برای مقایسه خانواده‌های بزرگ و proprietary/open-weight از vendor filter شروع کن.

Ecosystemهای کلیدی

برای انتخاب runtime، toolchain و stack serving از روی ecosystem وارد شوید.

Collection Browse

مسیرهای پیشنهادی برای شروع

اگر هنوز vendor یا مدل مشخصی در ذهن ندارید، از یکی از collectionهای زیر شروع کنید تا hub سریع‌تر قابل‌فهم شود.

Hooshgate Reference

مرور اکوسیستم fine-tuning

همه مسائل با fine-tuning حل نمی‌شود. این صفحه کمک می‌کند بفهمید چه زمانی tuning واقعاً ارزش دارد، چه زمانی retrieval یا prompt بهتر است و کدام ecosystem برای LoRA یا full training مناسب‌تر است.

۹۴
اکوسیستم / ابزارمتن‌بازOpen-source permissiveمتن و چتچندوجهیچت و دستیارکدنویسی

تیم‌هایی که بعد از رسیدن به baseline خوب، به adaptation جدی فکر می‌کنند و نمی‌خواهند زودتر از موعد وارد training pipeline پرهزینه شوند.

مسیر اجرا

adaptation decision guide

استقرار

محیط محلی • self-host

پیچیدگی

high leverage, high risk

راهنمای مرتبط

۳ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۱۰ pack کامل • ۰ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Cloud managed | مناسب برای: ابزار توسعه • جست‌وجوی سازمانی

آخرین بازبینی: 2026-04-22

ورود به راهنما

NVIDIA

Nemotron

Nemotron برای تیم‌هایی مناسب است که reasoning و agent workflows می‌خواهند و هم‌زمان می‌خواهند deployment را در اکوسیستم NVIDIA و NIM نگه دارند.

۹۱
خانواده مدلوزن‌بازOpen model termsمتن و چتچت و دستیاراستدلال و تحلیل

reasoning، long-context workflows، coding و serving روی GPUهای NVIDIA با NIM، vLLM یا stackهای محلی.

مسیر اجرا

NIM / vLLM / local

استقرار

self-host • ابر مدیریت‌شده

پیچیدگی

GPU-centric reasoning stack

راهنمای مرتبط

۵ guide مکمل

پوشش همین صفحه

مرور مدلآموزش عملینصب و راه‌اندازیserving و runtime

۵ pack کامل • ۵ pack خلاصه • ۰ pack لینک‌شده

fit عملیاتی

Linux • Container / Docker | مناسب برای: ابزار توسعه • دستیار عمومی

آخرین بازبینی: 2026-04-22

ورود به صفحه مرجع

ورود سریع

ورود سریع بر اساس سناریو

اگر هنوز مطمئن نیستی دنبال چه خانواده‌ای بگردی، از shortcutهای زیر شروع کن.