Hooshgate Models Center

مرجع فارسی انتخاب مدل، setup، integration و deployment

این بخش playground یا inference UI نیست. اینجا برای browse، مقایسه، انتخاب مسیر local/API/self-host و رسیدن به guideهای درست ساخته شده است. در بازسازی فعلی، فقط مرز curated و قابل‌اتکا روی surface عمومی مانده است.

مرجع و directoryopen-source / open-weightproprietary / API-firstsetup / integration / deployment

مرز عمومی فعلی

بازسازی با فهرست curated

در این فاز فقط صفحه‌هایی روی /fa/models دیده می‌شوند که برای reference، selection یا guide عملی ارزش روشن دارند.

کل صفحه‌های visible

۸۶

خانواده و مدل

۳۳

guide و tooling

۵۳

متن‌باز

۳۰

وزن‌باز

۲۳

صفحه‌های proprietary

۳۳

اگر دنبال عمق هستید، از guideها شروع کنید. family pageها بیشتر برای فهم fit، trade-off و shortlist هستند؛ setup و deployment عمیق معمولاً روی pageهای dedicated باز می‌شوند.

Browse سریع

۱۵ صفحه در مرز عمومی فعلی

مرکز مدل‌ها فعلاً فقط روی curated boundary اجرا می‌شود تا surface تمیز، قابل‌جست‌وجو و مرجع‌گونه بماند.

استدلال و تحلیل

خانواده‌های پایه LLM

برای انتخاب بین GPT، Claude، Gemini، Llama، Qwen و Mistral از اینجا شروع کنید.

۱۴ صفحه

کدنویسی و workflow توسعه

مدل‌ها و guideهایی برای code assistant، repo workflow و انتخاب coding stack.

۴۱ صفحه

Embedding، RAG و reranking

برای retrieval stack، document AI و search quality مسیرهای مرتبط را اینجا ببینید.

۴۶ صفحه

تصویر، ویدئو و صوت

مدل‌های media و voice را کنار هم ببینید و بعد بین API و self-host تصمیم بگیرید.

۳۷ صفحه

اکوسیستم و serving

برای Ollama، vLLM، TGI، Hugging Face و runtimeهای محلی و production.

۱۸ صفحه

نصب، integration و deployment

اگر دنبال جواب اجرایی هستید، به‌جای family pages از guideها شروع کنید.

۳۱ صفحه

عمق M4B

عمق را از نوع guide وارد کنید

برای این فاز، landing نقش hub دارد نه card dump. از laneهای curated وارد setup، comparison، deployment، implementation، local/self-host و API-first شوید.

ورود از مسیر task

اگر use-case را می‌دانید، از task شروع کنید و بعد vendor یا runtime را باریک کنید.

ورود از مسیر ecosystem

اگر stack را می‌دانید، از Hugging Face، Ollama، vLLM یا runtimeهای محلی وارد شوید.

نقطه‌های شروع خوب

چند صفحه برای شروع سریع

اگر هنوز مطمئن نیستید از کجا شروع کنید، یکی از این صفحه‌های مرجع یا guide را باز کنید.

خانواده مدل

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

راهنمای نصب

مدل هاي local روي macOS

اگر قرار است local AI را روي مک جدي و قابل تکرار جلو ببريد، اين صفحه تفاوت Ollama، MLX و LM Studio را از نگاه hardware fit، developer workflow و مسير migration روشن مي کند.

مقایسه تصمیم‌یار

مقايسه مدل هاي proprietary و open-weight

اين comparison براي تصميم ايدئولوژيک نوشته نشده است؛ براي وقتي است که بايد بين quality آماده، time-to-market و enterprise support از يک سو، و data control، local/self-host و flexibility از سوي ديگر انتخاب عملي کنيد.

مقایسه تصمیم‌یار

مقايسه stackهاي serving و inference

وقتي open model انتخاب شده، سؤال بعدي فقط «کجا deploy کنيم؟» نيست؛ سؤال اين است که vLLM، TGI، endpoint managed يا cloud serving براي latency، throughput، ownership و migration path شما کدام trade-off را مي سازند.

مقایسه تصمیم‌یار

مقایسه خانواده‌های هوش مصنوعی ویدئو

این راهنما برای انتخاب عملی بین text-to-video، image-to-video، video editing و video understanding است؛ با این نگاه که ویدئو هنوز گران، کند، policy-heavy و وابسته به workflow انسانی است.

راهنمای استقرار

راه اندازي self-host براي LLM در production

اين guide براي لحظه اي است که self-host از demo و benchmark عبور مي کند و بايد به سرويس پايدار، monitorable و rollbackable تبديل شود؛ با owner روشن براي GPU، gateway، observability و incident response.

راهنمای استقرار

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

راهنمای پیاده‌سازی

GitHub Copilot Coding Agent

GitHub Copilot Coding Agent برای تیم‌هایی مهم است که می‌خواهند issue-to-PR automation را داخل همان workflow گیت‌هاب خودشان جلو ببرند، با review و policyهای سازمانی نزدیک به محل کار اصلی تیم.

راهنمای پیاده‌سازی

پیاده‌سازی voice stack و voice agent

voice product فقط STT یا TTS نیست. این guide نشان می‌دهد برای ساخت voice agent باید latency زنجیره‌ای، barge-in، fallback و انتخاب بین managed voice stack و local/self-host را چطور ببینید.

OpenAIخانواده مدلاختصاصی

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

محصولات agentic، backofficeهای سندمحور، workflowهای کدنویسی و تیم‌هایی که می‌خواهند عملیات inference را برون‌سپاری کنند.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: برای self-host گزینه اصلی نیست؛ باید هزینه، حریم خصوصی و lock-in را از ابتدا در معماری لحاظ کنید.

ورود به صفحه مرجع
Anthropicخانواده مدلاختصاصی

خانواده Claude

Claude برای تیم‌هایی مناسب است که long-context، کیفیت نوشتار و رفتار پایدار در workflowهای document-heavy می‌خواهند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

تحلیل سند، agentهای دانشی، بازنویسی حرفه‌ای و تیم‌هایی که روی Bedrock یا Vertex AI نیز deployment می‌خواهند.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: مثل GPT، self-host در مسیر اصلی ندارد و باید economics و data boundary جداگانه مدیریت شود.

ورود به صفحه مرجع
Googleخانواده مدلاختصاصی

خانواده Gemini

Gemini برای تیم‌هایی جذاب است که از ورودی‌های چندوجهی، PDF، ویدئو یا Google stack استفاده می‌کنند و می‌خواهند API و cloud-native workflow یکپارچه باشد.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

محصولات multimodal، تحلیل PDF و ویدئو، RAGهای اسنادی و تیم‌هایی که روی Google Cloud یا Vertex AI کار می‌کنند.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: اگر تیم شما vendor-neutral یا self-host-first است، Gemini شاید بهترین نقطه شروع نباشد.

ورود به صفحه مرجع
Metaخانواده مدلوزن‌باز

خانواده Llama

Llama یکی از مهم‌ترین خانواده‌های open-weight برای self-host، سفارشی‌سازی و ساخت stack مستقل سازمانی است.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

تیم‌هایی که می‌خواهند مدل را داخل زیرساخت خودشان اجرا کنند، quantize کنند، LoRA بزنند و control بیشتری روی داده و serving داشته باشند.

مسیر شروع

self-host قوی

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • macOS

نکته‌ی مهم: راه‌اندازی حرفه‌ای Llama بدون شناخت vLLM، quantization، monitoring و hardware sizing به‌هم می‌ریزد.

ورود به صفحه مرجع
Alibaba / Qwen Teamخانواده مدلوزن‌باز

خانواده Qwen

Qwen یکی از خانواده‌های open-weight مهم برای تیم‌هایی است که هم multilingual support می‌خواهند و هم self-host و fine-tuning.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

محصولات چندزبانه، assistantهای self-host، coding workflowها و تیم‌هایی که stack open-weight اما مدرن می‌خواهند.

مسیر شروع

self-host قوی

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • Windows

نکته‌ی مهم: مثل Llama، کیفیت نهایی به runtime، quantization، prompt template و discipline deployment گره خورده است.

ورود به صفحه مرجع
Hooshgate Referenceراهنمای استقراروزن‌باز

راه اندازي self-host براي LLM در production

اين guide براي لحظه اي است که self-host از demo و benchmark عبور مي کند و بايد به سرويس پايدار، monitorable و rollbackable تبديل شود؛ با owner روشن براي GPU، gateway، observability و incident response.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

تيم هايي که workload پايدار، data boundary روشن و آمادگي on-call و capacity planning دارند و مي خواهند self-host را واقعا وارد production کنند.

مسیر شروع

production self-host with explicit ownership

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Linux • Cloud managed

نکته‌ی مهم: اگر تيم شما هنوز owner عملياتي براي GPU، rollout و incident ندارد، self-host production بيشتر از آن که صرفه اقتصادي بسازد، debt و downtime مي سازد.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یاروزن‌باز

مقايسه مدل هاي proprietary و open-weight

اين comparison براي تصميم ايدئولوژيک نوشته نشده است؛ براي وقتي است که بايد بين quality آماده، time-to-market و enterprise support از يک سو، و data control، local/self-host و flexibility از سوي ديگر انتخاب عملي کنيد.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

CTO، tech lead و product/infra teamهايي که بايد baseline مدل را براي محصول، coding workflow يا assistant سازماني انتخاب کنند.

مسیر شروع

decision layer بين API و open infra

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

API • محیط محلی

محیط

Linux • Cloud managed

نکته‌ی مهم: هيچ کدام ذاتا برنده مطلق نيستند؛ proprietary و open فقط وقتي معنا دارند که task، budget، data boundary و ops ownership را کنار هم ببينيد.

ورود به راهنما
Mistral AIخانواده مدلوزن‌باز

خانواده Mistral

Mistral برای تیم‌هایی جذاب است که هم self-host می‌خواهند و هم سبدی از مدل‌های تخصصی‌تر مثل coding، multimodal و document AI را در یک خانواده ببینند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

سازمان‌هایی که بین API و self-host جابه‌جا می‌شوند و می‌خواهند از مدل‌های متنوع این خانواده برای code، vision و enterprise search استفاده کنند.

مسیر شروع

API + self-host

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • محیط محلی

محیط

Linux • Container / Docker

نکته‌ی مهم: تنوع مدل‌ها مزیت است، اما بدون taxonomy داخلی و استاندارد انتخاب مدل، تیم به‌سرعت سردرگم می‌شود.

ورود به صفحه مرجع
OpenAIراهنمای یکپارچه‌سازیاختصاصی

Responses API در OpenAI

Responses API در این hub به‌عنوان integration-guide آمده چون برای بسیاری از تیم‌ها امروز contract اصلی OpenAI برای ساخت appهای agentic و multimodal است، نه صرفاً یک endpoint چت دیگر.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

backendهای API-first، appهای agentic، workflowهای structured output و تیم‌هایی که می‌خواهند contract جدیدتر OpenAI را جدی و production-safe پیاده کنند.

مسیر شروع

API-first orchestration

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Serverless • Cloud managed

نکته‌ی مهم: ساده‌بودن API اولیه نباید شما را از طراحی schema validation، fallback، observability و cost guardrail غافل کند.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یارمتن‌باز

مقايسه stackهاي serving و inference

وقتي open model انتخاب شده، سؤال بعدي فقط «کجا deploy کنيم؟» نيست؛ سؤال اين است که vLLM، TGI، endpoint managed يا cloud serving براي latency، throughput، ownership و migration path شما کدام trade-off را مي سازند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

platform teamها، infra ownerها و تيم هايي که از pilot گذشته اند و حالا بايد serving stack را بر اساس workload، hardware و on-call reality انتخاب کنند.

مسیر شروع

engine و platform selection

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Cloud managed • Container / Docker

نکته‌ی مهم: engine benchmark به تنهايي براي انتخاب stack کافي نيست؛ observability، upgrade path، batching behavior و incident ownership هم بخشي از تصميم هستند.

ورود به راهنما
DeepSeekخانواده مدلوزن‌باز

خانواده DeepSeek

DeepSeek برای تیم‌هایی مهم است که reasoning و coding را با رویکرد open-weight یا API اقتصادی‌تر بررسی می‌کنند.

متن و چتچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

ارزیابی‌های comparative، code-heavy workloads و سازمان‌هایی که می‌خواهند بین API و self-host انعطاف داشته باشند.

مسیر شروع

API + self-host

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • محیط محلی

محیط

Linux • Container / Docker

نکته‌ی مهم: برای adoption سازمانی باید maturity عملیات، policy و dependencyها را مثل هر family open-weight دیگر جدی بگیرید.

ورود به صفحه مرجع
Googleخانواده مدلوزن‌باز

خانواده Gemma

Gemma برای تیم‌هایی مناسب است که مدل باز و سبک‌تر می‌خواهند، اما همچنان می‌خواهند از lineage و tooling گوگل بهره ببرند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

edge و local AI، prototypeهای self-host و تیم‌هایی که مدل بازتر اما manageable می‌خواهند.

مسیر شروع

local / edge friendly

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • macOS

نکته‌ی مهم: Gemma family variantهای متنوعی دارد؛ باید بین core، code و multimodal فرق بگذارید.

ورود به صفحه مرجع
Microsoftخانواده مدلوزن‌باز

خانواده Phi

Phi بیشتر وقتی مهم می‌شود که مدل کوچک‌تر، deployment سبک و integration با اکوسیستم مایکروسافت برایتان مهم باشد.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

copilotهای داخلی سبک، edge deployment و تیم‌هایی که Azure و Windows/ONNX مسیر مهمشان است.

مسیر شروع

edge / local

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Windows • Linux

نکته‌ی مهم: برای همه taskها نباید Phi را به‌عنوان جایگزین مستقیم frontier modelها دید؛ strength آن بیشتر در efficiency است.

ورود به صفحه مرجع
Cohereخانواده مدلاختصاصی

خانواده Command

Command برای تیم‌هایی مهم است که RAG، agents و multilingual enterprise workload را با API مصرف می‌کنند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

دانش سازمانی، search-heavy assistantها و تیم‌هایی که روی retrieval و citation حساس‌اند.

مسیر شروع

API / managed

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: برای همه use-caseها گزینه پیش‌فرض نیست؛ بیشترین ارزشش را در retrieval-heavy enterprise appها نشان می‌دهد.

ورود به صفحه مرجع
AWSخانواده مدلاختصاصی

خانواده Amazon Nova

Nova برای تیم‌هایی مناسب است که روی AWS هستند و می‌خواهند از مدل‌های چندوجهی با governance و integration بومی آمازون استفاده کنند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

سازمان‌های AWS-first، RAG و assistantهای enterprise با integration نزدیک به Bedrock و خدمات ابری آمازون.

مسیر شروع

Bedrock / AWS-managed

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

ابر مدیریت‌شده • API

محیط

Cloud managed

نکته‌ی مهم: برای تیم‌های خارج از AWS، lock-in و معماری cloud-native باید آگاهانه مدیریت شود.

ورود به صفحه مرجع