Hooshgate Models Center

مرجع فارسی انتخاب مدل، setup، integration و deployment

این بخش playground یا inference UI نیست. اینجا برای browse، مقایسه، انتخاب مسیر local/API/self-host و رسیدن به guideهای درست ساخته شده است. در بازسازی فعلی، فقط مرز curated و قابل‌اتکا روی surface عمومی مانده است.

مرجع و directoryopen-source / open-weightproprietary / API-firstsetup / integration / deployment

مرز عمومی فعلی

بازسازی با فهرست curated

در این فاز فقط صفحه‌هایی روی /fa/models دیده می‌شوند که برای reference، selection یا guide عملی ارزش روشن دارند.

کل صفحه‌های visible

۸۶

خانواده و مدل

۳۳

guide و tooling

۵۳

متن‌باز

۳۰

وزن‌باز

۲۳

صفحه‌های proprietary

۳۳

اگر دنبال عمق هستید، از guideها شروع کنید. family pageها بیشتر برای فهم fit، trade-off و shortlist هستند؛ setup و deployment عمیق معمولاً روی pageهای dedicated باز می‌شوند.

Browse سریع

۳۵ صفحه در مرز عمومی فعلی

مرکز مدل‌ها فعلاً فقط روی curated boundary اجرا می‌شود تا surface تمیز، قابل‌جست‌وجو و مرجع‌گونه بماند.

workflow عامل‌محور

خانواده‌های پایه LLM

برای انتخاب بین GPT، Claude، Gemini، Llama، Qwen و Mistral از اینجا شروع کنید.

۱۴ صفحه

کدنویسی و workflow توسعه

مدل‌ها و guideهایی برای code assistant، repo workflow و انتخاب coding stack.

۴۱ صفحه

Embedding، RAG و reranking

برای retrieval stack، document AI و search quality مسیرهای مرتبط را اینجا ببینید.

۴۶ صفحه

تصویر، ویدئو و صوت

مدل‌های media و voice را کنار هم ببینید و بعد بین API و self-host تصمیم بگیرید.

۳۷ صفحه

اکوسیستم و serving

برای Ollama، vLLM، TGI، Hugging Face و runtimeهای محلی و production.

۱۸ صفحه

نصب، integration و deployment

اگر دنبال جواب اجرایی هستید، به‌جای family pages از guideها شروع کنید.

۳۱ صفحه

عمق M4B

عمق را از نوع guide وارد کنید

برای این فاز، landing نقش hub دارد نه card dump. از laneهای curated وارد setup، comparison، deployment، implementation، local/self-host و API-first شوید.

ورود از مسیر task

اگر use-case را می‌دانید، از task شروع کنید و بعد vendor یا runtime را باریک کنید.

ورود از مسیر ecosystem

اگر stack را می‌دانید، از Hugging Face، Ollama، vLLM یا runtimeهای محلی وارد شوید.

نقطه‌های شروع خوب

چند صفحه برای شروع سریع

اگر هنوز مطمئن نیستید از کجا شروع کنید، یکی از این صفحه‌های مرجع یا guide را باز کنید.

خانواده مدل

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

راهنمای نصب

مدل هاي local روي macOS

اگر قرار است local AI را روي مک جدي و قابل تکرار جلو ببريد، اين صفحه تفاوت Ollama، MLX و LM Studio را از نگاه hardware fit، developer workflow و مسير migration روشن مي کند.

مقایسه تصمیم‌یار

مقايسه مدل هاي proprietary و open-weight

اين comparison براي تصميم ايدئولوژيک نوشته نشده است؛ براي وقتي است که بايد بين quality آماده، time-to-market و enterprise support از يک سو، و data control، local/self-host و flexibility از سوي ديگر انتخاب عملي کنيد.

مقایسه تصمیم‌یار

مقايسه stackهاي serving و inference

وقتي open model انتخاب شده، سؤال بعدي فقط «کجا deploy کنيم؟» نيست؛ سؤال اين است که vLLM، TGI، endpoint managed يا cloud serving براي latency، throughput، ownership و migration path شما کدام trade-off را مي سازند.

مقایسه تصمیم‌یار

مقایسه خانواده‌های هوش مصنوعی ویدئو

این راهنما برای انتخاب عملی بین text-to-video، image-to-video، video editing و video understanding است؛ با این نگاه که ویدئو هنوز گران، کند، policy-heavy و وابسته به workflow انسانی است.

راهنمای استقرار

راه اندازي self-host براي LLM در production

اين guide براي لحظه اي است که self-host از demo و benchmark عبور مي کند و بايد به سرويس پايدار، monitorable و rollbackable تبديل شود؛ با owner روشن براي GPU، gateway، observability و incident response.

راهنمای استقرار

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

راهنمای پیاده‌سازی

GitHub Copilot Coding Agent

GitHub Copilot Coding Agent برای تیم‌هایی مهم است که می‌خواهند issue-to-PR automation را داخل همان workflow گیت‌هاب خودشان جلو ببرند، با review و policyهای سازمانی نزدیک به محل کار اصلی تیم.

راهنمای پیاده‌سازی

پیاده‌سازی voice stack و voice agent

voice product فقط STT یا TTS نیست. این guide نشان می‌دهد برای ساخت voice agent باید latency زنجیره‌ای، barge-in، fallback و انتخاب بین managed voice stack و local/self-host را چطور ببینید.

OpenAIخانواده مدلاختصاصی

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

محصولات agentic، backofficeهای سندمحور، workflowهای کدنویسی و تیم‌هایی که می‌خواهند عملیات inference را برون‌سپاری کنند.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: برای self-host گزینه اصلی نیست؛ باید هزینه، حریم خصوصی و lock-in را از ابتدا در معماری لحاظ کنید.

ورود به صفحه مرجع
Hooshgate Referenceراهنمای استقراراختصاصی

Guardrails، observability و evaluation

بخش بزرگی از production readiness نه در مدل، بلکه در guardrails، observability و evaluation است. این صفحه نشان می‌دهد چطور AI feature را قابل‌پایش، قابل‌کنترل و قابل‌اعتماد نگه دارید.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

هر تیمی که AI را از demo وارد محصول یا فرایند سازمانی می‌کند؛ مخصوصاً محیط‌های حساس، customer-facing و agentic.

مسیر شروع

ops and safety layer

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بدون quality review، trace و policy checks، حتی بهترین مدل‌ها هم به‌مرور drift می‌کنند و اعتماد کاربر را از بین می‌برند.

ورود به راهنما
Anthropicخانواده مدلاختصاصی

خانواده Claude

Claude برای تیم‌هایی مناسب است که long-context، کیفیت نوشتار و رفتار پایدار در workflowهای document-heavy می‌خواهند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

تحلیل سند، agentهای دانشی، بازنویسی حرفه‌ای و تیم‌هایی که روی Bedrock یا Vertex AI نیز deployment می‌خواهند.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: مثل GPT، self-host در مسیر اصلی ندارد و باید economics و data boundary جداگانه مدیریت شود.

ورود به صفحه مرجع
vLLM Projectاکوسیستم / ابزارمتن‌باز

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

LLM serving سازمانی، endpointهای چندکاربره، self-host در مقیاس متوسط تا بالا، embedding service و migration از pilot local به production.

مسیر شروع

self-host production-grade

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Linux • Container / Docker

نکته‌ی مهم: vLLM ابزار onboarding مبتدی نیست؛ بدون GPU sizing، model selection و observability خوب، deployment آن می‌تواند پرهزینه و ناپایدار شود.

ورود به راهنما
Hooshgate Referenceراهنمای استقراراختصاصی

راهنمای deployment برای محصول و سازمان

deployment حرفه‌ای با «انتخاب مدل» تمام نمی‌شود. این guide از phaseهای rollout تا security، observability، guardrails و maintenance trade-off را برای محصول و سازمان جمع می‌کند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

tech leadها، infra leadها و product ownerهایی که باید یک AI feature را به‌شکل production-grade وارد سیستم واقعی کنند.

مسیر شروع

production operations

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بیشتر شکست‌های production نه از خود مدل، بلکه از فقدان rollout phase، logging، fallback و ownership عملیاتی می‌آید.

ورود به راهنما
Googleخانواده مدلاختصاصی

خانواده Gemini

Gemini برای تیم‌هایی جذاب است که از ورودی‌های چندوجهی، PDF، ویدئو یا Google stack استفاده می‌کنند و می‌خواهند API و cloud-native workflow یکپارچه باشد.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

محصولات multimodal، تحلیل PDF و ویدئو، RAGهای اسنادی و تیم‌هایی که روی Google Cloud یا Vertex AI کار می‌کنند.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: اگر تیم شما vendor-neutral یا self-host-first است، Gemini شاید بهترین نقطه شروع نباشد.

ورود به صفحه مرجع
Hooshgate Referenceراهنمای یکپارچه‌سازیاختصاصی

راهنمای API-first برای مدل‌های proprietary

اگر نمی‌خواهید وارد serving شوید و زمان رسیدن به MVP برایتان حیاتی است، مسیر API-first هنوز سریع‌ترین راه حرفه‌ای است؛ به‌شرط اینکه cost، lock-in و governance را از ابتدا مهندسی کنید.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

محصولات agentic، document AI، multimodal appها و تیم‌هایی که زیرساخت inference را نمی‌خواهند خودشان نگه دارند.

مسیر شروع

API-managed path

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: ساده‌بودن integration اولیه باعث می‌شود بسیاری از تیم‌ها logging، budget، fallback و data boundary را دیرتر از حد لازم طراحی کنند.

ورود به راهنما
Metaخانواده مدلوزن‌باز

خانواده Llama

Llama یکی از مهم‌ترین خانواده‌های open-weight برای self-host، سفارشی‌سازی و ساخت stack مستقل سازمانی است.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

تیم‌هایی که می‌خواهند مدل را داخل زیرساخت خودشان اجرا کنند، quantize کنند، LoRA بزنند و control بیشتری روی داده و serving داشته باشند.

مسیر شروع

self-host قوی

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • macOS

نکته‌ی مهم: راه‌اندازی حرفه‌ای Llama بدون شناخت vLLM، quantization، monitoring و hardware sizing به‌هم می‌ریزد.

ورود به صفحه مرجع
Ollamaاکوسیستم / ابزارمتن‌باز

اکوسیستم Ollama

Ollama بهترین نقطه شروع برای تیم‌هایی است که می‌خواهند بدون درگیرشدن با serving stackهای سنگین، مدل را روی لپ‌تاپ، ورک‌استیشن یا سرور کوچک بالا بیاورند.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

prototype محلی، ارزیابی اولیه مدل‌های open-weight، demo داخلی، RAG سبک و backendهایی که OpenAI-compatible local endpoint می‌خواهند.

مسیر شروع

local-first و self-host سبک

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

macOS • Linux

نکته‌ی مهم: وقتی concurrency بالا، batching پیشرفته یا multi-tenant production می‌خواهید، Ollama معمولاً باید جای خود را به runtimeهای جدی‌تری مثل vLLM بدهد.

ورود به راهنما
Hooshgate Referenceراهنمای پیاده‌سازیوزن‌باز

پیاده‌سازی document AI و سندمحور

document AI فقط OCR یا chat با PDF نیست. این guide نشان می‌دهد برای ingestion، extraction، validation، citation و human review چطور یک pipeline سندمحور قابل‌اعتماد بسازید.

چندوجهیمتن و چتتحلیل سندRAG و دانش سازمانی

کجا به کار می‌آید؟

workflowهای قرارداد، فاکتور، policy، proposal review و هر use-case که سند source-of-truth است.

مسیر شروع

use-case implementation

پوشش صفحه

۵ کامل / ۳ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بزرگ‌ترین خطا این است که extraction را مستقیماً به مدل بسپارید بدون schema، validator و review path.

ورود به راهنما
Alibaba / Qwen Teamخانواده مدلوزن‌باز

خانواده Qwen

Qwen یکی از خانواده‌های open-weight مهم برای تیم‌هایی است که هم multilingual support می‌خواهند و هم self-host و fine-tuning.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

محصولات چندزبانه، assistantهای self-host، coding workflowها و تیم‌هایی که stack open-weight اما مدرن می‌خواهند.

مسیر شروع

self-host قوی

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • Windows

نکته‌ی مهم: مثل Llama، کیفیت نهایی به runtime، quantization، prompt template و discipline deployment گره خورده است.

ورود به صفحه مرجع
Mistral AIخانواده مدلوزن‌باز

Pixtral

Pixtral برای تیم‌هایی مناسب است که vision + text را با امکان self-host می‌خواهند و نمی‌خواهند برای OCR، سندخوانی و VLM صرفاً به APIهای بسته متکی بمانند.

چندوجهیچت و دستیارتحلیل سند

کجا به کار می‌آید؟

document AI، تحلیل تصویر و PDF، بازرسی کیفیت محتوای تصویری و workflowهای چندوجهی که باید روی زیرساخت خودتان هم قابل اجرا باشند.

مسیر شروع

API یا self-host

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Linux • Container / Docker

نکته‌ی مهم: کیفیت Pixtral در ورودی‌های تصویری ساخت‌یافته خوب است، اما برای سناریوهای فوق‌حساس باید latency، VRAM و دقت extraction را با دیتای خودتان benchmark کنید.

ورود به صفحه مرجع
Hooshgate Referenceراهنمای استقراروزن‌باز

راه اندازي self-host براي LLM در production

اين guide براي لحظه اي است که self-host از demo و benchmark عبور مي کند و بايد به سرويس پايدار، monitorable و rollbackable تبديل شود؛ با owner روشن براي GPU، gateway، observability و incident response.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

تيم هايي که workload پايدار، data boundary روشن و آمادگي on-call و capacity planning دارند و مي خواهند self-host را واقعا وارد production کنند.

مسیر شروع

production self-host with explicit ownership

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Linux • Cloud managed

نکته‌ی مهم: اگر تيم شما هنوز owner عملياتي براي GPU، rollout و incident ندارد، self-host production بيشتر از آن که صرفه اقتصادي بسازد، debt و downtime مي سازد.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یاروزن‌باز

مقايسه مدل هاي proprietary و open-weight

اين comparison براي تصميم ايدئولوژيک نوشته نشده است؛ براي وقتي است که بايد بين quality آماده، time-to-market و enterprise support از يک سو، و data control، local/self-host و flexibility از سوي ديگر انتخاب عملي کنيد.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

CTO، tech lead و product/infra teamهايي که بايد baseline مدل را براي محصول، coding workflow يا assistant سازماني انتخاب کنند.

مسیر شروع

decision layer بين API و open infra

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

API • محیط محلی

محیط

Linux • Cloud managed

نکته‌ی مهم: هيچ کدام ذاتا برنده مطلق نيستند؛ proprietary و open فقط وقتي معنا دارند که task، budget، data boundary و ops ownership را کنار هم ببينيد.

ورود به راهنما
Alibaba / Qwenخانواده مدلوزن‌باز

Qwen VL

Qwen VL خانواده‌ای است برای تیم‌هایی که VLM باز، قوی در document understanding و قابل self-host می‌خواهند و نمی‌خواهند همه چیز را به APIهای بسته بسپارند.

چندوجهیچت و دستیارتحلیل سند

کجا به کار می‌آید؟

OCR-aware workflows، document AI، visual QA، agentهای چندوجهی و محیط‌هایی که latency و data boundary باید داخل infra خودتان کنترل شود.

مسیر شروع

self-host یا managed endpoint

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • Container / Docker

نکته‌ی مهم: برای rollout حساس باید VRAM، throughput و کیفیت extraction را روی سندهای واقعی خودتان benchmark کنید.

ورود به صفحه مرجع
OpenAIراهنمای یکپارچه‌سازیاختصاصی

Responses API در OpenAI

Responses API در این hub به‌عنوان integration-guide آمده چون برای بسیاری از تیم‌ها امروز contract اصلی OpenAI برای ساخت appهای agentic و multimodal است، نه صرفاً یک endpoint چت دیگر.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

backendهای API-first، appهای agentic، workflowهای structured output و تیم‌هایی که می‌خواهند contract جدیدتر OpenAI را جدی و production-safe پیاده کنند.

مسیر شروع

API-first orchestration

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Serverless • Cloud managed

نکته‌ی مهم: ساده‌بودن API اولیه نباید شما را از طراحی schema validation، fallback، observability و cost guardrail غافل کند.

ورود به راهنما
Alibaba / Qwenخانواده مدلوزن‌باز

Qwen Coder

Qwen Coder برای تیم‌هایی جذاب است که coding مدل باز با ecosystem قوی Qwen، vLLM، Ollama و GGUF می‌خواهند.

متن و چتکدنویسیworkflow عامل‌محور

کجا به کار می‌آید؟

code generation، repo-aware workflows سبک، local coding assistants و self-host روی stackهای رایج.

مسیر شروع

local / self-host

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • macOS

نکته‌ی مهم: کیفیت coding model بدون context builder، eval و policy مناسب خیلی زود سقف خود را نشان می‌دهد.

ورود به صفحه مرجع
Hooshgate Referenceراهنمای استقراراختصاصی

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

صوت و گفتارمتن و چتدستیار صوتیتبدیل گفتار به متن

کجا به کار می‌آید؟

تیم‌هایی که voice assistant، call automation، spoken UI یا voice support را با کاربر واقعی اجرا می‌کنند و باید chain کامل STT → reasoning → tools/RAG → TTS را قابل اتکا کنند.

مسیر شروع

managed-first with selective self-host

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: اگر هنوز conversational design، privacy policy، on-call owner یا fallback text channel ندارید، deployment صوتی real-time زود است.

ورود به راهنما
DeepSeekخانواده مدلوزن‌باز

خانواده DeepSeek

DeepSeek برای تیم‌هایی مهم است که reasoning و coding را با رویکرد open-weight یا API اقتصادی‌تر بررسی می‌کنند.

متن و چتچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

ارزیابی‌های comparative، code-heavy workloads و سازمان‌هایی که می‌خواهند بین API و self-host انعطاف داشته باشند.

مسیر شروع

API + self-host

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • محیط محلی

محیط

Linux • Container / Docker

نکته‌ی مهم: برای adoption سازمانی باید maturity عملیات، policy و dependencyها را مثل هر family open-weight دیگر جدی بگیرید.

ورود به صفحه مرجع
Hugging Faceاکوسیستم / ابزارمتن‌باز

Text Generation Inference (TGI)

TGI سرور inference مربوط به Hugging Face است و برای تیم‌هایی معنا دارد که stack آن‌ها از قبل حول artifactهای Hugging Face، containerized serving و الگوهای سازمانی آن شکل گرفته است.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

سازمان‌هایی که از قبل روی Hugging Face ecosystem سرمایه‌گذاری کرده‌اند، container-based serving می‌خواهند و deployment inference را با artifact management رسمی HF می‌بینند.

مسیر شروع

HF-oriented self-host

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Linux • Container / Docker

نکته‌ی مهم: اگر صرفاً دنبال ساده‌ترین مسیر serving هستید، در عمل بسیاری از تیم‌ها vLLM را روان‌تر می‌یابند؛ TGI را بیشتر وقتی انتخاب کنید که ecosystem fit آن برای شما روشن است.

ورود به راهنما
Anthropicراهنمای یکپارچه‌سازیاختصاصی

Tool Use در Anthropic

این صفحه برای زمانی است که انتخاب شما خود Claude family نیست، بلکه طراحی درست لایه tool use و boundaryهای integration در Anthropic است.

متن و چتworkflow عامل‌محورچت و دستیار

کجا به کار می‌آید؟

agentهای tool-backed، workflowهای call-and-validate، backofficeهای حساس و تیم‌هایی که می‌خواهند tool use را تمیز و قابل‌کنترل پیاده کنند.

مسیر شروع

API-first with tool contracts

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: tool use بدون schema دقیق، permission layer و review path می‌تواند بسیار سریع به failureهای silent و expensive تبدیل شود.

ورود به راهنما
Anthropicراهنمای نصباختصاصی

Claude Code

Claude Code در hub به‌عنوان setup-guide آمده چون ارزش اصلی آن برای تیم‌ها در نصب، permission model، repo boundary و روش استفاده درست از terminal agent است.

متن و چتکدنویسیworkflow عامل‌محور

کجا به کار می‌آید؟

تیم‌هایی که می‌خواهند coding agent را از داخل ترمینال و روی repo واقعی تجربه کنند، با امکان چندفایلی و workflow مهندسی نزدیک به کار روزمره.

مسیر شروع

local CLI + remote model

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی • API

محیط

وابسته به stack انتخابی

نکته‌ی مهم: اگر permission boundary، review discipline و task scoping شل باشد، terminal agent خیلی سریع از ابزار مفید به ریسک عملیاتی تبدیل می‌شود.

ورود به راهنما
Hooshgate Referenceراهنمای نصباختصاصی

راه اندازي API-first براي مدل هاي تجاري

اين راهنما براي تيمي است که مي خواهد مدل تجاري را به شکل API-first وارد محصول يا backend کند، بدون اين که ساده بودن SDK او را از schema، cost guardrail، fallback و ownership عملي غافل کند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

MVP سريع، backendهاي product-first، appهاي agentic يا document-heavy و تيم هايي که مي خواهند قبل از self-host سراغ value عملي بروند.

مسیر شروع

delivery سريع با governance لازم

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Serverless • Cloud managed

نکته‌ی مهم: API-first burden serving را کم مي کند، اما cost، vendor dependency، retention policy و failure handling را از بين نمي برد.

ورود به راهنما
DeepSeekخانواده مدلوزن‌باز

DeepSeek Coder

DeepSeek Coder برای تیم‌هایی مهم است که coding model باز می‌خواهند و می‌خواهند code completion، refactor و repo Q&A را داخل infra خودشان جلو ببرند.

متن و چتکدنویسیچت و دستیار

کجا به کار می‌آید؟

IDE assistant داخلی، code review helper، generation روی repo خصوصی و pipelineهایی که self-host و cost control مهم است.

مسیر شروع

local یا self-host

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • Container / Docker

نکته‌ی مهم: برای codebaseهای بزرگ باید retrieval، file selection و eval harness را کنار خود مدل طراحی کنید؛ مدل تنها کافی نیست.

ورود به صفحه مرجع
GitHubراهنمای پیاده‌سازیاختصاصی

GitHub Copilot Coding Agent

GitHub Copilot Coding Agent برای تیم‌هایی مهم است که می‌خواهند issue-to-PR automation را داخل همان workflow گیت‌هاب خودشان جلو ببرند، با review و policyهای سازمانی نزدیک به محل کار اصلی تیم.

متن و چتکدنویسیworkflow عامل‌محور

کجا به کار می‌آید؟

issue delegation، background coding tasks، PR-based iteration و تیم‌هایی که می‌خواهند coding agent را در GitHub workflow عملیاتی کنند.

مسیر شروع

managed issue-to-PR workflow

پوشش صفحه

۵ کامل / ۳ خلاصه

راه‌اندازی

ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: background agent فقط زمانی مفید است که task sizing، review policy و repo protections روشن باشند؛ وگرنه فقط PRهای noisy بیشتری می‌سازد.

ورود به راهنما
Hugging Faceاکوسیستم / ابزارمتن‌باز

اکوسیستم TRL

TRL برای تیم‌هایی مهم است که از adaptation ساده عبور کرده‌اند و به SFT، DPO یا post-training جدی‌تر فکر می‌کنند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

SFT، preference optimization، reward modeling و تیم‌هایی که می‌خواهند post-training را reproducible و scriptable جلو ببرند.

مسیر شروع

post-training toolkit

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Linux • Cloud managed

نکته‌ی مهم: TRL بدون dataset format، eval loop و resource planning خیلی سریع به experiment بی‌نتیجه تبدیل می‌شود.

ورود به راهنما
AWS / Amazonاکوسیستم / ابزاراختصاصی

اکوسیستم Amazon Bedrock

Amazon Bedrock برای تیم‌هایی مهم است که multi-model access را در بستر AWS و با دغدغه enterprise governance می‌خواهند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

سازمان‌هایی که already در AWS هستند، policy و governance برایشان مهم است و می‌خواهند model access را داخل همان cloud plane نگه دارند.

مسیر شروع

managed cloud platform

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed • Serverless

نکته‌ی مهم: Bedrock یک model family واحد نیست؛ quality و ops آن به provider انتخابی، region و service design شما وابسته است.

ورود به راهنما
Open WebUIاکوسیستم / ابزارمتن‌باز

اکوسیستم Open WebUI

Open WebUI برای تیم‌هایی مهم است که UI و control plane برای local یا self-host مدل‌ها می‌خواهند، نه فقط یک inference server خام.

متن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

کجا به کار می‌آید؟

chat UI داخلی، RAG demo، تیم‌های غیرزیرساختی که می‌خواهند model access، user-facing interface و tooling را سریع ببینند.

مسیر شروع

UI + orchestration layer

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Container / Docker • Linux

نکته‌ی مهم: Open WebUI خودِ serving stack نهایی نیست و برای enterprise production باید auth، audit، policy و backend ownership را جدا ببینید.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یاروزن‌باز

مقایسه مدل‌های کدنویسی

این comparison guide برای تیم‌هایی است که بین GPT، Qwen Coder، DeepSeek Coder، Codestral و code modelهای مشابه گیر کرده‌اند و می‌خواهند trade-off عملی را ببینند.

متن و چتکدنویسیworkflow عامل‌محور

کجا به کار می‌آید؟

انتخاب coding assistant، تعیین build-vs-buy، و تصمیم بین API proprietary و self-host code modelها.

مسیر شروع

API یا self-host

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

API • محیط محلی

محیط

macOS

نکته‌ی مهم: هیچ coding model بدون benchmark روی repo شما انتخاب نمی‌شود؛ leaderboard و demo کافی نیست.

ورود به راهنما
Continueراهنمای نصبمتن‌باز

Continue.dev

Continue.dev برای تیم‌هایی مهم است که می‌خواهند coding assistant را در IDE و agent workflow خودشان با مدل‌های محلی یا remote ترکیب کنند و ownership بیشتری روی config و MCP داشته باشند.

متن و چتکدنویسیworkflow عامل‌محور

کجا به کار می‌آید؟

IDE-centric teams، local/offline coding flows، model switching و setupهایی که باید با MCP و configهای reusable کار کنند.

مسیر شروع

IDE + local/remote model mix

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی • API

محیط

وابسته به stack انتخابی

نکته‌ی مهم: Continue فقط با نصب افزونه ارزش عملی نمی‌سازد؛ باید مدل، rule، tool و workflow repo را واقعاً تنظیم و محدود کنید.

ورود به راهنما
Hooshgate Referenceراهنمای نصبمتن‌باز

راهنمای Open WebUI + Ollama

این setup guide دقیقاً برای تیمی است که می‌خواهد سریع‌ترین مسیر usable برای local یا internal chat stack را با Ollama و Open WebUI ببندد.

متن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

کجا به کار می‌آید؟

pilot داخلی، chat portal تیمی، RAG سبک و تیم‌هایی که می‌خواهند بدون serving سنگین سریع به surface usable برسند.

مسیر شروع

local or single-node stack

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

macOS • Linux

نکته‌ی مهم: اگر concurrency بالا، audit سخت یا enterprise governance می‌خواهید، این stack را solution نهایی فرض نکنید.

ورود به راهنما
LangChainراهنمای پیاده‌سازیمتن‌باز

راهنمای agent با LangGraph

این guide برای تیم‌هایی است که agent را به‌صورت graph و stateful workflow می‌بینند، نه فقط یک chain ساده یا tool call تک‌مرحله‌ای.

متن و چتچندوجهیworkflow عامل‌محورچت و دستیار

کجا به کار می‌آید؟

agent workflow چندمرحله‌ای، stateful execution، tool orchestration و تیم‌هایی که graph-based control می‌خواهند.

مسیر شروع

agent orchestration layer

پوشش صفحه

۵ کامل / ۳ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • API

محیط

وابسته به stack انتخابی

نکته‌ی مهم: LangGraph complexity را کم نمی‌کند؛ فقط آن را ساختاریافته‌تر می‌کند. اگر task ساده است، graph لازم نیست.

ورود به راهنما
Cohereخانواده مدلاختصاصی

خانواده Command

Command برای تیم‌هایی مهم است که RAG، agents و multilingual enterprise workload را با API مصرف می‌کنند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

دانش سازمانی، search-heavy assistantها و تیم‌هایی که روی retrieval و citation حساس‌اند.

مسیر شروع

API / managed

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: برای همه use-caseها گزینه پیش‌فرض نیست؛ بیشترین ارزشش را در retrieval-heavy enterprise appها نشان می‌دهد.

ورود به صفحه مرجع
LiteLLMاکوسیستم / ابزارمتن‌باز

اکوسیستم LiteLLM

LiteLLM برای تیم‌هایی مهم است که multi-provider gateway، routing و compatibility layer می‌خواهند و نمی‌خواهند هر provider را جدا در backend پیاده کنند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

provider routing، fallback، cost control، unified API surface و backendهایی که چند vendor را هم‌زمان مصرف می‌کنند.

مسیر شروع

gateway and routing layer

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • API

محیط

وابسته به stack انتخابی

نکته‌ی مهم: gateway جای benchmark و model selection را نمی‌گیرد؛ فقط integration layer را یکدست‌تر می‌کند.

ورود به راهنما
AWSخانواده مدلاختصاصی

خانواده Amazon Nova

Nova برای تیم‌هایی مناسب است که روی AWS هستند و می‌خواهند از مدل‌های چندوجهی با governance و integration بومی آمازون استفاده کنند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

سازمان‌های AWS-first، RAG و assistantهای enterprise با integration نزدیک به Bedrock و خدمات ابری آمازون.

مسیر شروع

Bedrock / AWS-managed

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

ابر مدیریت‌شده • API

محیط

Cloud managed

نکته‌ی مهم: برای تیم‌های خارج از AWS، lock-in و معماری cloud-native باید آگاهانه مدیریت شود.

ورود به صفحه مرجع