Hooshgate Models Center

مرجع فارسی انتخاب مدل، setup، integration و deployment

این بخش playground یا inference UI نیست. اینجا برای browse، مقایسه، انتخاب مسیر local/API/self-host و رسیدن به guideهای درست ساخته شده است. در بازسازی فعلی، فقط مرز curated و قابل‌اتکا روی surface عمومی مانده است.

مرجع و directoryopen-source / open-weightproprietary / API-firstsetup / integration / deployment

مرز عمومی فعلی

بازسازی با فهرست curated

در این فاز فقط صفحه‌هایی روی /fa/models دیده می‌شوند که برای reference، selection یا guide عملی ارزش روشن دارند.

کل صفحه‌های visible

۸۶

خانواده و مدل

۳۳

guide و tooling

۵۳

متن‌باز

۳۰

وزن‌باز

۲۳

صفحه‌های proprietary

۳۳

اگر دنبال عمق هستید، از guideها شروع کنید. family pageها بیشتر برای فهم fit، trade-off و shortlist هستند؛ setup و deployment عمیق معمولاً روی pageهای dedicated باز می‌شوند.

Browse سریع

۳۳ صفحه در مرز عمومی فعلی

مرکز مدل‌ها فعلاً فقط روی curated boundary اجرا می‌شود تا surface تمیز، قابل‌جست‌وجو و مرجع‌گونه بماند.

اختصاصی

خانواده‌های پایه LLM

برای انتخاب بین GPT، Claude، Gemini، Llama، Qwen و Mistral از اینجا شروع کنید.

۱۴ صفحه

کدنویسی و workflow توسعه

مدل‌ها و guideهایی برای code assistant، repo workflow و انتخاب coding stack.

۴۱ صفحه

Embedding، RAG و reranking

برای retrieval stack، document AI و search quality مسیرهای مرتبط را اینجا ببینید.

۴۶ صفحه

تصویر، ویدئو و صوت

مدل‌های media و voice را کنار هم ببینید و بعد بین API و self-host تصمیم بگیرید.

۳۷ صفحه

اکوسیستم و serving

برای Ollama، vLLM، TGI، Hugging Face و runtimeهای محلی و production.

۱۸ صفحه

نصب، integration و deployment

اگر دنبال جواب اجرایی هستید، به‌جای family pages از guideها شروع کنید.

۳۱ صفحه

عمق M4B

عمق را از نوع guide وارد کنید

برای این فاز، landing نقش hub دارد نه card dump. از laneهای curated وارد setup، comparison، deployment، implementation، local/self-host و API-first شوید.

ورود از مسیر task

اگر use-case را می‌دانید، از task شروع کنید و بعد vendor یا runtime را باریک کنید.

ورود از مسیر ecosystem

اگر stack را می‌دانید، از Hugging Face، Ollama، vLLM یا runtimeهای محلی وارد شوید.

نقطه‌های شروع خوب

چند صفحه برای شروع سریع

اگر هنوز مطمئن نیستید از کجا شروع کنید، یکی از این صفحه‌های مرجع یا guide را باز کنید.

خانواده مدل

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

راهنمای نصب

مدل هاي local روي macOS

اگر قرار است local AI را روي مک جدي و قابل تکرار جلو ببريد، اين صفحه تفاوت Ollama، MLX و LM Studio را از نگاه hardware fit، developer workflow و مسير migration روشن مي کند.

مقایسه تصمیم‌یار

مقايسه مدل هاي proprietary و open-weight

اين comparison براي تصميم ايدئولوژيک نوشته نشده است؛ براي وقتي است که بايد بين quality آماده، time-to-market و enterprise support از يک سو، و data control، local/self-host و flexibility از سوي ديگر انتخاب عملي کنيد.

مقایسه تصمیم‌یار

مقايسه stackهاي serving و inference

وقتي open model انتخاب شده، سؤال بعدي فقط «کجا deploy کنيم؟» نيست؛ سؤال اين است که vLLM، TGI، endpoint managed يا cloud serving براي latency، throughput، ownership و migration path شما کدام trade-off را مي سازند.

مقایسه تصمیم‌یار

مقایسه خانواده‌های هوش مصنوعی ویدئو

این راهنما برای انتخاب عملی بین text-to-video، image-to-video، video editing و video understanding است؛ با این نگاه که ویدئو هنوز گران، کند، policy-heavy و وابسته به workflow انسانی است.

راهنمای استقرار

راه اندازي self-host براي LLM در production

اين guide براي لحظه اي است که self-host از demo و benchmark عبور مي کند و بايد به سرويس پايدار، monitorable و rollbackable تبديل شود؛ با owner روشن براي GPU، gateway، observability و incident response.

راهنمای استقرار

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

راهنمای پیاده‌سازی

GitHub Copilot Coding Agent

GitHub Copilot Coding Agent برای تیم‌هایی مهم است که می‌خواهند issue-to-PR automation را داخل همان workflow گیت‌هاب خودشان جلو ببرند، با review و policyهای سازمانی نزدیک به محل کار اصلی تیم.

راهنمای پیاده‌سازی

پیاده‌سازی voice stack و voice agent

voice product فقط STT یا TTS نیست. این guide نشان می‌دهد برای ساخت voice agent باید latency زنجیره‌ای، barge-in، fallback و انتخاب بین managed voice stack و local/self-host را چطور ببینید.

OpenAIخانواده مدلاختصاصی

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

محصولات agentic، backofficeهای سندمحور، workflowهای کدنویسی و تیم‌هایی که می‌خواهند عملیات inference را برون‌سپاری کنند.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: برای self-host گزینه اصلی نیست؛ باید هزینه، حریم خصوصی و lock-in را از ابتدا در معماری لحاظ کنید.

ورود به صفحه مرجع
Hooshgate Referenceراهنمای استقراراختصاصی

Guardrails، observability و evaluation

بخش بزرگی از production readiness نه در مدل، بلکه در guardrails، observability و evaluation است. این صفحه نشان می‌دهد چطور AI feature را قابل‌پایش، قابل‌کنترل و قابل‌اعتماد نگه دارید.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

هر تیمی که AI را از demo وارد محصول یا فرایند سازمانی می‌کند؛ مخصوصاً محیط‌های حساس، customer-facing و agentic.

مسیر شروع

ops and safety layer

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بدون quality review، trace و policy checks، حتی بهترین مدل‌ها هم به‌مرور drift می‌کنند و اعتماد کاربر را از بین می‌برند.

ورود به راهنما
Anthropicخانواده مدلاختصاصی

خانواده Claude

Claude برای تیم‌هایی مناسب است که long-context، کیفیت نوشتار و رفتار پایدار در workflowهای document-heavy می‌خواهند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

تحلیل سند، agentهای دانشی، بازنویسی حرفه‌ای و تیم‌هایی که روی Bedrock یا Vertex AI نیز deployment می‌خواهند.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: مثل GPT، self-host در مسیر اصلی ندارد و باید economics و data boundary جداگانه مدیریت شود.

ورود به صفحه مرجع
Hooshgate Referenceراهنمای استقراراختصاصی

راهنمای deployment برای محصول و سازمان

deployment حرفه‌ای با «انتخاب مدل» تمام نمی‌شود. این guide از phaseهای rollout تا security، observability، guardrails و maintenance trade-off را برای محصول و سازمان جمع می‌کند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

tech leadها، infra leadها و product ownerهایی که باید یک AI feature را به‌شکل production-grade وارد سیستم واقعی کنند.

مسیر شروع

production operations

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بیشتر شکست‌های production نه از خود مدل، بلکه از فقدان rollout phase، logging، fallback و ownership عملیاتی می‌آید.

ورود به راهنما
Googleخانواده مدلاختصاصی

خانواده Gemini

Gemini برای تیم‌هایی جذاب است که از ورودی‌های چندوجهی، PDF، ویدئو یا Google stack استفاده می‌کنند و می‌خواهند API و cloud-native workflow یکپارچه باشد.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

محصولات multimodal، تحلیل PDF و ویدئو، RAGهای اسنادی و تیم‌هایی که روی Google Cloud یا Vertex AI کار می‌کنند.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: اگر تیم شما vendor-neutral یا self-host-first است، Gemini شاید بهترین نقطه شروع نباشد.

ورود به صفحه مرجع
Hooshgate Referenceراهنمای یکپارچه‌سازیاختصاصی

راهنمای API-first برای مدل‌های proprietary

اگر نمی‌خواهید وارد serving شوید و زمان رسیدن به MVP برایتان حیاتی است، مسیر API-first هنوز سریع‌ترین راه حرفه‌ای است؛ به‌شرط اینکه cost، lock-in و governance را از ابتدا مهندسی کنید.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

محصولات agentic، document AI، multimodal appها و تیم‌هایی که زیرساخت inference را نمی‌خواهند خودشان نگه دارند.

مسیر شروع

API-managed path

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: ساده‌بودن integration اولیه باعث می‌شود بسیاری از تیم‌ها logging، budget، fallback و data boundary را دیرتر از حد لازم طراحی کنند.

ورود به راهنما
Mistral AIخانواده مدلاختصاصی

Mistral OCR

Mistral OCR برای تیم‌هایی مهم است که OCR و document extraction را به‌عنوان یک API production-ready می‌خواهند و نمی‌خواهند از صفر pipeline بینایی و parsing بسازند.

چندوجهیتحلیل سندچت و دستیار

کجا به کار می‌آید؟

استخراج متن و ساختار از PDF، workflowهای سندمحور، backofficeهای فرم‌محور و archiveهای سازمانی.

مسیر شروع

API-first document path

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: اگر residency داده، self-host یا pipeline کاملاً تحت‌کنترل لازم دارید، باید گزینه‌های باز و self-host را هم کنار این API benchmark کنید.

ورود به صفحه مرجع
Deepgramخانواده مدلاختصاصی

Deepgram

Deepgram برای تیم‌هایی مناسب است که STT/TTS/voice-agent stack می‌خواهند و به‌جای چسباندن چند سرویس جدا، یک platform صوتی متمرکز ترجیح می‌دهند.

صوت و گفتارتبدیل گفتار به متنتبدیل متن به گفتار

کجا به کار می‌آید؟

realtime voice agents، transcription، multilingual speech apps و محصولاتی که کیفیت، latency و turn handling در آن‌ها مهم است.

مسیر شروع

API-first با self-host option

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: برای voice apps، باید latency end-to-end، retention، redaction و تعامل بین STT/TTS/LLM را باهم طراحی کنید.

ورود به صفحه مرجع
Hooshgate Referenceراهنمای پیاده‌سازیاختصاصی

پیاده‌سازی voice stack و voice agent

voice product فقط STT یا TTS نیست. این guide نشان می‌دهد برای ساخت voice agent باید latency زنجیره‌ای، barge-in، fallback و انتخاب بین managed voice stack و local/self-host را چطور ببینید.

صوت و گفتارمتن و چتتبدیل گفتار به متنتبدیل متن به گفتار

کجا به کار می‌آید؟

تیم‌هایی که می‌خواهند voice assistant، call automation یا spoken UI بسازند و نیاز دارند کل زنجیره STT → reasoning → TTS را حرفه‌ای طراحی کنند.

مسیر شروع

voice workflow guide

پوشش صفحه

۵ کامل / ۳ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

وابسته به stack انتخابی

نکته‌ی مهم: اندازه‌گیری latency فقط روی مدل اصلی اشتباه است؛ voice UX را tail latency، interruptibility و کیفیت turn-taking می‌سازند.

ورود به راهنما
OpenAIراهنمای یکپارچه‌سازیاختصاصی

Responses API در OpenAI

Responses API در این hub به‌عنوان integration-guide آمده چون برای بسیاری از تیم‌ها امروز contract اصلی OpenAI برای ساخت appهای agentic و multimodal است، نه صرفاً یک endpoint چت دیگر.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

backendهای API-first، appهای agentic، workflowهای structured output و تیم‌هایی که می‌خواهند contract جدیدتر OpenAI را جدی و production-safe پیاده کنند.

مسیر شروع

API-first orchestration

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Serverless • Cloud managed

نکته‌ی مهم: ساده‌بودن API اولیه نباید شما را از طراحی schema validation، fallback، observability و cost guardrail غافل کند.

ورود به راهنما
Hooshgate Referenceراهنمای استقراراختصاصی

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

صوت و گفتارمتن و چتدستیار صوتیتبدیل گفتار به متن

کجا به کار می‌آید؟

تیم‌هایی که voice assistant، call automation، spoken UI یا voice support را با کاربر واقعی اجرا می‌کنند و باید chain کامل STT → reasoning → tools/RAG → TTS را قابل اتکا کنند.

مسیر شروع

managed-first with selective self-host

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: اگر هنوز conversational design، privacy policy، on-call owner یا fallback text channel ندارید، deployment صوتی real-time زود است.

ورود به راهنما
Midjourneyخانواده مدلاختصاصی

Midjourney

Midjourney بیشتر برای تیم‌هایی مهم است که خروجی تصویری premium و workflow خلاقه سریع می‌خواهند، نه الزاماً یک API production-first یا graph کاملاً قابل‌کنترل.

تولید تصویرتولید تصویر

کجا به کار می‌آید؟

creative exploration، concept art، storyboard سریع و تیم‌هایی که asset تصویری را با review انسانی جلو می‌برند.

مسیر شروع

managed creative workflow

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: برای product integration عمیق، automation سنگین یا pipeline سخت‌گیر enterprise باید محدودیت API، governance و reproducibility را از ابتدا بپذیرید.

ورود به صفحه مرجع
Anthropicراهنمای یکپارچه‌سازیاختصاصی

Tool Use در Anthropic

این صفحه برای زمانی است که انتخاب شما خود Claude family نیست، بلکه طراحی درست لایه tool use و boundaryهای integration در Anthropic است.

متن و چتworkflow عامل‌محورچت و دستیار

کجا به کار می‌آید؟

agentهای tool-backed، workflowهای call-and-validate، backofficeهای حساس و تیم‌هایی که می‌خواهند tool use را تمیز و قابل‌کنترل پیاده کنند.

مسیر شروع

API-first with tool contracts

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: tool use بدون schema دقیق، permission layer و review path می‌تواند بسیار سریع به failureهای silent و expensive تبدیل شود.

ورود به راهنما
Anthropicراهنمای نصباختصاصی

Claude Code

Claude Code در hub به‌عنوان setup-guide آمده چون ارزش اصلی آن برای تیم‌ها در نصب، permission model، repo boundary و روش استفاده درست از terminal agent است.

متن و چتکدنویسیworkflow عامل‌محور

کجا به کار می‌آید؟

تیم‌هایی که می‌خواهند coding agent را از داخل ترمینال و روی repo واقعی تجربه کنند، با امکان چندفایلی و workflow مهندسی نزدیک به کار روزمره.

مسیر شروع

local CLI + remote model

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی • API

محیط

وابسته به stack انتخابی

نکته‌ی مهم: اگر permission boundary، review discipline و task scoping شل باشد، terminal agent خیلی سریع از ابزار مفید به ریسک عملیاتی تبدیل می‌شود.

ورود به راهنما
Hooshgate Referenceراهنمای نصباختصاصی

راه اندازي API-first براي مدل هاي تجاري

اين راهنما براي تيمي است که مي خواهد مدل تجاري را به شکل API-first وارد محصول يا backend کند، بدون اين که ساده بودن SDK او را از schema، cost guardrail، fallback و ownership عملي غافل کند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

MVP سريع، backendهاي product-first، appهاي agentic يا document-heavy و تيم هايي که مي خواهند قبل از self-host سراغ value عملي بروند.

مسیر شروع

delivery سريع با governance لازم

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Serverless • Cloud managed

نکته‌ی مهم: API-first burden serving را کم مي کند، اما cost، vendor dependency، retention policy و failure handling را از بين نمي برد.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یاراختصاصی

مقایسه خانواده‌های هوش مصنوعی ویدئو

این راهنما برای انتخاب عملی بین text-to-video، image-to-video، video editing و video understanding است؛ با این نگاه که ویدئو هنوز گران، کند، policy-heavy و وابسته به workflow انسانی است.

ویدئوچندوجهیتولید ویدئوتولید تصویر

کجا به کار می‌آید؟

تیم‌های محصول، رسانه، آموزش، مارکتینگ و AI tooling که می‌خواهند ویدئو را به شکل کنترل‌شده وارد prototype، تولید asset یا تحلیل محتوای ویدئویی کنند.

مسیر شروع

managed-first, open-weight experimental

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: اگر دنبال inference ارزان، self-host ساده یا تولید انبوه بدون review حقوقی و انسانی هستید، ویدئو معمولاً انتخاب اول خوبی نیست.

ورود به راهنما
OpenAIخانواده مدلاختصاصی

OpenAI Embeddings

اگر به embedding API ساده، پایدار و کم‌دردسر نیاز دارید، خانواده text-embedding-3 یکی از baselineهای حرفه‌ای بازار است.

Embedding / بردارسازیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG، semantic search، deduplication و هر جایی که می‌خواهید embedding به‌عنوان سرویس مدیریت شود.

مسیر شروع

API-only

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API

محیط

Linux • macOS

نکته‌ی مهم: مثل هر embedding API دیگر، هزینه در scale بالا باید با حجم سند، refresh index و dimension strategy سنجیده شود.

ورود به صفحه مرجع
Voyage AIخانواده مدلاختصاصی

Voyage Rerank

Voyage Rerank برای تیم‌هایی مهم است که retrieval stack آن‌ها embedding خوبی دارد اما برای precision نهایی و ranking enterprise-grade به یک مرحله reranking تمیز نیاز دارند.

Reranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG چندمرحله‌ای، search stack سازمانی، ranking مجدد روی top-k و تیم‌هایی که می‌خواهند answer quality را بدون ساخت مدل خودشان بهتر کنند.

مسیر شروع

API reranking layer

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: reranker جایگزین corpus hygiene، chunking درست یا ارزیابی retrieval نیست؛ فقط لایه دوم تصمیم است.

ورود به صفحه مرجع
Googleراهنمای یکپارچه‌سازیاختصاصی

Gemini Live API

Gemini Live API وقتی مهم می‌شود که شما به تعامل کم‌تاخیر صوت/ویدئو نیاز دارید و می‌خواهید conversation به سبک real-time را داخل محصول خودتان بسازید.

چندوجهیصوت و گفتاردستیار صوتیچت و دستیار

کجا به کار می‌آید؟

voice assistant، multimodal sessions، use-caseهای real-time و محصولاتی که interruption، turn-taking و media streaming برایشان مهم است.

مسیر شروع

managed low-latency media path

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: real-time بودن به‌معنای complexity بالاتر در session control، interruption handling، media pipeline و observability است.

ورود به راهنما
Ideogramخانواده مدلاختصاصی

Ideogram

Ideogram برای تیم‌هایی مهم است که API text-to-image با کیفیت خوب، style presets و توانایی بهتر در text rendering می‌خواهند.

تولید تصویرتولید تصویر

کجا به کار می‌آید؟

marketing visuals، image generation محصولی، character consistency و تیم‌هایی که می‌خواهند سریع‌تر از open stack وارد تولید تصویر شوند.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Serverless • Cloud managed

نکته‌ی مهم: برای خروجی‌های برندمحور یا حقوقی حساس، review انسانی و policy مالکیت/استفاده را از ابتدا مشخص کنید.

ورود به صفحه مرجع
GitHubراهنمای پیاده‌سازیاختصاصی

GitHub Copilot Coding Agent

GitHub Copilot Coding Agent برای تیم‌هایی مهم است که می‌خواهند issue-to-PR automation را داخل همان workflow گیت‌هاب خودشان جلو ببرند، با review و policyهای سازمانی نزدیک به محل کار اصلی تیم.

متن و چتکدنویسیworkflow عامل‌محور

کجا به کار می‌آید؟

issue delegation، background coding tasks، PR-based iteration و تیم‌هایی که می‌خواهند coding agent را در GitHub workflow عملیاتی کنند.

مسیر شروع

managed issue-to-PR workflow

پوشش صفحه

۵ کامل / ۳ خلاصه

راه‌اندازی

ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: background agent فقط زمانی مفید است که task sizing، review policy و repo protections روشن باشند؛ وگرنه فقط PRهای noisy بیشتری می‌سازد.

ورود به راهنما
ElevenLabsخانواده مدلاختصاصی

ElevenLabs

ElevenLabs برای تیم‌هایی مهم است که voice quality، TTS حرفه‌ای و STT/voice-agent workflow را به‌صورت یکپارچه می‌خواهند.

صوت و گفتارتبدیل متن به گفتارتبدیل گفتار به متن

کجا به کار می‌آید؟

voice interfaces، audiobook-like narration، realtime agents و pipelineهای صوتی محصولی.

مسیر شروع

API-only

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API

محیط

Linux • macOS

نکته‌ی مهم: در voice systems، text normalization، rights و human review برای برخی use-caseها حیاتی است.

ورود به صفحه مرجع
Hugging Faceراهنمای استقراراختصاصی

Inference Endpoints در Hugging Face

Hugging Face Inference Endpoints برای تیم‌هایی مهم است که می‌خواهند مدل‌های Hub را با burden کمتر وارد production کنند، اما هنوز انتخاب engine، model و cost را با دقت نگه دارند.

متن و چتچندوجهیچت و دستیارجست‌وجوی معنایی

کجا به کار می‌آید؟

deployment managed برای مدل‌های Hub، endpoint اختصاصی برای text یا embedding و تیم‌هایی که زمان setup infra داخلی ندارند.

مسیر شروع

managed production path

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: managed بودن به‌معنای حذف تصمیم‌های سخت نیست؛ هنوز باید engine، model، autoscaling، cost و observability را آگاهانه انتخاب کنید.

ورود به راهنما
AWS / Amazonاکوسیستم / ابزاراختصاصی

اکوسیستم Amazon Bedrock

Amazon Bedrock برای تیم‌هایی مهم است که multi-model access را در بستر AWS و با دغدغه enterprise governance می‌خواهند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

سازمان‌هایی که already در AWS هستند، policy و governance برایشان مهم است و می‌خواهند model access را داخل همان cloud plane نگه دارند.

مسیر شروع

managed cloud platform

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed • Serverless

نکته‌ی مهم: Bedrock یک model family واحد نیست؛ quality و ops آن به provider انتخابی، region و service design شما وابسته است.

ورود به راهنما
Googleاکوسیستم / ابزاراختصاصی

اکوسیستم Vertex AI Model Garden

Vertex AI Model Garden برای تیم‌هایی مهم است که در Google Cloud هستند و می‌خواهند هم مدل‌های گوگل و هم بعضی model familyهای third-party را از یک cloud plane ببینند.

متن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

کجا به کار می‌آید؟

Google Cloud-native teams، managed AI platform، teamهای data/ML که already روی Vertex و GCP workflow دارند.

مسیر شروع

managed cloud platform

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: Model Garden هم یک platform layer است؛ باید کیفیت هر family را جدا benchmark و governance آن را جدا طراحی کنید.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یاراختصاصی

مقايسه خانواده هاي توليد تصوير

براي تصوير، سؤال واقعي اين نيست که «بهترين مدل» چيست؛ سؤال اين است که آيا شما exploratory creativity، typography و brand asset، API-first generation يا self-host diffusion control مي خواهيد.

تولید تصویرتولید تصویر

کجا به کار می‌آید؟

تيم هاي طراحي، مارکتينگ، creative tooling و product teamهايي که بايد بين Midjourney، Ideogram، Stable Diffusion و stackهاي مشابه بر اساس workflow واقعي انتخاب کنند.

مسیر شروع

creative workflow selection

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

API • محیط محلی

محیط

وابسته به stack انتخابی

نکته‌ی مهم: خروجي تصوير به prompt، review loop و tooling اطراف هم وابسته است؛ اين صفحه shortcut براي حذف design review يا human selection نيست.

ورود به راهنما
NVIDIAراهنمای استقراراختصاصی

NVIDIA Riva

NVIDIA Riva برای تیم‌هایی مهم است که speech stack را با performance بالا و ownership زیرساختی بیشتر روی GPU خودشان می‌خواهند، نه صرفاً یک API بیرونی برای STT/TTS.

صوت و گفتارتبدیل گفتار به متنتبدیل متن به گفتار

کجا به کار می‌آید؟

voice assistantهای خصوصی، speech pipelines سازمانی، on-prem یا edge-adjacent deployment و تیم‌هایی که speech AI را درون infra خودشان می‌آورند.

مسیر شروع

self-host speech stack

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Cloud managed • Edge / Device

نکته‌ی مهم: اگر فقط به STT/TTS ساده نیاز دارید، Riva می‌تواند از نظر ops و hardware بسیار بیشتر از نیاز واقعی شما باشد.

ورود به راهنما
Googleخانواده مدلاختصاصی

Gemini Embedding

Gemini Embedding برای تیم‌هایی مناسب است که retrieval stack خود را روی Google ecosystem نگه می‌دارند.

Embedding / بردارسازیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG، semantic retrieval و pipelineهایی که هم generation و هم embedding را در Google stack می‌خواهند.

مسیر شروع

API-only

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: اگر vendor-neutrality مهم است، abstraction layer لازم است.

ورود به صفحه مرجع
Microsoftاکوسیستم / ابزاراختصاصی

اکوسیستم Azure AI Foundry

Azure AI Foundry برای سازمان‌هایی مهم است که enterprise controls مایکروسافتی و model access را در یک platform واحد می‌خواهند.

متن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

کجا به کار می‌آید؟

Azure-centric organizations، enterprise governance، app teams که می‌خواهند model access و security controls را داخل Azure نگه دارند.

مسیر شروع

managed enterprise platform

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: مثل بقیه platform pageها، اینجا درباره delivery و governance حرف می‌زنیم نه تضمین کیفیت هر model family.

ورود به راهنما
OpenAIخانواده مدلاختصاصی

Whisper

Whisper هنوز هم یک مرجع مهم برای speech-to-text عمومی است، مخصوصاً وقتی به چندزبانه بودن و سادگی API نیاز دارید.

صوت و گفتارتبدیل گفتار به متن

کجا به کار می‌آید؟

رونویسی فایل‌های صوتی، meeting notes، archive search و pipelineهای پایه STT.

مسیر شروع

API-first

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API

محیط

Linux • macOS

نکته‌ی مهم: اگر accuracy خیلی بالا، diarization پیشرفته یا workflowهای زنده لازم دارید، گزینه‌های جدیدتر را هم کنار آن بسنجید.

ورود به صفحه مرجع
Cohereخانواده مدلاختصاصی

خانواده Command

Command برای تیم‌هایی مهم است که RAG، agents و multilingual enterprise workload را با API مصرف می‌کنند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

دانش سازمانی، search-heavy assistantها و تیم‌هایی که روی retrieval و citation حساس‌اند.

مسیر شروع

API / managed

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: برای همه use-caseها گزینه پیش‌فرض نیست؛ بیشترین ارزشش را در retrieval-heavy enterprise appها نشان می‌دهد.

ورود به صفحه مرجع
AWS / Amazonراهنمای استقراراختصاصی

استقرار LLM روی SageMaker

این guide برای تیم‌هایی است که می‌خواهند serving مدل‌های باز یا سفارشی را روی SageMaker جلو ببرند و به rollout، endpoint lifecycle و cloud ops فکر می‌کنند.

متن و چتچندوجهیچت و دستیارRAG و دانش سازمانی

کجا به کار می‌آید؟

سازمان‌های AWS-centric که endpoint، autoscaling، model package و rollout cloud-managed می‌خواهند.

مسیر شروع

managed cloud deployment

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: اگر فقط یک pilot ساده دارید، complexity این مسیر می‌تواند از نیاز واقعی شما بیشتر باشد.

ورود به راهنما
AWSخانواده مدلاختصاصی

خانواده Amazon Nova

Nova برای تیم‌هایی مناسب است که روی AWS هستند و می‌خواهند از مدل‌های چندوجهی با governance و integration بومی آمازون استفاده کنند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

سازمان‌های AWS-first، RAG و assistantهای enterprise با integration نزدیک به Bedrock و خدمات ابری آمازون.

مسیر شروع

Bedrock / AWS-managed

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

ابر مدیریت‌شده • API

محیط

Cloud managed

نکته‌ی مهم: برای تیم‌های خارج از AWS، lock-in و معماری cloud-native باید آگاهانه مدیریت شود.

ورود به صفحه مرجع