Hooshgate Models Center

مرجع فارسی انتخاب مدل، setup، integration و deployment

این بخش playground یا inference UI نیست. اینجا برای browse، مقایسه، انتخاب مسیر local/API/self-host و رسیدن به guideهای درست ساخته شده است. در بازسازی فعلی، فقط مرز curated و قابل‌اتکا روی surface عمومی مانده است.

مرجع و directoryopen-source / open-weightproprietary / API-firstsetup / integration / deployment

مرز عمومی فعلی

بازسازی با فهرست curated

در این فاز فقط صفحه‌هایی روی /fa/models دیده می‌شوند که برای reference، selection یا guide عملی ارزش روشن دارند.

کل صفحه‌های visible

۸۶

خانواده و مدل

۳۳

guide و tooling

۵۳

متن‌باز

۳۰

وزن‌باز

۲۳

صفحه‌های proprietary

۳۳

اگر دنبال عمق هستید، از guideها شروع کنید. family pageها بیشتر برای فهم fit، trade-off و shortlist هستند؛ setup و deployment عمیق معمولاً روی pageهای dedicated باز می‌شوند.

Browse سریع

۸ صفحه در مرز عمومی فعلی

مرکز مدل‌ها فعلاً فقط روی curated boundary اجرا می‌شود تا surface تمیز، قابل‌جست‌وجو و مرجع‌گونه بماند.

دستیار صوتی

خانواده‌های پایه LLM

برای انتخاب بین GPT، Claude، Gemini، Llama، Qwen و Mistral از اینجا شروع کنید.

۱۴ صفحه

کدنویسی و workflow توسعه

مدل‌ها و guideهایی برای code assistant، repo workflow و انتخاب coding stack.

۴۱ صفحه

Embedding، RAG و reranking

برای retrieval stack، document AI و search quality مسیرهای مرتبط را اینجا ببینید.

۴۶ صفحه

تصویر، ویدئو و صوت

مدل‌های media و voice را کنار هم ببینید و بعد بین API و self-host تصمیم بگیرید.

۳۷ صفحه

اکوسیستم و serving

برای Ollama، vLLM، TGI، Hugging Face و runtimeهای محلی و production.

۱۸ صفحه

نصب، integration و deployment

اگر دنبال جواب اجرایی هستید، به‌جای family pages از guideها شروع کنید.

۳۱ صفحه

عمق M4B

عمق را از نوع guide وارد کنید

برای این فاز، landing نقش hub دارد نه card dump. از laneهای curated وارد setup، comparison، deployment، implementation، local/self-host و API-first شوید.

ورود از مسیر task

اگر use-case را می‌دانید، از task شروع کنید و بعد vendor یا runtime را باریک کنید.

ورود از مسیر ecosystem

اگر stack را می‌دانید، از Hugging Face، Ollama، vLLM یا runtimeهای محلی وارد شوید.

نقطه‌های شروع خوب

چند صفحه برای شروع سریع

اگر هنوز مطمئن نیستید از کجا شروع کنید، یکی از این صفحه‌های مرجع یا guide را باز کنید.

خانواده مدل

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

راهنمای نصب

مدل هاي local روي macOS

اگر قرار است local AI را روي مک جدي و قابل تکرار جلو ببريد، اين صفحه تفاوت Ollama، MLX و LM Studio را از نگاه hardware fit، developer workflow و مسير migration روشن مي کند.

مقایسه تصمیم‌یار

مقايسه مدل هاي proprietary و open-weight

اين comparison براي تصميم ايدئولوژيک نوشته نشده است؛ براي وقتي است که بايد بين quality آماده، time-to-market و enterprise support از يک سو، و data control، local/self-host و flexibility از سوي ديگر انتخاب عملي کنيد.

مقایسه تصمیم‌یار

مقايسه stackهاي serving و inference

وقتي open model انتخاب شده، سؤال بعدي فقط «کجا deploy کنيم؟» نيست؛ سؤال اين است که vLLM، TGI، endpoint managed يا cloud serving براي latency، throughput، ownership و migration path شما کدام trade-off را مي سازند.

مقایسه تصمیم‌یار

مقایسه خانواده‌های هوش مصنوعی ویدئو

این راهنما برای انتخاب عملی بین text-to-video، image-to-video، video editing و video understanding است؛ با این نگاه که ویدئو هنوز گران، کند، policy-heavy و وابسته به workflow انسانی است.

راهنمای استقرار

راه اندازي self-host براي LLM در production

اين guide براي لحظه اي است که self-host از demo و benchmark عبور مي کند و بايد به سرويس پايدار، monitorable و rollbackable تبديل شود؛ با owner روشن براي GPU، gateway، observability و incident response.

راهنمای استقرار

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

راهنمای پیاده‌سازی

GitHub Copilot Coding Agent

GitHub Copilot Coding Agent برای تیم‌هایی مهم است که می‌خواهند issue-to-PR automation را داخل همان workflow گیت‌هاب خودشان جلو ببرند، با review و policyهای سازمانی نزدیک به محل کار اصلی تیم.

راهنمای پیاده‌سازی

پیاده‌سازی voice stack و voice agent

voice product فقط STT یا TTS نیست. این guide نشان می‌دهد برای ساخت voice agent باید latency زنجیره‌ای، barge-in، fallback و انتخاب بین managed voice stack و local/self-host را چطور ببینید.

Deepgramخانواده مدلاختصاصی

Deepgram

Deepgram برای تیم‌هایی مناسب است که STT/TTS/voice-agent stack می‌خواهند و به‌جای چسباندن چند سرویس جدا، یک platform صوتی متمرکز ترجیح می‌دهند.

صوت و گفتارتبدیل گفتار به متنتبدیل متن به گفتار

کجا به کار می‌آید؟

realtime voice agents، transcription، multilingual speech apps و محصولاتی که کیفیت، latency و turn handling در آن‌ها مهم است.

مسیر شروع

API-first با self-host option

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: برای voice apps، باید latency end-to-end، retention، redaction و تعامل بین STT/TTS/LLM را باهم طراحی کنید.

ورود به صفحه مرجع
Hooshgate Referenceراهنمای پیاده‌سازیاختصاصی

پیاده‌سازی voice stack و voice agent

voice product فقط STT یا TTS نیست. این guide نشان می‌دهد برای ساخت voice agent باید latency زنجیره‌ای، barge-in، fallback و انتخاب بین managed voice stack و local/self-host را چطور ببینید.

صوت و گفتارمتن و چتتبدیل گفتار به متنتبدیل متن به گفتار

کجا به کار می‌آید؟

تیم‌هایی که می‌خواهند voice assistant، call automation یا spoken UI بسازند و نیاز دارند کل زنجیره STT → reasoning → TTS را حرفه‌ای طراحی کنند.

مسیر شروع

voice workflow guide

پوشش صفحه

۵ کامل / ۳ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

وابسته به stack انتخابی

نکته‌ی مهم: اندازه‌گیری latency فقط روی مدل اصلی اشتباه است؛ voice UX را tail latency، interruptibility و کیفیت turn-taking می‌سازند.

ورود به راهنما
Hooshgate Referenceراهنمای استقراراختصاصی

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

صوت و گفتارمتن و چتدستیار صوتیتبدیل گفتار به متن

کجا به کار می‌آید؟

تیم‌هایی که voice assistant، call automation، spoken UI یا voice support را با کاربر واقعی اجرا می‌کنند و باید chain کامل STT → reasoning → tools/RAG → TTS را قابل اتکا کنند.

مسیر شروع

managed-first with selective self-host

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: اگر هنوز conversational design، privacy policy، on-call owner یا fallback text channel ندارید، deployment صوتی real-time زود است.

ورود به راهنما
Hooshgate Referenceراهنمای نصباختصاصی

راه اندازي API-first براي مدل هاي تجاري

اين راهنما براي تيمي است که مي خواهد مدل تجاري را به شکل API-first وارد محصول يا backend کند، بدون اين که ساده بودن SDK او را از schema، cost guardrail، fallback و ownership عملي غافل کند.

متن و چتچندوجهیچت و دستیارworkflow عامل‌محور

کجا به کار می‌آید؟

MVP سريع، backendهاي product-first، appهاي agentic يا document-heavy و تيم هايي که مي خواهند قبل از self-host سراغ value عملي بروند.

مسیر شروع

delivery سريع با governance لازم

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Serverless • Cloud managed

نکته‌ی مهم: API-first burden serving را کم مي کند، اما cost، vendor dependency، retention policy و failure handling را از بين نمي برد.

ورود به راهنما
Googleراهنمای یکپارچه‌سازیاختصاصی

Gemini Live API

Gemini Live API وقتی مهم می‌شود که شما به تعامل کم‌تاخیر صوت/ویدئو نیاز دارید و می‌خواهید conversation به سبک real-time را داخل محصول خودتان بسازید.

چندوجهیصوت و گفتاردستیار صوتیچت و دستیار

کجا به کار می‌آید؟

voice assistant، multimodal sessions، use-caseهای real-time و محصولاتی که interruption، turn-taking و media streaming برایشان مهم است.

مسیر شروع

managed low-latency media path

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: real-time بودن به‌معنای complexity بالاتر در session control، interruption handling، media pipeline و observability است.

ورود به راهنما
Alibaba / Qwenخانواده مدلوزن‌باز

Qwen Omni

Qwen Omni برای تیم‌هایی مهم است که مدل باز چندوجهی با ورودی متن، تصویر و صدا می‌خواهند و می‌خواهند آن را در stack خودشان ادغام کنند.

چندوجهیصوت و گفتارچت و دستیارتحلیل سند

کجا به کار می‌آید؟

multimodal chat، voice-enabled assistant، image + text workflows و تجربه‌های unified که نمی‌خواهند کاملاً وابسته به API بسته باشند.

مسیر شروع

self-host ممکن

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Linux • Cloud managed

نکته‌ی مهم: مدل‌های omni به‌سادگی روی paper خوب به نظر می‌رسند، اما در محصول واقعی complexity orchestration و testing آن‌ها بالاست.

ورود به صفحه مرجع
ElevenLabsخانواده مدلاختصاصی

ElevenLabs

ElevenLabs برای تیم‌هایی مهم است که voice quality، TTS حرفه‌ای و STT/voice-agent workflow را به‌صورت یکپارچه می‌خواهند.

صوت و گفتارتبدیل متن به گفتارتبدیل گفتار به متن

کجا به کار می‌آید؟

voice interfaces، audiobook-like narration، realtime agents و pipelineهای صوتی محصولی.

مسیر شروع

API-only

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API

محیط

Linux • macOS

نکته‌ی مهم: در voice systems، text normalization، rights و human review برای برخی use-caseها حیاتی است.

ورود به صفحه مرجع
NVIDIAراهنمای استقراراختصاصی

NVIDIA Riva

NVIDIA Riva برای تیم‌هایی مهم است که speech stack را با performance بالا و ownership زیرساختی بیشتر روی GPU خودشان می‌خواهند، نه صرفاً یک API بیرونی برای STT/TTS.

صوت و گفتارتبدیل گفتار به متنتبدیل متن به گفتار

کجا به کار می‌آید؟

voice assistantهای خصوصی، speech pipelines سازمانی، on-prem یا edge-adjacent deployment و تیم‌هایی که speech AI را درون infra خودشان می‌آورند.

مسیر شروع

self-host speech stack

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Cloud managed • Edge / Device

نکته‌ی مهم: اگر فقط به STT/TTS ساده نیاز دارید، Riva می‌تواند از نظر ops و hardware بسیار بیشتر از نیاز واقعی شما باشد.

ورود به راهنما