Hooshgate Models Center

مرجع فارسی انتخاب مدل، setup، integration و deployment

این بخش playground یا inference UI نیست. اینجا برای browse، مقایسه، انتخاب مسیر local/API/self-host و رسیدن به guideهای درست ساخته شده است. در بازسازی فعلی، فقط مرز curated و قابل‌اتکا روی surface عمومی مانده است.

مرجع و directoryopen-source / open-weightproprietary / API-firstsetup / integration / deployment

مرز عمومی فعلی

بازسازی با فهرست curated

در این فاز فقط صفحه‌هایی روی /fa/models دیده می‌شوند که برای reference، selection یا guide عملی ارزش روشن دارند.

کل صفحه‌های visible

۸۶

خانواده و مدل

۳۳

guide و tooling

۵۳

متن‌باز

۳۰

وزن‌باز

۲۳

صفحه‌های proprietary

۳۳

اگر دنبال عمق هستید، از guideها شروع کنید. family pageها بیشتر برای فهم fit، trade-off و shortlist هستند؛ setup و deployment عمیق معمولاً روی pageهای dedicated باز می‌شوند.

Browse سریع

۳ صفحه در مرز عمومی فعلی

مرکز مدل‌ها فعلاً فقط روی curated boundary اجرا می‌شود تا surface تمیز، قابل‌جست‌وجو و مرجع‌گونه بماند.

تولید ویدئو

خانواده‌های پایه LLM

برای انتخاب بین GPT، Claude، Gemini، Llama، Qwen و Mistral از اینجا شروع کنید.

۱۴ صفحه

کدنویسی و workflow توسعه

مدل‌ها و guideهایی برای code assistant، repo workflow و انتخاب coding stack.

۴۱ صفحه

Embedding، RAG و reranking

برای retrieval stack، document AI و search quality مسیرهای مرتبط را اینجا ببینید.

۴۶ صفحه

تصویر، ویدئو و صوت

مدل‌های media و voice را کنار هم ببینید و بعد بین API و self-host تصمیم بگیرید.

۳۷ صفحه

اکوسیستم و serving

برای Ollama، vLLM، TGI، Hugging Face و runtimeهای محلی و production.

۱۸ صفحه

نصب، integration و deployment

اگر دنبال جواب اجرایی هستید، به‌جای family pages از guideها شروع کنید.

۳۱ صفحه

عمق M4B

عمق را از نوع guide وارد کنید

برای این فاز، landing نقش hub دارد نه card dump. از laneهای curated وارد setup، comparison، deployment، implementation، local/self-host و API-first شوید.

ورود از مسیر task

اگر use-case را می‌دانید، از task شروع کنید و بعد vendor یا runtime را باریک کنید.

ورود از مسیر ecosystem

اگر stack را می‌دانید، از Hugging Face، Ollama، vLLM یا runtimeهای محلی وارد شوید.

نقطه‌های شروع خوب

چند صفحه برای شروع سریع

اگر هنوز مطمئن نیستید از کجا شروع کنید، یکی از این صفحه‌های مرجع یا guide را باز کنید.

خانواده مدل

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

راهنمای نصب

مدل هاي local روي macOS

اگر قرار است local AI را روي مک جدي و قابل تکرار جلو ببريد، اين صفحه تفاوت Ollama، MLX و LM Studio را از نگاه hardware fit، developer workflow و مسير migration روشن مي کند.

مقایسه تصمیم‌یار

مقايسه مدل هاي proprietary و open-weight

اين comparison براي تصميم ايدئولوژيک نوشته نشده است؛ براي وقتي است که بايد بين quality آماده، time-to-market و enterprise support از يک سو، و data control، local/self-host و flexibility از سوي ديگر انتخاب عملي کنيد.

مقایسه تصمیم‌یار

مقايسه stackهاي serving و inference

وقتي open model انتخاب شده، سؤال بعدي فقط «کجا deploy کنيم؟» نيست؛ سؤال اين است که vLLM، TGI، endpoint managed يا cloud serving براي latency، throughput، ownership و migration path شما کدام trade-off را مي سازند.

مقایسه تصمیم‌یار

مقایسه خانواده‌های هوش مصنوعی ویدئو

این راهنما برای انتخاب عملی بین text-to-video، image-to-video، video editing و video understanding است؛ با این نگاه که ویدئو هنوز گران، کند، policy-heavy و وابسته به workflow انسانی است.

راهنمای استقرار

راه اندازي self-host براي LLM در production

اين guide براي لحظه اي است که self-host از demo و benchmark عبور مي کند و بايد به سرويس پايدار، monitorable و rollbackable تبديل شود؛ با owner روشن براي GPU، gateway، observability و incident response.

راهنمای استقرار

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

راهنمای پیاده‌سازی

GitHub Copilot Coding Agent

GitHub Copilot Coding Agent برای تیم‌هایی مهم است که می‌خواهند issue-to-PR automation را داخل همان workflow گیت‌هاب خودشان جلو ببرند، با review و policyهای سازمانی نزدیک به محل کار اصلی تیم.

راهنمای پیاده‌سازی

پیاده‌سازی voice stack و voice agent

voice product فقط STT یا TTS نیست. این guide نشان می‌دهد برای ساخت voice agent باید latency زنجیره‌ای، barge-in، fallback و انتخاب بین managed voice stack و local/self-host را چطور ببینید.

Hugging Faceاکوسیستم / ابزارمتن‌باز

Diffusers stack

Diffusers بهترین انتخاب برای تیم‌هایی است که می‌خواهند image/video generation را با pipelineهای سفارشی، LoRA، control و experimentation مهندسی کنند.

تولید تصویرویدئوتولید تصویرتولید ویدئو

کجا به کار می‌آید؟

تیم‌های تولید تصویر، پژوهش، pipelineهای visual generation، custom workflows و integration با adapterها و controlهای متنوع.

مسیر شروع

custom generation stack

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux

نکته‌ی مهم: اگر فقط یک API آماده برای image generation می‌خواهید، Diffusers برای شروع بیش از حد فنی است و runtime یا provider آماده می‌تواند مناسب‌تر باشد.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یاراختصاصی

مقایسه خانواده‌های هوش مصنوعی ویدئو

این راهنما برای انتخاب عملی بین text-to-video، image-to-video، video editing و video understanding است؛ با این نگاه که ویدئو هنوز گران، کند، policy-heavy و وابسته به workflow انسانی است.

ویدئوچندوجهیتولید ویدئوتولید تصویر

کجا به کار می‌آید؟

تیم‌های محصول، رسانه، آموزش، مارکتینگ و AI tooling که می‌خواهند ویدئو را به شکل کنترل‌شده وارد prototype، تولید asset یا تحلیل محتوای ویدئویی کنند.

مسیر شروع

managed-first, open-weight experimental

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: اگر دنبال inference ارزان، self-host ساده یا تولید انبوه بدون review حقوقی و انسانی هستید، ویدئو معمولاً انتخاب اول خوبی نیست.

ورود به راهنما
Alibaba / Wanخانواده مدلوزن‌باز

Wan Video

Wan Video برای تیم‌هایی مهم است که text-to-video باز می‌خواهند و آماده‌اند در عوض آزادی deployment، complexity سخت‌افزار و زمان setup بیشتری بپذیرند.

ویدئوتولید ویدئو

کجا به کار می‌آید؟

video experimentation، pipelineهای داخلی تولید ویدئو و تیم‌هایی که می‌خواهند open stack را با ComfyUI یا runtimeهای خودشان جلو ببرند.

مسیر شروع

self-host video stack

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • Container / Docker

نکته‌ی مهم: بدون GPU planning، storage و queue management، text-to-video باز خیلی سریع به bottleneck عملیاتی تبدیل می‌شود.

ورود به صفحه مرجع