Hooshgate Models Center

مرجع فارسی انتخاب مدل، setup، integration و deployment

این بخش playground یا inference UI نیست. اینجا برای browse، مقایسه، انتخاب مسیر local/API/self-host و رسیدن به guideهای درست ساخته شده است. در بازسازی فعلی، فقط مرز curated و قابل‌اتکا روی surface عمومی مانده است.

مرجع و directoryopen-source / open-weightproprietary / API-firstsetup / integration / deployment

مرز عمومی فعلی

بازسازی با فهرست curated

در این فاز فقط صفحه‌هایی روی /fa/models دیده می‌شوند که برای reference، selection یا guide عملی ارزش روشن دارند.

کل صفحه‌های visible

۸۶

خانواده و مدل

۳۳

guide و tooling

۵۳

متن‌باز

۳۰

وزن‌باز

۲۳

صفحه‌های proprietary

۳۳

اگر دنبال عمق هستید، از guideها شروع کنید. family pageها بیشتر برای فهم fit، trade-off و shortlist هستند؛ setup و deployment عمیق معمولاً روی pageهای dedicated باز می‌شوند.

Browse سریع

۲۰ صفحه در مرز عمومی فعلی

مرکز مدل‌ها فعلاً فقط روی curated boundary اجرا می‌شود تا surface تمیز، قابل‌جست‌وجو و مرجع‌گونه بماند.

جست‌وجوی معنایی

خانواده‌های پایه LLM

برای انتخاب بین GPT، Claude، Gemini، Llama، Qwen و Mistral از اینجا شروع کنید.

۱۴ صفحه

کدنویسی و workflow توسعه

مدل‌ها و guideهایی برای code assistant، repo workflow و انتخاب coding stack.

۴۱ صفحه

Embedding، RAG و reranking

برای retrieval stack، document AI و search quality مسیرهای مرتبط را اینجا ببینید.

۴۶ صفحه

تصویر، ویدئو و صوت

مدل‌های media و voice را کنار هم ببینید و بعد بین API و self-host تصمیم بگیرید.

۳۷ صفحه

اکوسیستم و serving

برای Ollama، vLLM، TGI، Hugging Face و runtimeهای محلی و production.

۱۸ صفحه

نصب، integration و deployment

اگر دنبال جواب اجرایی هستید، به‌جای family pages از guideها شروع کنید.

۳۱ صفحه

عمق M4B

عمق را از نوع guide وارد کنید

برای این فاز، landing نقش hub دارد نه card dump. از laneهای curated وارد setup، comparison، deployment، implementation، local/self-host و API-first شوید.

ورود از مسیر task

اگر use-case را می‌دانید، از task شروع کنید و بعد vendor یا runtime را باریک کنید.

ورود از مسیر ecosystem

اگر stack را می‌دانید، از Hugging Face، Ollama، vLLM یا runtimeهای محلی وارد شوید.

نقطه‌های شروع خوب

چند صفحه برای شروع سریع

اگر هنوز مطمئن نیستید از کجا شروع کنید، یکی از این صفحه‌های مرجع یا guide را باز کنید.

خانواده مدل

خانواده GPT

اگر تیم شما به مدل API-first با ابزار، structured outputs و اکوسیستم بالغ نیاز دارد، GPT معمولاً نقطه شروع استاندارد است.

راهنمای نصب

مدل هاي local روي macOS

اگر قرار است local AI را روي مک جدي و قابل تکرار جلو ببريد، اين صفحه تفاوت Ollama، MLX و LM Studio را از نگاه hardware fit، developer workflow و مسير migration روشن مي کند.

مقایسه تصمیم‌یار

مقايسه مدل هاي proprietary و open-weight

اين comparison براي تصميم ايدئولوژيک نوشته نشده است؛ براي وقتي است که بايد بين quality آماده، time-to-market و enterprise support از يک سو، و data control، local/self-host و flexibility از سوي ديگر انتخاب عملي کنيد.

مقایسه تصمیم‌یار

مقايسه stackهاي serving و inference

وقتي open model انتخاب شده، سؤال بعدي فقط «کجا deploy کنيم؟» نيست؛ سؤال اين است که vLLM، TGI، endpoint managed يا cloud serving براي latency، throughput، ownership و migration path شما کدام trade-off را مي سازند.

مقایسه تصمیم‌یار

مقایسه خانواده‌های هوش مصنوعی ویدئو

این راهنما برای انتخاب عملی بین text-to-video، image-to-video، video editing و video understanding است؛ با این نگاه که ویدئو هنوز گران، کند، policy-heavy و وابسته به workflow انسانی است.

راهنمای استقرار

راه اندازي self-host براي LLM در production

اين guide براي لحظه اي است که self-host از demo و benchmark عبور مي کند و بايد به سرويس پايدار، monitorable و rollbackable تبديل شود؛ با owner روشن براي GPU، gateway، observability و incident response.

راهنمای استقرار

استقرار realtime voice stack در production

این guide برای لحظه‌ای است که voice agent از demo عبور می‌کند و باید با latency بودجه‌بندی‌شده، barge-in، streaming، fallback، observability و policy ضبط صدا وارد production شود.

راهنمای پیاده‌سازی

GitHub Copilot Coding Agent

GitHub Copilot Coding Agent برای تیم‌هایی مهم است که می‌خواهند issue-to-PR automation را داخل همان workflow گیت‌هاب خودشان جلو ببرند، با review و policyهای سازمانی نزدیک به محل کار اصلی تیم.

راهنمای پیاده‌سازی

پیاده‌سازی voice stack و voice agent

voice product فقط STT یا TTS نیست. این guide نشان می‌دهد برای ساخت voice agent باید latency زنجیره‌ای، barge-in، fallback و انتخاب بین managed voice stack و local/self-host را چطور ببینید.

Hooshgate Referenceراهنمای یکپارچه‌سازیوزن‌باز

راهنمای integration برای RAG

RAG با وصل‌کردن یک LLM به vector DB حل نمی‌شود. این guide مسیر حرفه‌ای integration را از ingest تا retrieval، reranking، answer synthesis و evaluation توضیح می‌دهد.

متن و چتEmbedding / بردارسازیRAG و دانش سازمانیجست‌وجوی معنایی

کجا به کار می‌آید؟

تیم‌هایی که می‌خواهند روی اسناد داخلی، دانش سازمانی، policy و document assistant یک RAG قابل‌نگهداری بسازند.

مسیر شروع

integration-focused

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: بدون dataset ارزیابی، metadata درست و failure taxonomy، بیشتر RAGها فقط demo خوب هستند نه محصول قابل اتکا.

ورود به راهنما
vLLM Projectاکوسیستم / ابزارمتن‌باز

اکوسیستم vLLM

vLLM یکی از جدی‌ترین انتخاب‌ها برای serving مدل‌های open-weight در production است؛ مخصوصاً وقتی throughput، OpenAI-compatible API و batching برایتان مهم است.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

LLM serving سازمانی، endpointهای چندکاربره، self-host در مقیاس متوسط تا بالا، embedding service و migration از pilot local به production.

مسیر شروع

self-host production-grade

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Linux • Container / Docker

نکته‌ی مهم: vLLM ابزار onboarding مبتدی نیست؛ بدون GPU sizing، model selection و observability خوب، deployment آن می‌تواند پرهزینه و ناپایدار شود.

ورود به راهنما
Hooshgate Referenceراهنمای نصبمتن‌باز

راهنمای شروع local روی ویندوز، مک و لینوکس

اگر نمی‌دانید برای local AI از کجا شروع کنید، این صفحه مسیر ساده‌تر را برای Windows، macOS و Linux روشن می‌کند و می‌گوید چه زمانی سراغ Ollama، LM Studio یا llama.cpp بروید.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

تیم‌ها و افرادی که می‌خواهند با حداقل friction اولین local run را انجام دهند و فرق بین desktop evaluation و local API را بفهمند.

مسیر شروع

desktop و workstation

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی

محیط

Windows • macOS

نکته‌ی مهم: local run همیشه بهترین انتخاب نیست؛ اگر هدف شما محصول چندکاربره یا SLAدار است، باید بعد از pilot تصمیم serving را دوباره بگیرید.

ورود به راهنما
ggml-org / llama.cppاکوسیستم / ابزارمتن‌باز

اکوسیستم llama.cpp

llama.cpp برای وقتی مناسب است که کنترل دقیق روی GGUF، اجرای CPU-friendly، edge deployment یا بسته‌بندی محلی برایتان مهم‌تر از سادگی UX باشد.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

GGUF، edge، inference روی CPU یا GPUهای کوچک، embedded apps و تیم‌هایی که می‌خواهند behavior runtime را دقیق‌تر کنترل کنند.

مسیر شروع

local و edge-oriented

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • macOS

نکته‌ی مهم: اگر فقط می‌خواهید سریع demo بگیرید، llama.cpp معمولاً نقطه شروع راحتی نیست و Ollama یا LM Studio friction کمتری دارند.

ورود به راهنما
Hugging Faceاکوسیستم / ابزارمتن‌باز

Transformers stack

Transformers stack زمانی مناسب است که می‌خواهید روی اجرای مدل، pre/post-processing و training/inference workflow کنترل عمیق داشته باشید و حاضر باشید از سادگی runtimeهای turnkey صرف‌نظر کنید.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

تیم‌های فنی، سرویس‌های سفارشی Python، inference با منطق اختصاصی، training/fine-tuning و کار با مدل‌هایی که runtime آماده برایشان کافی نیست.

مسیر شروع

custom Python stack

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • macOS

نکته‌ی مهم: اگر فقط endpoint production می‌خواهید، بسیاری از تیم‌ها با vLLM یا TGI سریع‌تر به نتیجه می‌رسند؛ Transformers انعطاف می‌دهد اما burden بیشتری هم می‌آورد.

ورود به راهنما
Hooshgate Referenceراهنمای نصبمتن‌باز

راهنمای GGUF و بسته‌بندی local

GGUF برای local AI فقط یک فرمت فایل نیست؛ تصمیمی است درباره portability، quantization و trade-off کیفیت در برابر resource. این صفحه می‌گوید چه زمانی GGUF منطقی است و چه زمانی نه.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

local deployment، edge، laptop inference و تیم‌هایی که می‌خواهند مدل را با footprint کوچک‌تر اجرا و جابه‌جا کنند.

مسیر شروع

portable local packaging

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی • لبه / روی دستگاه

محیط

Edge / Device

نکته‌ی مهم: هر GGUF خوب نیست و هر quantization به‌صرفه هم لزوماً برای task شما مناسب نیست؛ باید quality را روی use-case واقعی بسنجید.

ورود به راهنما
Alibaba / Qwenخانواده مدلوزن‌باز

Qwen Embedding و Reranker

خانواده Qwen Embedding/Reranker برای تیم‌هایی مهم است که retrieval چندزبانه، RAG جدی و کنترل بیشتر روی embedding stack می‌خواهند.

Embedding / بردارسازیReranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG چندزبانه، semantic search، reranking روی corpus سازمانی و pipelineهایی که کیفیت retrieval برایشان حیاتی‌تر از chat model است.

مسیر شروع

self-host یا API

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

API • استقرار روی زیرساخت خودتان

محیط

Linux • Container / Docker

نکته‌ی مهم: اگر chunking، indexing و evaluation را درست طراحی نکنید، حتی embedding قوی هم retrieval خوبی به شما نمی‌دهد.

ورود به صفحه مرجع
LM Studioاکوسیستم / ابزارمتن‌باز

LM Studio و runtimeهای desktop

LM Studio برای تیم‌هایی مناسب است که می‌خواهند بدون درگیری با CLI و serving stack، مدل محلی را روی desktop اجرا، مقایسه و برای demo یا evaluation آماده کنند.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

product discovery، مقایسه سریع مدل‌های محلی، demo برای غیرتوسعه‌دهنده‌ها و تیم‌هایی که GUI desktop می‌خواهند.

مسیر شروع

desktop local GUI

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

محیط محلی

محیط

Windows • macOS

نکته‌ی مهم: LM Studio معمولاً مقصد نهایی production نیست؛ اگر نیاز backend shared یا API سازمانی دارید باید به stackهای دیگر مهاجرت کنید.

ورود به راهنما
Hugging Faceاکوسیستم / ابزارمتن‌باز

Text Embeddings Inference

TEI یکی از مهم‌ترین runtimeهای hub برای embedding و reranking است؛ چون self-host retrieval را از مرحله notebook به سرویس production نزدیک می‌کند.

Embedding / بردارسازیReranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

embedding و reranking service، RAG داخلی، search production و تیم‌هایی که می‌خواهند open models را با runtime مخصوص retrieval بالا بیاورند.

مسیر شروع

serving تخصصی retrieval

پوشش صفحه

۹ کامل / ۰ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Container / Docker • Linux

نکته‌ی مهم: اگر stack شما heterogeneous است، باید آن را کنار vLLM، custom services و managed embedding APIها هم بسنجید.

ورود به راهنما
Hooshgate Referenceراهنمای نصبمتن‌باز

مدل هاي local روي macOS

اگر قرار است local AI را روي مک جدي و قابل تکرار جلو ببريد، اين صفحه تفاوت Ollama، MLX و LM Studio را از نگاه hardware fit، developer workflow و مسير migration روشن مي کند.

متن و چتچندوجهیچت و دستیارکدنویسی

کجا به کار می‌آید؟

Apple Silicon workstationها، تيم هاي developer يا knowledge worker که مي خواهند local pilot، coding workflow يا RAG سبک را بدون رفتن فوري به سرور Linux شروع کنند.

مسیر شروع

Apple Silicon local-first

پوشش صفحه

۵ کامل / ۲ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

macOS

نکته‌ی مهم: macOS نقطه شروع خوبي براي evaluation و workflow شخصي است، اما shared serving يا rollout چندکاربره را نبايد با production-ready بودن يکي گرفت؛ مخصوصا روي Intel Mac.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یارمتن‌باز

مقايسه stackهاي serving و inference

وقتي open model انتخاب شده، سؤال بعدي فقط «کجا deploy کنيم؟» نيست؛ سؤال اين است که vLLM، TGI، endpoint managed يا cloud serving براي latency، throughput، ownership و migration path شما کدام trade-off را مي سازند.

متن و چتچندوجهیچت و دستیاراستدلال و تحلیل

کجا به کار می‌آید؟

platform teamها، infra ownerها و تيم هايي که از pilot گذشته اند و حالا بايد serving stack را بر اساس workload، hardware و on-call reality انتخاب کنند.

مسیر شروع

engine و platform selection

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • ابر مدیریت‌شده

محیط

Cloud managed • Container / Docker

نکته‌ی مهم: engine benchmark به تنهايي براي انتخاب stack کافي نيست؛ observability، upgrade path، batching behavior و incident ownership هم بخشي از تصميم هستند.

ورود به راهنما
OpenAIخانواده مدلاختصاصی

OpenAI Embeddings

اگر به embedding API ساده، پایدار و کم‌دردسر نیاز دارید، خانواده text-embedding-3 یکی از baselineهای حرفه‌ای بازار است.

Embedding / بردارسازیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG، semantic search، deduplication و هر جایی که می‌خواهید embedding به‌عنوان سرویس مدیریت شود.

مسیر شروع

API-only

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API

محیط

Linux • macOS

نکته‌ی مهم: مثل هر embedding API دیگر، هزینه در scale بالا باید با حجم سند، refresh index و dimension strategy سنجیده شود.

ورود به صفحه مرجع
Voyage AIخانواده مدلاختصاصی

Voyage Rerank

Voyage Rerank برای تیم‌هایی مهم است که retrieval stack آن‌ها embedding خوبی دارد اما برای precision نهایی و ranking enterprise-grade به یک مرحله reranking تمیز نیاز دارند.

Reranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG چندمرحله‌ای، search stack سازمانی، ranking مجدد روی top-k و تیم‌هایی که می‌خواهند answer quality را بدون ساخت مدل خودشان بهتر کنند.

مسیر شروع

API reranking layer

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: reranker جایگزین corpus hygiene، chunking درست یا ارزیابی retrieval نیست؛ فقط لایه دوم تصمیم است.

ورود به صفحه مرجع
Hugging Faceراهنمای استقراراختصاصی

Inference Endpoints در Hugging Face

Hugging Face Inference Endpoints برای تیم‌هایی مهم است که می‌خواهند مدل‌های Hub را با burden کمتر وارد production کنند، اما هنوز انتخاب engine، model و cost را با دقت نگه دارند.

متن و چتچندوجهیچت و دستیارجست‌وجوی معنایی

کجا به کار می‌آید؟

deployment managed برای مدل‌های Hub، endpoint اختصاصی برای text یا embedding و تیم‌هایی که زمان setup infra داخلی ندارند.

مسیر شروع

managed production path

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

ابر مدیریت‌شده

محیط

Cloud managed

نکته‌ی مهم: managed بودن به‌معنای حذف تصمیم‌های سخت نیست؛ هنوز باید engine، model، autoscaling، cost و observability را آگاهانه انتخاب کنید.

ورود به راهنما
Hooshgate Referenceمقایسه تصمیم‌یاروزن‌باز

مقایسه embedding و reranking

این comparison guide برای تیم‌هایی است که می‌خواهند retrieval stack را جدی انتخاب کنند: فقط embedding، embedding + reranker، یا managed retrieval API.

Embedding / بردارسازیReranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG system design، enterprise search selection و تیم‌هایی که retrieval quality برایشان KPI واقعی است.

مسیر شروع

self-host یا managed retrieval

پوشش صفحه

۴ کامل / ۱ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Container / Docker

نکته‌ی مهم: embedding leaderboards به‌تنهایی کافی نیستند؛ query set، chunking و corpus behavior تعیین‌کننده‌اند.

ورود به راهنما
FlagOpen / BAAIخانواده مدلمتن‌باز

خانواده BGE / FlagEmbedding

BGE برای تیم‌هایی مهم است که retrieval stack را کاملاً open و self-host می‌خواهند؛ از embedding تا reranker.

Embedding / بردارسازیReranking / بازرتبه‌بندیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG self-host، enterprise search داخل VPC و تیم‌هایی که می‌خواهند retrieval را تا لایه مدل کنترل کنند.

مسیر شروع

کاملاً self-host

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Linux • Container / Docker

نکته‌ی مهم: بدون دانش کافی در ارزیابی retrieval، open بودن به‌تنهایی مزیت عملیاتی نمی‌سازد.

ورود به صفحه مرجع
Hugging Face / ViDoReخانواده مدلوزن‌باز

ColQwen2

ColQwen2 برای تیم‌هایی مهم است که visual retrieval و document search را به‌صورت باز و self-hostable می‌خواهند، نه فقط OCR یا embedding متنی ساده.

چندوجهیEmbedding / بردارسازیتحلیل سندجست‌وجوی معنایی

کجا به کار می‌آید؟

PDF retrieval، visual search در اسناد پیچیده، pipelineهای RAG سندی و محیط‌هایی که می‌خواهند retrieval تصویر-محور را خودشان کنترل کنند.

مسیر شروع

self-host retrieval stack

پوشش صفحه

۵ کامل / ۵ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

Cloud managed

نکته‌ی مهم: اگر هنوز retrieval pipeline و eval سندی شما ساده است، ممکن است ColQwen2 زودتر از نیاز واقعی‌تان پیچیدگی وارد کند.

ورود به صفحه مرجع
LangChainراهنمای یکپارچه‌سازیمتن‌باز

راهنمای RAG با LangChain

این guide برای تیم‌هایی است که RAG را واقعاً implement می‌کنند و دنبال wiring بین retriever، prompt، model و evaluation هستند.

متن و چتEmbedding / بردارسازیRAG و دانش سازمانیجست‌وجوی معنایی

کجا به کار می‌آید؟

prototype تا implementation RAG، document pipeline، retrieval orchestration و تیم‌هایی که chain-level composition می‌خواهند.

مسیر شروع

orchestration-first

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

محیط محلی • استقرار روی زیرساخت خودتان

محیط

وابسته به stack انتخابی

نکته‌ی مهم: LangChain خودِ answer quality را تضمین نمی‌کند؛ retrieval quality، schema و evaluation هنوز مسئولیت تیم است.

ورود به راهنما
Googleخانواده مدلاختصاصی

Gemini Embedding

Gemini Embedding برای تیم‌هایی مناسب است که retrieval stack خود را روی Google ecosystem نگه می‌دارند.

Embedding / بردارسازیجست‌وجوی معناییRAG و دانش سازمانی

کجا به کار می‌آید؟

RAG، semantic retrieval و pipelineهایی که هم generation و هم embedding را در Google stack می‌خواهند.

مسیر شروع

API-only

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

API • ابر مدیریت‌شده

محیط

Linux • macOS

نکته‌ی مهم: اگر vendor-neutrality مهم است، abstraction layer لازم است.

ورود به صفحه مرجع
deepsetراهنمای یکپارچه‌سازیمتن‌باز

راهنمای RAG با Haystack

این guide Haystack را به‌عنوان implementation route برای search و RAG پوشش می‌دهد؛ مخصوص تیم‌هایی که pipelineهای retrieval را structured می‌خواهند.

متن و چتEmbedding / بردارسازیRAG و دانش سازمانیجست‌وجوی معنایی

کجا به کار می‌آید؟

pipelineهای retrieval، document-centric systems و تیم‌هایی که Haystack-style component model را ترجیح می‌دهند.

مسیر شروع

component-based RAG

پوشش صفحه

۵ کامل / ۴ خلاصه

راه‌اندازی

استقرار روی زیرساخت خودتان • API

محیط

وابسته به stack انتخابی

نکته‌ی مهم: Framework choice مسئله اصلی نیست؛ corpus quality، evaluation و answer rubric هنوز تعیین‌کننده‌اند.

ورود به راهنما