Googleخانواده مدلوزن‌بازبازبینی: 2026-04-22

خانواده Gemma

Gemma برای تیم‌هایی مناسب است که مدل باز و سبک‌تر می‌خواهند، اما همچنان می‌خواهند از lineage و tooling گوگل بهره ببرند.

بهترین کاربرد

edge و local AI، prototypeهای self-host و تیم‌هایی که مدل بازتر اما manageable می‌خواهند.

مسیر اجرا

local / edge friendly

ملاحظه مهم

Gemma family variantهای متنوعی دارد؛ باید بین core، code و multimodal فرق بگذارید.

دسترسی سریع

لایسنس

Gemma open model terms

پیچیدگی

سبک‌تر و منعطف

تسک‌ها

چت و دستیار • استدلال و تحلیل • کدنویسی

مودالیته‌ها

متن و چت • چندوجهی

پوشش واقعی

این صفحه چه packهایی را واقعاً پوشش می‌دهد؟

مرور مدل

کامل

این صفحه باید اول به‌عنوان مرجع شناخت، fit و boundary تصمیم‌گیری قابل اتکا باشد.

آموزش عملی

کامل

سناریوی شروع و مسیر استفاده اولیه روی همین صفحه آمده است.

نصب و راه‌اندازی

خلاصه روی همین صفحه

روی family page فقط مسیرهای recommended و trade-offها آمده تا browse و selection تمیز بماند.

serving و runtime

خلاصه روی همین صفحه

این pack در سطح family/reference خلاصه شده تا انتخاب مسیر اجرا سریع‌تر شود.

پیاده‌سازی

خلاصه روی همین صفحه

روی family page فقط patternها و بلوک‌های معماری اصلی برای انتخاب سریع آمده است.

سازگارسازی

خلاصه روی همین صفحه

روی family page فقط fit و caveatهای tuning گفته می‌شود؛ playbook عمیق باید جداگانه دنبال شود.

استقرار

خلاصه روی همین صفحه

روی family/reference page فقط deployment fit، cost و caveatهای اصلی آمده است.

مقایسه

کامل

این صفحه باید به تصمیم‌گیری بین گزینه‌ها کمک کند، نه صرفاً معرفی.

ارزیابی

کامل

بدون eval و quality gate این hub نباید overclaim کند؛ بنابراین checklist ارزیابی روی صفحه آمده است.

منابع رسمی

کامل

منابع رسمی و مسیر مطالعه بیشتر باید روی هر صفحه کامل و شفاف باشد.

مرور مدل

این مدل چیست و کجا می‌درخشد؟

Gemma را باید گزینه‌ای سبک‌تر و community-friendly‌تر نسبت به خانواده‌های خیلی بزرگ open-weight دانست.

برای prototype، edge deployment و تیم‌هایی که می‌خواهند مسیر self-host را با مدل‌های manageable شروع کنند، Gemma ارزش بررسی دارد.

در Hooshgate، Gemma را برای تیم‌هایی توصیه می‌کنیم که به‌دنبال تعادل بین openness، هزینه و portability هستند.

نقاط قوت

  • سایزهای متنوع و مناسب برای local / edge
  • variantهای تخصصی مثل CodeGemma و PaliGemma
  • برای شروع مسیر open modelها کم‌اصطکاک‌تر است

محدودیت‌ها

  • برای heavy-duty enterprise throughput همیشه گزینه اول نیست
  • quality به size model خیلی وابسته است

تفاوت کلیدی

سه نکته‌ای که این خانواده را از گزینه‌های هم‌رده جدا می‌کند.

نکته 1

در برابر Llama/Qwen، برای edge و entry-level self-host گاهی ساده‌تر است.

نکته 2

در برابر proprietaryها، autonomy بالاتر اما raw capability کمتر در tierهای کوچک‌تر دارد.

برای چه مناسب است

  • edge و local AI، prototypeهای self-host و تیم‌هایی که مدل بازتر اما manageable می‌خواهند.
  • وقتی local/edge deployment مهم است
  • وقتی می‌خواهید با open models سبک‌تر شروع کنید

برای چه مناسب نیست

  • Gemma family variantهای متنوعی دارد؛ باید بین core، code و multimodal فرق بگذارید.
  • وقتی نیاز به tier خیلی قوی enterprise دارید

آموزش عملی

شروع عملی با Gemma

ساخت prototype محلی برای دستیار تیمی کوچک

مرحله 1

variant مناسب با سخت‌افزار خود را انتخاب کنید.

مرحله 2

از workload کوچک شروع کنید: FAQ، خلاصه‌سازی یا extraction ساده.

مرحله 3

اگر domain خاص دارید، LoRA سبک را امتحان کنید.

مرحله 4

وقتی quality کافی شد، سراغ serving رسمی‌تر بروید.

نمونه ورودی

خلاصه‌سازی یادداشت جلسه و استخراج action itemها.

خروجی مورد انتظار

خلاصه کوتاه، action items و ownerهای پیشنهادی.

خطاهای رایج

اشتباه‌هایی که معمولاً باعث می‌شوند pilot یا implementation شکست بخورد.

نکته 1

مدل کوچک را برای task خیلی پیچیده انتخاب نکنید.

مسیر عملی

setup، runtime، integration و deployment در این family

مسیرهای setup

  • pilot محلی: discovery، prompt testing و single-user evaluation
  • self-host عملیاتی: data residency، volume پایدار، customization یا economics قابل‌پیش‌بینی

انتخاب runtime و serving path

  • local run: pilot محلی، prompt workshop و team evaluation
  • self-host: data residency، workload پایدار، custom serving و optimization اقتصادی در scale

مسیرهای integration

  • backend integration: اکثر appها و workflowهای جدی که باید provider/runtime را پشت backend پنهان کنند
  • RAG / document integration: دانش سازمانی، policy assistant و workflowهای سندمحور
  • enterprise workflow: محصولات چندتیمی، taskهای حساس و rollout مرحله‌ای

یادداشت deployment

  • local runtime
  • small GPU server
  • در taskهای پیچیده، ظرفیت مدل‌های کوچک را بیش از حد فرض نکنید
  • quality per size را واقع‌گرایانه بسنجید
  • مزیت Gemma در این است که می‌توانید با هزینه کمتر مسیر self-host یا edge را تجربه کنید.

production و ریسک

  • offline eval و success criteria
  • staging با tracing و feature flag
  • artifact trust، network policy و access control را قبل از launch روشن کنید.
  • مدل کوچک را برای task خیلی پیچیده انتخاب نکنید.
  • Gemma family variantهای متنوعی دارد؛ باید بین core، code و multimodal فرق بگذارید.

guideهای مکمل برای عمق بیشتر

روی family page فقط decision layer آمده است. برای playbook عمیق‌تر یکی از مسیرهای زیر را باز کنید.

سازگارسازی

Fine-tuning

وضعیت پشتیبانی

LoRA و adaptation سبک روی variantهای مناسب

مسیرهای پیشنهادی

  • LoRA
  • instruction tuning سبک
  • task-specific prompt templates

یادداشت‌های عملیاتی

  • برای تیم‌های کوچک، tuning سبک معمولاً از migration به مدل بزرگ‌تر به‌صرفه‌تر است.

مقایسه

چه زمانی Gemma مناسب است؟

وقتی این مدل انتخاب خوبی است

  • وقتی local/edge deployment مهم است
  • وقتی می‌خواهید با open models سبک‌تر شروع کنید

وقتی باید سراغ گزینه دیگر رفت

  • وقتی نیاز به tier خیلی قوی enterprise دارید

نقشه تصمیم

اگر هنوز بین این خانواده و گزینه‌های رقیب مردد هستید، از این trade-off path شروع کنید.

بلوک 1

edge و local AI، prototypeهای self-host و تیم‌هایی که مدل بازتر اما manageable می‌خواهند.

بلوک 2

local / edge friendly

بلوک 3

Gemma family variantهای متنوعی دارد؛ باید بین core، code و multimodal فرق بگذارید.

Llama

چه زمانی خانواده Gemma بهتر است

برای مسیر سبک‌تر و edge-friendly، Gemma جالب‌تر است.

چه زمانی گزینه مقابل بهتر است

برای ecosystem بزرگ‌تر و ظرفیت بالاتر، Llama مناسب‌تر است.

Phi

چه زمانی خانواده Gemma بهتر است

اگر می‌خواهید از اکوسیستم گوگل و variantهای vision/code هم بهره ببرید.

چه زمانی گزینه مقابل بهتر است

برای بعضی سناریوهای very-small model و Windows-centric deployment، Phi مناسب‌تر است.

ارزیابی

Checklist ارزیابی

مرحله 1

quality را نسبت به size model بسنجید

مرحله 2

memory و latency را روی دستگاه هدف ثبت کنید

مرحله 3

edge use-case را با expectations واقعی ارزیابی کنید

منابع رسمی

منابع رسمی و مسیر مطالعه بیشتر