هوش گیتهوش گیترسانه، شبکه و یادگیری AI
/ ⌘K
ورود
/ ⌘K
خانهشبکهیادگیریپروژه‌ها
هوش گیتهوش گیترسانه، شبکه و یادگیری AI
صفحه اصلیشبکهاخبارپژوهشابزارهایادگیریفضاها
/ ⌘K
ورود

دسترسی سریع

دسترسی سریع تحریریه

خبرها، موضوعات، حساب کاربری و تنظیمات مطالعه همیشه در سمت راست در دسترس‌اند.

حساب کاربری

ورود سریع به حساب و ابزارهای شخصی‌سازی

ورود

با حساب کاربری، اعلان‌ها، ذخیره‌سازی خبرها و سطح مطالعه شخصی را فعال می‌کنید.

صفحه اصلیشبکهاخبارپژوهشابزارهایادگیریفضاهاچهره‌های تخصصیسیاست‌گذاریامنیترویدادهافرصت‌های شغلیسرگرمیپروژه‌هاموضوعات
مرور موضوعات
همه
تم
درباره ماحریم خصوصیتماس با ما

مالکیت و پشتیبانی

شبکه هوشمند ابتکار ویستا

هوش‌گیت به‌عنوان رسانه و لایه دانشی این شرکت، با تمرکز بر خبر، یادگیری، همکاری حرفه‌ای و محصول‌های هوش مصنوعی توسعه داده می‌شود. تمامی حقوق مالکیت و کپی‌رایت این وب‌سایت متعلق به شبکه هوشمند ابتکار ویستا است.

این شرکت به‌صورت تخصصی در حوزه هوش مصنوعی، ساخت پلتفرم‌های AI، سامانه‌های مبتنی بر LLM، تحلیل داده، طراحی تجربه دانشی و توسعه زیرساخت‌های حرفه‌ای برای تیم‌های سازمانی فعالیت می‌کند.

مالکیت: شبکه هوشمند ابتکار ویستامدیرعامل: مسعود بخشی۰۹۱۲۴۷۳۳۲۳۴Devcodebase.dev@gmail.comHooshgate@gmail.comDevcodebase.com
v0.1.0 · dev · unset/api/version
آخرین خبرهاآموزشپریمیومدرباره ماتماس با ماحریم خصوصیقوانین استفادهکوکی‌هاسیاست تحریریه
خانهشبکهیادگیریپروژه‌هاپروفایل
  1. خانه
  2. /
  3. اخبار
  4. /
  5. تنظیم دقیق بیزی متغیر مقیاس پذیر LLM از طریق آداپتورهای متعامد با رتبه پایین
arXiv (stat.ML)معتبر1405/01/18 04:00زیرساخت و محاسبات

تنظیم دقیق بیزی متغیر مقیاس پذیر LLM از طریق آداپتورهای متعامد با رتبه پایین

بر اساس این مدل PoLAR-BLL،. arXiv:. 2604.03388 [cs.LG] (یا arXiv:.

منبع: arXiv (stat.ML)

زیرساخت و محاسباتایمنی و اخلاقپژوهش پیشرفته
نسخه مطالعهعمومی
منبعarXiv (stat.ML)
انتشار1405/01/18 04:00
سطح مطالعه
اشتراک در تلگرام
تنظیم دقیق بیزی متغیر مقیاس پذیر LLM از طریق آداپتورهای متعامد با رتبه پایین

راهنمای مطالعه

منبع اصلی، تاریخ فارسی و شاخص‌های سریع این خبر.

رفتن به منبع
تاریخ فارسی1405/01/18 04:00
داستانمستقل

نکات کلیدی

این باکس براساس سطح مطالعه شما (عمومی) تنظیم شده است.

  • (تجربی) .
  • هنگام استقرار مدل های زبان بزرگ (LLM) برای برنامه های کاربردی حیاتی،.
  • تعیین کمیت عدم قطعیت (UQ) برای ارزیابی قابلیت اطمینان تصمیمات مبتنی بر LLM از اهمیت بالایی برخوردار است.
  • با این حال،.
  • چنین تصمیماتی معمولاً از اعتماد بیش از حد رنج می برند،.
  • به ویژه پس از تنظیم دقیق پارامتر کارآمد (PEFT) برای وظایف خاص دامنه پایین دستی با داده های.
  • روش های موجود برای کاهش این مشکل یا به چارچوب پس تکنیک مبتنی بر تقریب لاپلاس متکی هستند،.

فهرست مطالب

  1. TL;DR
  2. چه اتفاقی افتاد
  3. چرا مهم است
  4. منبع

سیگنال تعامل

بازدید۰
کلیک۰
امتیاز0.00
دیدگاه۰

TL;DR

  • مشاهده PDF HTML (تجربی) چکیده:.
  • هنگام استقرار مدل‌های زبان بزرگ (LLM) برای برنامه‌های کاربردی حیاتی،.
  • تعیین کمیت عدم قطعیت (UQ) برای ارزیابی قابلیت اطمینان تصمیمات مبتنی بر LLM از اهمیت بالایی برخوردار است.

چه اتفاقی افتاد

مشاهده PDF HTML (تجربی) چکیده:. هنگام استقرار مدل‌های زبان بزرگ (LLM) برای برنامه‌های کاربردی حیاتی،.

تعیین کمیت عدم قطعیت (UQ) برای ارزیابی قابلیت اطمینان تصمیمات مبتنی بر LLM از اهمیت بالایی برخوردار است. با این حال،.

چنین تصمیماتی معمولاً از اعتماد بیش از حد رنج می برند،. به ویژه پس از تنظیم دقیق پارامتر کارآمد (PEFT) برای وظایف خاص دامنه پایین دستی با داده های.

محدود. روش‌های موجود برای کاهش این مشکل یا به چارچوب پس‌تکنیک مبتنی بر تقریب لاپلاس متکی هستند،.

که ممکن است بسته به مسیر آموزشی کالیبراسیون پایین‌تر از بهینه را به همراه داشته باشد،. یا آموزش بیزی متغیری که نیاز به چندین گذر کامل رو به جلو از کل ستون فقرات LLM.

در زمان استنتاج برای تخمین مونت کارلو دارد،. که چالش‌های مقیاس‌پذیری را برای استقرار ایجاد می‌کند.

برای پرداختن به این محدودیت‌ها،. ما بر اساس مدل آخرین لایه بیزی (BLL) می‌سازیم که در آن مدل مبتنی بر LLM استخراج کننده.

ویژگی قطعی با پارامترهای تصادفی لایه آخر برای استدلال عدم قطعیت دنبال می شود. از آنجایی که آداپتورهای رده پایین (LoRA) موجود برای PEFT به دلیل فروپاشی رتبه،.

بیان محدودی دارند،. ما این موضوع را با نمایش آداپتور کم رتبه تجزیه شده قطبی (PoLAR)،.

یک پارامتر متعامد همراه با بهینه‌سازی ریمانی برای فعال کردن سازگاری پایدارتر و گویاتر بررسی می‌کنیم. بر اساس این مدل PoLAR-BLL،.

ما از چارچوب استنتاج متغیر (V) برای ارائه یک رویکرد تنظیم دقیق بیزی مقیاس‌پذیر استفاده می‌کنیم که به. طور مشترک به دنبال پارامترهای PoLAR و تقریبی پارامترهای لایه آخر از طریق بهینه‌سازی متناوب است.

PoLAR-VBLL به دست آمده یک چارچوب انعطاف‌پذیر است که به‌خوبی بهینه‌سازی معماری پیشرفته را با استنتاج بیزی مقیاس‌پذیر. ادغام می‌کند تا به LLM‌ها با UQ کالیبره‌شده خوبی ارائه دهد.

نتایج تجربی ما اثربخشی را تأیید می کند PoLAR-VBLL از نظر تعمیم و برآورد عدم قطعیت در هر. دو داده در توزیع و خارج از توزیع برای وظایف مختلف استدلال عقل سلیم.

موضوعات:. یادگیری ماشین (cs.LG)؛

یادگیری ماشینی (stat.ML) استناد به عنوان:. arXiv:.

2604.03388 [cs.LG] (یا arXiv:. 2604.03388v1 [cs.LG] برای این نسخه) https:.

//doi.org/10.48550/arXiv.2604.03388 DOI صادر شده توسط arXiv از طریق DataCite تاریخچه ارسال از:. Haotian Xiang [مشاهده ایمیل] [v1] جمعه،.

3 آوریل 2026،. 18:.

42:. 04 UTC (356 KB).

چرا مهم است

اهمیت این خبر در این است که روی استفاده واقعی از AI و تصمیم‌گیری سازمانی اثر می‌گذارد.

منبع

لینک منبع اصلی در کارت و صفحه مقاله نمایش داده می‌شود.

تعامل کاربران و کیفیت خبر

امتیاز بدهید، نظر ثبت کنید یا اگر خطایی دیدید گزارش اصلاح بفرستید.

بازدید

۰

کلیک روی خبر

۰

امتیاز میانگین

0.00 / 5

دیدگاه تایید شده

۰

امتیاز شما به خبر

هنوز امتیاز نداده‌اید.

واکنش سریع به خبر

به‌جای لایک کلی، نوع برداشت خودتان را مشخص کنید.

ثبت دیدگاه

گزارش اصلاح یا بهبود

آخرین دیدگاه‌ها

هنوز دیدگاهی ثبت نشده است.

مقایسه سه سطح مطالعه

برای همین خبر، نسخه ساده، عمومی و تخصصی کنار هم خلاصه شده‌اند.

ساده

۲٬۴۵۹ کاراکتر

(PoLAR)،. بر اساس این مدل PoLAR-BLL،. 2604.03388 [cs.LG] (یا arXiv:.

  • (تجربی) .
  • هنگام استقرار مدل های زبان بزرگ (LLM) برای برنامه های کاربردی حیاتی،.
  • تعیین کمیت عدم قطعیت (UQ) برای ارزیابی قابلیت اطمینان تصمیمات مبتنی بر.
  • LLM از اهمیت بالایی برخوردار است.

عمومی

۲٬۴۸۰ کاراکتر

بر اساس این مدل PoLAR-BLL،. arXiv:. 2604.03388 [cs.LG] (یا arXiv:.

  • (تجربی) .
  • هنگام استقرار مدل های زبان بزرگ (LLM) برای برنامه های کاربردی حیاتی،.
  • تعیین کمیت عدم قطعیت (UQ) برای ارزیابی قابلیت اطمینان تصمیمات مبتنی بر LLM از اهمیت بالایی برخوردار است.
  • با این حال،.

تخصصی

۲٬۴۷۸ کاراکتر

بر اساس این مدل PoLAR-BLL،. arXiv:. 2604.03388 [cs.LG] (یا arXiv:.

  • (تجربی) .
  • هنگام استقرار مدل های زبان بزرگ (LLM) برای برنامه های کاربردی حیاتی،.
  • تعیین کمیت عدم قطعیت (UQ) برای ارزیابی قابلیت اطمینان تصمیمات مبتنی بر LLM از اهمیت بالایی برخوردار است.
  • با این حال،.

هایلایت‌ها و یادداشت‌ها

متن دلخواه را در خبر انتخاب کنید و با یک کلیک هایلایت بزنید. فقط برای شما قابل مشاهده است.

برای استفاده از هایلایت و یادداشت، وارد حساب کاربری شوید.

منابع اولیه

لینک‌های اصلی این خبر، شامل منبع اصلی و ارجاع‌های claim panel.

  • https://arxiv.org/abs/2604.03388v1
  • https://arxiv.org/list/stat.ML/recent

پست‌های مرتبط نبض هوش

چهره‌های تخصصی Hooshgate این خبر را از زاویه نقش و تخصص خودشان تحلیل کرده‌اند.

رفتن به شبکه

هنوز پست تخصصی برای این خبر منتشر نشده است.

با انتشار یا backfill پست‌های شبکه، تحلیل‌های مرتبط اینجا نمایش داده می‌شوند.

خبرهای مرتبط

خبرهای نزدیک به همین موضوع برای ادامه مطالعه.

رویدادهای آیندهNIST AIهوش مصنوعی متا EUPE را منتشر کرد: خانواده رمزگذار دید فشرده با پارامترهای 100 میلیونی که با مدل‌های تخصصی در درک تصویر، پیش‌بینی متراکم و وظایف VLM رقابت می‌کند.MarkTechPostوقتی سینک ها کمک می کنند یا آسیب می رسانند: چارچوب یکپارچه برای کاهش توجه در مدل های بزرگ بینایی-زبانarXiv (cs.CV)مطالعه سیستماتیک حملات تایپوگرافی متقابل وجهی بر استدلال سمعی و بصریarXiv (cs.SD)

بعدش چی بخونم؟

پیشنهادها براساس موضوعات، موجودیت‌ها و سابقه مطالعه شما انتخاب می‌شوند.

تجزیه و تحلیل جامع عملکرد Uplink سلولی در استقرار استادیوم متراکمarXiv (cs.NI)افت انتشار ذاتی باندهای فرکانس بالا،. حتی در شبکه های بدون بار محدود می کند. در حالی که باندهای TDD با فرکانس بالا،.CoLoRSMamba: مامبای مشروط LoRA برای تشخیص خشونت چندوجهی نظارت شدهarXiv (cs.SD)CLS جفت می کند. تراز می کند. 2604.03329 [cs.CV] (یا arXiv:.الگوریتم شتاب‌دار میون برای مدل‌های خطی تعمیم یافته تانسور با رتبه جدایی پایینarXiv (stat.ML)طریق پیش بینی های مکرر مبتنی بر QR اعمال می کند. کند. 2604.04726 [stat.ML] (یا arXiv:.وقتی پاداش‌های تطبیقی ​​صدمه می‌زنند: بررسی علّی و معضل تغییر-پایداری در برنامه‌ریزی ماهواره‌ای LEO با هدایت LLMarXiv (cs.AI)وزن های پاداش تقریباً ثابت (342.1 مگابیت در ثانیه) از وزن های دینامیکی که با دقت تنظیم شده اند (103.3+/-96.8 مگابیت. در ثانیه) به...استنتاج LLM مشارکتی کارآمد در ارتباط با شبکه های ماهواره ای LEOarXiv (cs.DC)میانی همپوشانی می کند و در نتیجه تاخیر استنتاج LLM را کاهش می دهد. چند مرحله ای با حفظ دقت استنتاج. داخلی و دقت استنتاج فرموله می...
دسته‌های مرتبط:خبرپژوهشیادگیریامنیت
برچسب‌ها:LLMNLPRAGMLOps
فهرست خبرها