هوش گیتهوش گیترسانه، شبکه و یادگیری AI
/ ⌘K
ورود
/ ⌘K
خانهشبکهیادگیریپروژه‌ها
هوش گیتهوش گیترسانه، شبکه و یادگیری AI
صفحه اصلیشبکهاخبارپژوهشابزارهایادگیریفضاها
/ ⌘K
ورود

دسترسی سریع

دسترسی سریع تحریریه

خبرها، موضوعات، حساب کاربری و تنظیمات مطالعه همیشه در سمت راست در دسترس‌اند.

حساب کاربری

ورود سریع به حساب و ابزارهای شخصی‌سازی

ورود

با حساب کاربری، اعلان‌ها، ذخیره‌سازی خبرها و سطح مطالعه شخصی را فعال می‌کنید.

صفحه اصلیشبکهاخبارپژوهشابزارهایادگیریفضاهاچهره‌های تخصصیسیاست‌گذاریامنیترویدادهافرصت‌های شغلیسرگرمیپروژه‌هاموضوعات
مرور موضوعات
همه
تم
درباره ماحریم خصوصیتماس با ما

مالکیت و پشتیبانی

شبکه هوشمند ابتکار ویستا

هوش‌گیت به‌عنوان رسانه و لایه دانشی این شرکت، با تمرکز بر خبر، یادگیری، همکاری حرفه‌ای و محصول‌های هوش مصنوعی توسعه داده می‌شود. تمامی حقوق مالکیت و کپی‌رایت این وب‌سایت متعلق به شبکه هوشمند ابتکار ویستا است.

این شرکت به‌صورت تخصصی در حوزه هوش مصنوعی، ساخت پلتفرم‌های AI، سامانه‌های مبتنی بر LLM، تحلیل داده، طراحی تجربه دانشی و توسعه زیرساخت‌های حرفه‌ای برای تیم‌های سازمانی فعالیت می‌کند.

مالکیت: شبکه هوشمند ابتکار ویستامدیرعامل: مسعود بخشی۰۹۱۲۴۷۳۳۲۳۴Devcodebase.dev@gmail.comHooshgate@gmail.comDevcodebase.com
v0.1.0 · 803f6a3a9758-dirty · 7DqbPhVeNl2xpNDI-o4tp · 2026-04-16T05:56:13.000Z/api/version
آخرین خبرهاآموزشپریمیومدرباره ماتماس با ماحریم خصوصیقوانین استفادهکوکی‌هاسیاست تحریریه
App shellguest mode
خانهشبکهیادگیریپروژه‌هااعلان‌هاورک‌اسپیس
  1. خانه
  2. /
  3. اخبار
  4. /
  5. فراموشی انتخابی برای مدل‌های استدلال بزرگ
arXiv (cs.AI)معتبر1405/01/18 04:00سیاست‌گذاری و حاکمیت

فراموشی انتخابی برای مدل‌های استدلال بزرگ

توانایی استدلال کلی LRMها را کاهش دهند. را حذف می‌کند و در عین حال قابلیت‌های استدلال کلی را حفظ می‌کند. استفاده می‌کند.

منبع: arXiv (cs.AI)

سیاست‌گذاری و حاکمیتایمنی و اخلاقپژوهش پیشرفته
نسخه مطالعهعمومی
منبعarXiv (cs.AI)
انتشار1405/01/18 04:00
سطح مطالعه
اشتراک در تلگراماشتراک در Xاشتراک در LinkedIn

share-ready · لینک کمپین آماده است

متن پیش‌نمایش telegram با ۴۶۹ کاراکتر ساخته شده است.

اگر این خبر برایتان مفید بود، حساب بسازید.

با حساب هوش‌گیت می‌توانید خبرها را ذخیره کنید، موضوع‌ها و چهره‌های تخصصی را دنبال کنید و مسیر یادگیری یا پروژه مناسب خودتان را سریع‌تر پیدا کنید.

ساخت حسابورود برای ذخیره و دنبال‌کردن
فراموشی انتخابی برای مدل‌های استدلال بزرگ

پیگیری گفتگو

بازگشت سریع به همین گفتگو

این گفت‌وگو را ذخیره کن، آن را دنبال کن و اگر لازم است یک یادداشت کوتاه برای بازگشت بعدی بگذار.

لایه انسانی

نویسنده انسانی، یادداشت کارشناس و شفافیت نویسندگی

این سطح مشخص می‌کند کجا انتشار با حضور انسان تقویت شده و کجا newsroom هوش مصنوعی هنوز نقش اصلی را دارد.

لایه newsroom با کمک هوش مصنوعیبدون author انسانی عمومیreview with confidence

این خبر فعلاً بیشتر در لایه newsroom و پوشش کمک‌گرفته از هوش مصنوعی قرار دارد و هنوز نویسنده انسانی مشخصی برای آن ثبت نشده است.

جانمایی امن برای اسپانسر

امتیاز جانمایی۷۰ / 100
یادداشت‌های انسانی۰
  • منبع در سطح trusted قرار دارد.
  • trust score منبع بالاست.

قدم بعدی

بعد از خواندن این خبر چه کار کنم؟

اگر این موضوع برایت مهم است، از همین‌جا آن را ذخیره کن، گفت‌وگو را دنبال کن یا به مسیر یادگیری، چهره تخصصی و پروژه مرتبط برو.

حفظ و پیگیری

این مقاله را برای بازگشت بعدی ذخیره کن یا گفت‌وگوی همین خبر را دنبال کن.

رفتن به گفت‌وگو

یادگیری و action بعدی

اگر می‌خواهی از خبر به فهم عمیق‌تر برسی، مسیرهای مرتبط زیر ساده‌ترین نقطه شروع‌اند.

رفتن به هاب یادگیریدیدن چهره تخصصی مرتبط

راهنمای مطالعه

منبع اصلی، تاریخ فارسی و شاخص‌های سریع این خبر.

رفتن به منبع
تاریخ فارسی1405/01/18 04:00
داستانمستقل

نکات کلیدی

این باکس براساس سطح مطالعه شما (عمومی) تنظیم شده است.

  • مدل‌های استدلال بزرگ (LRMs) زنجیره‌های فکری ساختاریافته (CoTs) را قبل از تولید پاسخ‌های نهایی ایجاد می‌کنند،.
  • و آنها را به‌ویژه در برابر نشت دانش از طریق مراحل استدلال میانی آسیب‌پذیر می‌کنند.
  • با این حال،.
  • حفظ اطلاعات حساس در داده‌های آموزشی مانند محتوای دارای حق چاپ و خصوصی منجر به نگرانی‌های.
  • اخلاقی و قانونی شده است.
  • برای پرداختن به این مسائل،.
  • فراموشی انتخابی (همچنین به‌عنوان یادگیری ماشینی شناخته می‌شود) به‌عنوان یک درمان بالقوه برای LRMها ظاهر شده.

فهرست مطالب

  1. TL;DR
  2. چه اتفاقی افتاد
  3. چرا مهم است
  4. منبع

سیگنال تعامل

بازدید۰
کلیک۰
امتیاز0.00
دیدگاه۰

TL;DR

  • چکیده:.
  • مدل‌های استدلال بزرگ (LRMs) زنجیره‌های فکری ساختاریافته (CoTs) را قبل از تولید پاسخ‌های نهایی ایجاد می‌کنند،.
  • و آنها را به‌ویژه در برابر نشت دانش از طریق مراحل استدلال میانی آسیب‌پذیر می‌کنند.

چه اتفاقی افتاد

چکیده:. مدل‌های استدلال بزرگ (LRMs) زنجیره‌های فکری ساختاریافته (CoTs) را قبل از تولید پاسخ‌های نهایی ایجاد می‌کنند،.

و آنها را به‌ویژه در برابر نشت دانش از طریق مراحل استدلال میانی آسیب‌پذیر می‌کنند. با این حال،.

حفظ اطلاعات حساس در داده‌های آموزشی مانند محتوای دارای حق چاپ و خصوصی منجر به نگرانی‌های. اخلاقی و قانونی شده است.

برای پرداختن به این مسائل،. فراموشی انتخابی (همچنین به‌عنوان یادگیری ماشینی شناخته می‌شود) به‌عنوان یک درمان بالقوه برای LRMها ظاهر شده.

است. با این حال،.

روش‌های غیریادگیری موجود،. در درجه اول پاسخ‌های نهایی را هدف قرار می‌دهند و ممکن است پس از فراموشی،.

توانایی استدلال کلی LRMها را کاهش دهند. علاوه بر این،.

استفاده مستقیم از یادگیری در کل CoTها می‌تواند قابلیت‌های استدلال عمومی‌را کاهش دهد. چالش کلیدی برای unLearning LRM در دستیابی به یادگیری دقیق از دانش هدفمند و در عین حال حفظ.

یکپارچگی عمومی‌نهفته است. قابلیت‌های استدلال برای پر کردن این شکاف،.

ما در این مقاله یک چارچوب جدید یادگیری LRM را پیشنهاد می‌کنیم که به‌طور انتخابی اجزای استدلال حساس. را حذف می‌کند و در عین حال قابلیت‌های استدلال کلی را حفظ می‌کند.

رویکرد ما از چندین LLM با تولید افزوده بازیابی (RAG) برای تجزیه و تحلیل ردیابی‌های CoT،. شناسایی بخش‌های مرتبط با فراموشی و جایگزینی آن‌ها با متغیرهایی خوش‌خیم که ساختار منطقی را حفظ می‌کنند،.

استفاده می‌کند. ما همچنین یک جایگزینی ویژگی جدید از دست دادن یادگیری را برای LRMها معرفی می‌کنیم،.

که می‌تواند همزمان احتمال تولید محتوای فراموش شده را سرکوب کند و در عین حال جایگزین‌های. معتبر ساختاری را تقویت کند.

آزمایش‌های گسترده بر روی مجموعه داده‌های مصنوعی و پزشکی، ویژگی‌های مورد نظر روش پیشنهادی ما را تأیید می‌کند. هوش مصنوعی (cs.

AI) استناد به‌عنوان: (یا v1 [cs. AI] برای این نسخه) https:.

// شده توسط arXiv از طریق DataCite (در انتظار ثبت نام) تاریخچه ارسال از:. Tuan Le [مشاهده ایمیل] [v1] شنبه،.

4 آوریل 2026،. 03:.

47:. 12 UTC (417 KB).

چرا مهم است

اهمیت این خبر در این است که روی استفاده واقعی از AI و تصمیم‌گیری سازمانی اثر می‌گذارد.

منبع

لینک منبع اصلی در کارت و صفحه مقاله نمایش داده می‌شود.

اعتبار

چرایی اعتماد به این خبر

امتیاز اعتبار، منطق اعتماد، وضعیت راستی‌آزمایی و لاگ تغییرات در یک نگاه.

اعتبار خبر۴۳ / 100
اعتبار منبع۱۳ / 100
اعتبار موضوع۱۰۰ / 100
تازگی۹۶ / 100
مرحله عمر خبرMAINTAINED
نیاز به به‌روزرسانیخیر
نیازمند تقویتنیازمند تقویتمرجع قویتازه و فعال

تصمیم انسانی تحریریه

خلاصه تصمیم تحریریه

سیگنال بازبینی باز استsecurity / policy review requiredنیاز بازبینی قابل مشاهده استlegal / policy escalation

این مقاله در مسیر security / policy review required قرار دارد و بخشی از سیگنال‌های review هنوز باید تکمیل یا شفاف‌تر شود.

دلیل انتشار: خبرهای امنیتی، رگولاتوری و اخلاقی به دلیل اثر عمومی و حساسیت claimها باید قبل از publish با بازبینی انسانی کامل عبور کنند. وضعیت فعلی: fact-check not_started و checklist ۰٪.

کلاس خبرSECURITY_POLICY
سخت‌گیری بازبینیSTRICT_REQUIRED
بازبینثبت عمومی نشده

موارد بازبینی که باید شفاف‌تر شوند

صحت و منبع اصلی تایید شدتیتر بازبینی و حرفه‌ای شدخلاصه برای کارت و SEO تایید شدبدنه از نظر خوانایی و ساختار بازبینی شدنسخه‌های سطح‌بندی‌شده بررسی شدبازخوانی نهایی انجام شد
سیاست تحریریه و اصلاحاتچرا به هوش‌گیت اعتماد کنیم؟

چرا این خبر قابل اعتماد است

    شفافیت راستی‌آزمایی ادعاها

    ادعای تاییدشده۰
    نیازمند بازبینی۰
    میانگین اطمینان۰٪

    چرا هنوز مهم است

    این خبر هنوز بازدید، کامنت یا follow-up کافی دارد و از چرخه توجه مخاطب خارج نشده است.

    تقویت اعتبار

    وجود follow-up و پوشش مرتبط، authority این خبر را در طول زمان تقویت می‌کند.

    بخش منابع و ارجاع‌ها

    لینک‌های منبع اصلی، ارجاع‌های ادعا و referenceهای مکمل برای پیگیری مستقیم.

    arxiv.orgمنبع اصلی

    arxiv.org/abs/2604.03571v1

    arxiv.orgارجاع تکمیلی

    arxiv.org/list/cs.AI/recent

    پوشش‌های پیگیری

    پیگیری‌های بعدی، توضیح‌دهنده‌های مرتبط یا خبرهای مکملی که عمر این موضوع را بعد از انتشار ادامه می‌دهند.

    فراتر از آزمون‌های ثابت: حل مسئله در سطح مخزن به‌عنوان تکامل همزمان کد و محدودیت‌های رفتاری

    پیگیری بعدی

    1405/01/25 07:18

    توصیف تجربی پایداری منطق تحت اختلالات کنترل شده برای تشخیص الگوی قابل توضیح

    پیگیری بعدی

    1405/01/25 07:18

    محک زدن مدل‌های گفتار چند زبانه در پشتو: ASR صفر شات، شکست اسکریپت و ارزیابی بین دامنه‌ای

    پیگیری بعدی

    1405/01/25 07:18

    FURINA: یک معیار نقش آفرینی کاملاً قابل تنظیم از طریق خط لوله همکاری چندعاملی مقیاس پذیر

    پیگیری بعدی

    1405/01/25 07:17

    تعامل کاربران و کیفیت خبر

    امتیاز بدهید، نظر ثبت کنید یا اگر خطایی دیدید گزارش اصلاح بفرستید. moderation، trust contributor و کیفیت thread به‌صورت شفاف نمایش داده می‌شود.

    بازدید

    ۰

    کلیک روی خبر

    ۰

    امتیاز میانگین

    0.00 / 5

    دیدگاه تایید شده

    ۰

    وضعیت trust گفتگو

    کیفیت thread براساس reputation contributorها، رأی‌ها و moderation سنجیده می‌شود.

    در حال بارگذاری

    امتیاز thread

    ۰ / 100

    دیدگاه متخصص

    ۰

    دیدگاه مفید

    ۰

    خروجی moderation و قوانین

    تاییدشده: ۰pending: ۰hidden/spam: ۰

      حضور انسانی در این گفتگو

      این بخش کمک می‌کند thread فقط حول personaها دیده نشود و contributorهای انسانی واقعی هم واضح باشند.

      contributor انسانی: ۰trusted: ۰expert: ۰
      هنوز contributor انسانی برجسته‌ای در این thread دیده نشده است.

      امتیاز شما به خبر

      هنوز امتیاز نداده‌اید.

      واکنش سریع به خبر

      به‌جای لایک کلی، نوع برداشت خودتان را مشخص کنید.

      ثبت دیدگاه

      دیدگاه‌های کم‌ارزش یا spam به‌صورت خودکار محدود می‌شوند و نتیجه moderation در همین صفحه قابل مشاهده است.

      گزارش اصلاح یا بهبود

      اگر claim، ترجمه، منبع یا framing خبر نیاز به اصلاح دارد، این مسیر مستقیم برای تیم تحریریه است.

      آخرین دیدگاه‌ها

      هنوز دیدگاهی ثبت نشده است.

      مقایسه سه سطح مطالعه

      برای همین خبر، نسخه ساده، عمومی و تخصصی کنار هم خلاصه شده‌اند.

      ساده

      ۲٬۱۰۵ کاراکتر

      توانایی استدلال کلی LRMها را کاهش دهند. حال قابلیت‌های استدلال کلی را حفظ می‌کند. استفاده می‌کند.

      • مدل‌های استدلال بزرگ (LRMs) زنجیره‌های فکری ساختاریافته (CoTs) را قبل از تولید.
      • پاسخ‌های نهایی ایجاد می‌کنند،.
      • و آنها را به‌ویژه در برابر نشت دانش از طریق مراحل استدلال.
      • میانی آسیب‌پذیر می‌کنند.

      عمومی

      ۲٬۱۷۶ کاراکتر

      توانایی استدلال کلی LRMها را کاهش دهند. را حذف می‌کند و در عین حال قابلیت‌های استدلال کلی را حفظ می‌کند. استفاده می‌کند.

      • مدل‌های استدلال بزرگ (LRMs) زنجیره‌های فکری ساختاریافته (CoTs) را قبل از تولید پاسخ‌های نهایی ایجاد می‌کنند،.
      • و آنها را به‌ویژه در برابر نشت دانش از طریق مراحل استدلال میانی آسیب‌پذیر می‌کنند.
      • با این حال،.
      • حفظ اطلاعات حساس در داده‌های آموزشی مانند محتوای دارای حق چاپ و خصوصی منجر به نگرانی‌های.

      تخصصی

      ۲٬۱۶۹ کاراکتر

      توانایی استدلال کلی LRMها را کاهش دهند. را حفظ می‌کند. استفاده می‌کند.

      • مدل‌های استدلال بزرگ (LRMs) زنجیره‌های فکری ساختاریافته (CoTs) را قبل از تولید پاسخ‌های نهایی ایجاد می‌کنند،.
      • و آنها را به‌ویژه در برابر نشت دانش از طریق مراحل استدلال میانی آسیب‌پذیر می‌کنند.
      • با این حال، حفظ اطلاعات حساس در داده‌های آموزشی مانند محتوای دارای حق چاپ و خصوصی منجر به نگرانی‌های اخلاقی...
      • برای پرداختن به این مسائل، فراموشی انتخابی (همچنین به‌عنوان یادگیری ماشینی شناخته می‌شود) به‌عنوان یک درمان...

      هایلایت‌ها و یادداشت‌ها

      متن دلخواه را در خبر انتخاب کنید و با یک کلیک هایلایت بزنید. فقط برای شما قابل مشاهده است.

      برای استفاده از هایلایت و یادداشت، وارد حساب کاربری شوید.

      منابع اولیه

      لینک‌های اصلی این خبر، شامل منبع اصلی و ارجاع‌های claim panel.

      • https://arxiv.org/abs/2604.03571v1
      • https://arxiv.org/list/cs.AI/recent

      کاوش این مقاله

      از این خبر به موضوع، persona، درس، پروژه و مسیر یادگیری مرتبط برسید.

      پرسش از هوش‌گیت

      موضوع‌های این مقاله

      سیاست‌گذاری و حاکمیتایمنی و اخلاقپژوهش پیشرفتهآموزش و یادگیری

      موجودیت‌های این مقاله

      هنوز موجودیت ثبت‌شده‌ای برای این مقاله دیده نمی‌شود.

      چهره‌های مرتبط

      آتنا رادمنش

      پژوهشگر مدل‌های زبانی با تمرکز روی یادگیری ماشین و داده و ترجمه خبرهای AI به تصمیم‌های واقعی، قابل‌فهم و اجرایی.

      یادگیری ماشین و داده · ۱ سیگنال

      آتنا فرهمند

      حقوقدان فناوری با تمرکز روی حقوق، سیاست‌گذاری و حکمرانی و ترجمه خبرهای AI به تصمیم‌های واقعی، قابل‌فهم و اجرایی.

      حقوق، سیاست‌گذاری و حکمرانی · ۱ سیگنال

      آتنا کاظمی

      طراح آموزشی AI با تمرکز روی آموزش، ادبیات و زبان و ترجمه خبرهای AI به تصمیم‌های واقعی، قابل‌فهم و اجرایی.

      آموزش، ادبیات و زبان · ۱ سیگنال

      آرزو آینده‌نگر

      معلم ادبیات و سواد رسانه‌ای با تمرکز روی آموزش، ادبیات و زبان و ترجمه خبرهای AI به تصمیم‌های واقعی، قابل‌فهم و اجرایی.

      آموزش، ادبیات و زبان · ۱ سیگنال

      آرزو سازه‌گر

      دانشمند داده کاربردی با تمرکز روی یادگیری ماشین و داده و ترجمه خبرهای AI به تصمیم‌های واقعی، قابل‌فهم و اجرایی.

      یادگیری ماشین و داده · ۱ سیگنال

      آرزو هاشمی

      مشاور حکمرانی داده با تمرکز روی حقوق، سیاست‌گذاری و حکمرانی و ترجمه خبرهای AI به تصمیم‌های واقعی، قابل‌فهم و اجرایی.

      حقوق، سیاست‌گذاری و حکمرانی · ۱ سیگنال

      درس‌های مرتبط

      هنوز درس مرتبطی برای این مقاله پیدا نشده است.

      پروژه‌های مرتبط

      هنوز پروژه مرتبطی برای این مقاله پیدا نشده است.

      مسیرهای یادگیری

      هنوز مسیر یادگیری نزدیکی برای این مقاله پیدا نشده است.

      پست‌های مرتبط نبض هوش

      چهره‌های تخصصی هوش‌گیت این خبر را از زاویه نقش و تخصص خودشان تحلیل کرده‌اند.

      رفتن به شبکه

      هنوز پست تخصصی برای این خبر منتشر نشده است.

      با انتشار یا backfill پست‌های شبکه، تحلیل‌های مرتبط اینجا نمایش داده می‌شوند.

      خبرهای مرتبط

      خبرهای نزدیک به همین موضوع برای ادامه مطالعه.

      فراتر از آزمون‌های ثابت: حل مسئله در سطح مخزن به‌عنوان تکامل همزمان کد و محدودیت‌های رفتاریarXiv (cs.SE)توصیف تجربی پایداری منطق تحت اختلالات کنترل شده برای تشخیص الگوی قابل توضیحarXiv (cs.AI)محک زدن مدل‌های گفتار چند زبانه در پشتو: ASR صفر شات، شکست اسکریپت و ارزیابی بین دامنه‌ایarXiv (cs.CL)FURINA: یک معیار نقش آفرینی کاملاً قابل تنظیم از طریق خط لوله همکاری چندعاملی مقیاس پذیرarXiv (cs.MA)

      بعدش چی بخونم؟

      پیشنهادها براساس موضوعات، موجودیت‌ها و سابقه مطالعه شما انتخاب می‌شوند.

      فراتر از آزمون‌های ثابت: حل مسئله در سطح مخزن به‌عنوان تکامل همزمان کد و محدودیت‌های رفتاریarXiv (cs.SE)طول تعمیر ثابت می‌کنند. به‌طور مکرر اصلاح می‌شوند. محدود می‌کنند.محک زدن مدل‌های گفتار چند زبانه در پشتو: ASR صفر شات، شکست اسکریپت و ارزیابی بین دامنه‌ایarXiv (cs.CL)COSMO-Agent: عامل تقویت شده با ابزار برای بهینه‌سازی حلقه بسته، شبیه‌سازی و مدل سازی ارکستراسیونarXiv (cs.GR)نظریه دوگانگی برای مدل‌های گاوسی خطی غیرمارکوینarXiv (cs.SY)ثبت می‌شود. (من) یک سیستم کنترل دوگانه برای مدل خطی گاوسی،. و کنترل (eess.Cortex AISQL: موتور SQL تولیدی برای داده‌های بدون ساختارarXiv (cs.DB)
      دسته‌های مرتبط:خبرپژوهشیادگیریامنیت
      برچسب‌ها:RAGLLM
      فهرست خبرها