TL;DR
- مشاهده PDF HTML (تجربی) چکیده:.
- توهمات استدلالی در مدلهای زبانی بزرگ (LLM) اغلب بهعنوان نتیجهگیریهای روان و در عین حال پشتیبانینشده ظاهر میشوند.
- که یا زمینه داده شده یا دانش واقعی را نقض میکنند.
چه اتفاقی افتاد
مشاهده PDF HTML (تجربی) چکیده:. توهمات استدلالی در مدلهای زبانی بزرگ (LLM) اغلب بهعنوان نتیجهگیریهای روان و در عین حال پشتیبانینشده ظاهر میشوند.
که یا زمینه داده شده یا دانش واقعی را نقض میکنند. اگرچه چنین خرابی هایی به طور گسترده مشاهده می شود،.
مکانیسم هایی که توسط آن ترانسفورماتورهای تنها رسیور آنها را تولید می کنند هنوز به خوبی شناخته نشده. است.
ما پیشبینی نشانه بعدی را بهعنوان یک فرآیند جستجوی نمودار بر روی یک نمودار زیربنایی مدلسازی میکنیم،. جایی که موجودیتها با گرهها مطابقت دارند و انتقالهای آموختهشده از لبهها.
از این منظر،. استدلال زمینه ای یک جستجوی محدود بر روی یک زیرگراف نمونه (استدلال درونی) است،.
در حالی که پرس و جوهای بدون زمینه بر ساختارهای حفظ شده در نمودار زیربنایی (استدلال بیرونی) تکیه. دارند.
ما نشان میدهیم که توهمات استدلالی از دو مکانیسم اساسی ناشی میشوند:. \textbf{استفاده مجدد از مسیر}،.
که در آن دانش حفظشده محدودیتهای زمینهای را در مراحل اولیه لغو میکند. آموزش،.
و \textbf{فشردهسازی مسیر}،. که در آن مسیرهای چند مرحلهای که اغلب پیموده شدهاند در آموزشهای بعدی به لبههای میانبر فرو میروند.
این مکانیسمها با هم،. توضیحی یکپارچه برای توهمات استدلالی در LLMها و مرتبط با رفتارهای شناخته شده مشاهده شده در برنامههای پایین.
دستی ارائه میدهند. موضوعات:.
هوش مصنوعی (cs.AI) استناد به عنوان:. arXiv:.
2604.03557 [cs.AI] (یا arXiv:. 2604.03557v1 [cs.AI] برای این نسخه) https:.
//doi.org/10.48550/arXiv.2604.03557 DOI صادر شده توسط arXiv از طریق DataCite (در انتظار ثبت نام) تاریخچه ارسال از:. Xinnan Dai [مشاهده ایمیل] [v1] شنبه،.
4 آوریل 2026،. 02:.
51:. 46 UTC (4,.
689 KB).
چرا مهم است
اهمیت این خبر در این است که روی استفاده واقعی از AI و تصمیمگیری سازمانی اثر میگذارد.
منبع
لینک منبع اصلی در کارت و صفحه مقاله نمایش داده میشود.
