هوش گیتهوش گیترسانه، شبکه و یادگیری AI
/ ⌘K
ورود
/ ⌘K
خانهشبکهیادگیریپروژه‌ها
هوش گیتهوش گیترسانه، شبکه و یادگیری AI
صفحه اصلیشبکهاخبارپژوهشابزارهایادگیریفضاها
/ ⌘K
ورود

دسترسی سریع

دسترسی سریع تحریریه

خبرها، موضوعات، حساب کاربری و تنظیمات مطالعه همیشه در سمت راست در دسترس‌اند.

حساب کاربری

ورود سریع به حساب و ابزارهای شخصی‌سازی

ورود

با حساب کاربری، اعلان‌ها، ذخیره‌سازی خبرها و سطح مطالعه شخصی را فعال می‌کنید.

صفحه اصلیشبکهاخبارپژوهشابزارهایادگیریفضاهاچهره‌های تخصصیسیاست‌گذاریامنیترویدادهافرصت‌های شغلیسرگرمیپروژه‌هاموضوعات
مرور موضوعات
همه
تم
درباره ماحریم خصوصیتماس با ما

مالکیت و پشتیبانی

شبکه هوشمند ابتکار ویستا

هوش‌گیت به‌عنوان رسانه و لایه دانشی این شرکت، با تمرکز بر خبر، یادگیری، همکاری حرفه‌ای و محصول‌های هوش مصنوعی توسعه داده می‌شود. تمامی حقوق مالکیت و کپی‌رایت این وب‌سایت متعلق به شبکه هوشمند ابتکار ویستا است.

این شرکت به‌صورت تخصصی در حوزه هوش مصنوعی، ساخت پلتفرم‌های AI، سامانه‌های مبتنی بر LLM، تحلیل داده، طراحی تجربه دانشی و توسعه زیرساخت‌های حرفه‌ای برای تیم‌های سازمانی فعالیت می‌کند.

مالکیت: شبکه هوشمند ابتکار ویستامدیرعامل: مسعود بخشی۰۹۱۲۴۷۳۳۲۳۴Devcodebase.dev@gmail.comHooshgate@gmail.comDevcodebase.com
v0.1.0 · dev · unset/api/version
آخرین خبرهاآموزشپریمیومدرباره ماتماس با ماحریم خصوصیقوانین استفادهکوکی‌هاسیاست تحریریه
خانهشبکهیادگیریپروژه‌هاپروفایل
  1. خانه
  2. /
  3. اخبار
  4. /
  5. توهم چه زمانی ایجاد می شود؟ دیدگاه نموداری در مورد تکامل استفاده مجدد از مسیر و فشرده سازی مسیر
arXiv (cs.AI)معتبر1405/01/18 04:00پژوهش پیشرفته

توهم چه زمانی ایجاد می شود؟ دیدگاه نموداری در مورد تکامل استفاده مجدد از مسیر و فشرده سازی مسیر

دارند. arXiv:. 2604.03557 [cs.AI] (یا arXiv:.

منبع: arXiv (cs.AI)

پژوهش پیشرفتهآموزش و یادگیری
نسخه مطالعهعمومی
منبعarXiv (cs.AI)
انتشار1405/01/18 04:00
سطح مطالعه
اشتراک در تلگرام
توهم چه زمانی ایجاد می شود؟ دیدگاه نموداری در مورد تکامل استفاده مجدد از مسیر و فشرده سازی مسیر

راهنمای مطالعه

منبع اصلی، تاریخ فارسی و شاخص‌های سریع این خبر.

رفتن به منبع
تاریخ فارسی1405/01/18 04:00
داستانمستقل

نکات کلیدی

این باکس براساس سطح مطالعه شما (عمومی) تنظیم شده است.

  • (تجربی) .
  • توهمات استدلالی در مدل های زبانی بزرگ (LLM) اغلب به عنوان نتیجه گیری های روان و در عین حال پشتیبانی نشده ظاهر می شوند.
  • که یا زمینه داده شده یا دانش واقعی را نقض می کنند.
  • اگرچه چنین خرابی هایی به طور گسترده مشاهده می شود،.
  • مکانیسم هایی که توسط آن ترانسفورماتورهای تنها رسیور آنها را تولید می کنند هنوز به خوبی شناخته نشده.
  • ما پیش بینی نشانه بعدی را به عنوان یک فرآیند جستجوی نمودار بر روی یک نمودار زیربنایی مدل سازی می کنیم،.
  • جایی که موجودیت ها با گره ها مطابقت دارند و انتقال های آموخته شده از لبه ها.
  • از این منظر،.

فهرست مطالب

  1. TL;DR
  2. چه اتفاقی افتاد
  3. چرا مهم است
  4. منبع

سیگنال تعامل

بازدید۰
کلیک۰
امتیاز0.00
دیدگاه۰

TL;DR

  • مشاهده PDF HTML (تجربی) چکیده:.
  • توهمات استدلالی در مدل‌های زبانی بزرگ (LLM) اغلب به‌عنوان نتیجه‌گیری‌های روان و در عین حال پشتیبانی‌نشده ظاهر می‌شوند.
  • که یا زمینه داده شده یا دانش واقعی را نقض می‌کنند.

چه اتفاقی افتاد

مشاهده PDF HTML (تجربی) چکیده:. توهمات استدلالی در مدل‌های زبانی بزرگ (LLM) اغلب به‌عنوان نتیجه‌گیری‌های روان و در عین حال پشتیبانی‌نشده ظاهر می‌شوند.

که یا زمینه داده شده یا دانش واقعی را نقض می‌کنند. اگرچه چنین خرابی هایی به طور گسترده مشاهده می شود،.

مکانیسم هایی که توسط آن ترانسفورماتورهای تنها رسیور آنها را تولید می کنند هنوز به خوبی شناخته نشده. است.

ما پیش‌بینی نشانه بعدی را به‌عنوان یک فرآیند جستجوی نمودار بر روی یک نمودار زیربنایی مدل‌سازی می‌کنیم،. جایی که موجودیت‌ها با گره‌ها مطابقت دارند و انتقال‌های آموخته‌شده از لبه‌ها.

از این منظر،. استدلال زمینه ای یک جستجوی محدود بر روی یک زیرگراف نمونه (استدلال درونی) است،.

در حالی که پرس و جوهای بدون زمینه بر ساختارهای حفظ شده در نمودار زیربنایی (استدلال بیرونی) تکیه. دارند.

ما نشان می‌دهیم که توهمات استدلالی از دو مکانیسم اساسی ناشی می‌شوند:. \textbf{استفاده مجدد از مسیر}،.

که در آن دانش حفظ‌شده محدودیت‌های زمینه‌ای را در مراحل اولیه لغو می‌کند. آموزش،.

و \textbf{فشرده‌سازی مسیر}،. که در آن مسیرهای چند مرحله‌ای که اغلب پیموده شده‌اند در آموزش‌های بعدی به لبه‌های میانبر فرو می‌روند.

این مکانیسم‌ها با هم،. توضیحی یکپارچه برای توهمات استدلالی در LLMها و مرتبط با رفتارهای شناخته شده مشاهده شده در برنامه‌های پایین.

دستی ارائه می‌دهند. موضوعات:.

هوش مصنوعی (cs.AI) استناد به عنوان:. arXiv:.

2604.03557 [cs.AI] (یا arXiv:. 2604.03557v1 [cs.AI] برای این نسخه) https:.

//doi.org/10.48550/arXiv.2604.03557 DOI صادر شده توسط arXiv از طریق DataCite (در انتظار ثبت نام) تاریخچه ارسال از:. Xinnan Dai [مشاهده ایمیل] [v1] شنبه،.

4 آوریل 2026،. 02:.

51:. 46 UTC (4,.

689 KB).

چرا مهم است

اهمیت این خبر در این است که روی استفاده واقعی از AI و تصمیم‌گیری سازمانی اثر می‌گذارد.

منبع

لینک منبع اصلی در کارت و صفحه مقاله نمایش داده می‌شود.

تعامل کاربران و کیفیت خبر

امتیاز بدهید، نظر ثبت کنید یا اگر خطایی دیدید گزارش اصلاح بفرستید.

بازدید

۰

کلیک روی خبر

۰

امتیاز میانگین

0.00 / 5

دیدگاه تایید شده

۰

امتیاز شما به خبر

هنوز امتیاز نداده‌اید.

واکنش سریع به خبر

به‌جای لایک کلی، نوع برداشت خودتان را مشخص کنید.

ثبت دیدگاه

گزارش اصلاح یا بهبود

آخرین دیدگاه‌ها

هنوز دیدگاهی ثبت نشده است.

مقایسه سه سطح مطالعه

برای همین خبر، نسخه ساده، عمومی و تخصصی کنار هم خلاصه شده‌اند.

ساده

۱٬۸۹۵ کاراکتر

شده مشاهده شده در برنامه‌های پایین دستی ارائه می‌دهند. arXiv:. 2604.03557 [cs.AI] (یا arXiv:.

  • (تجربی) .
  • توهمات استدلالی در مدل های زبانی بزرگ (LLM) اغلب به عنوان نتیجه گیری های روان و.
  • در عین حال پشتیبانی نشده ظاهر می شوند که یا زمینه داده شده یا.
  • دانش واقعی را نقض می کنند.

عمومی

۱٬۹۱۴ کاراکتر

دارند. arXiv:. 2604.03557 [cs.AI] (یا arXiv:.

  • (تجربی) .
  • توهمات استدلالی در مدل های زبانی بزرگ (LLM) اغلب به عنوان نتیجه گیری های روان و در عین حال پشتیبانی نشده ظا...
  • که یا زمینه داده شده یا دانش واقعی را نقض می کنند.
  • اگرچه چنین خرابی هایی به طور گسترده مشاهده می شود،.

تخصصی

۱٬۹۰۸ کاراکتر

مشاهده PDF HTML (تجربی) چکیده:. arXiv:. 2604.03557 [cs.AI] (یا arXiv:.

  • (تجربی) .
  • توهمات استدلالی در مدل های زبانی بزرگ (LLM) اغلب به عنوان نتیجه گیری های روان و در عین حال پشتیبانی نشده ظا...
  • می کنند.
  • اگرچه چنین خرابی هایی به طور گسترده مشاهده می شود،.

هایلایت‌ها و یادداشت‌ها

متن دلخواه را در خبر انتخاب کنید و با یک کلیک هایلایت بزنید. فقط برای شما قابل مشاهده است.

برای استفاده از هایلایت و یادداشت، وارد حساب کاربری شوید.

منابع اولیه

لینک‌های اصلی این خبر، شامل منبع اصلی و ارجاع‌های claim panel.

  • https://arxiv.org/abs/2604.03557v1
  • https://arxiv.org/list/cs.AI/recent

پست‌های مرتبط نبض هوش

چهره‌های تخصصی Hooshgate این خبر را از زاویه نقش و تخصص خودشان تحلیل کرده‌اند.

رفتن به شبکه

هنوز پست تخصصی برای این خبر منتشر نشده است.

با انتشار یا backfill پست‌های شبکه، تحلیل‌های مرتبط اینجا نمایش داده می‌شوند.

خبرهای مرتبط

خبرهای نزدیک به همین موضوع برای ادامه مطالعه.

رویدادهای آیندهNIST AIهوش مصنوعی متا EUPE را منتشر کرد: خانواده رمزگذار دید فشرده با پارامترهای 100 میلیونی که با مدل‌های تخصصی در درک تصویر، پیش‌بینی متراکم و وظایف VLM رقابت می‌کند.MarkTechPostبازسازی تصویر سری زمانی مبتنی بر Vision Transformer برای برنامه‌های پرکننده ابرarXiv (eess.IV)خانواده ای از مدل های پایه سری زمانی باز برای شبکه دسترسی رادیوییarXiv (cs.NI)

بعدش چی بخونم؟

پیشنهادها براساس موضوعات، موجودیت‌ها و سابقه مطالعه شما انتخاب می‌شوند.

وقتی پاداش‌های تطبیقی ​​صدمه می‌زنند: بررسی علّی و معضل تغییر-پایداری در برنامه‌ریزی ماهواره‌ای LEO با هدایت LLMarXiv (cs.AI)وزن های پاداش تقریباً ثابت (342.1 مگابیت در ثانیه) از وزن های دینامیکی که با دقت تنظیم شده اند (103.3+/-96.8 مگابیت. در ثانیه) به...رویدادهای آیندهNIST AI7 آوریل 2026،. 13 آوریل - سه،. (2023) و Technische هوش مصنوعی برای علم مواد (AIMS) 2026 سه شنبه،.هوش مصنوعی متا EUPE را منتشر کرد: خانواده رمزگذار دید فشرده با پارامترهای 100 میلیونی که با مدل‌های تخصصی در درک تصویر، پیش‌بینی متراکم و وظایف VLM رقابت می‌کند.MarkTechPostRADIOv2.5-B،. نوع مقیاس ViT-B،. EUPE-ViT-B انسجام معنایی،.بازسازی تصویر سری زمانی مبتنی بر Vision Transformer برای برنامه‌های پرکننده ابرarXiv (eess.IV)بازسازی تصویر MSI سری زمانی با استفاده از Vision Transformer (ViT)،. غیرسری زمانی یا MSI سری زمانی بدون SAR استفاده می کنند،. 250...خانواده ای از مدل های پایه سری زمانی باز برای شبکه دسترسی رادیوییarXiv (cs.NI)TimeRAN را معرفی می کنیم،. arXiv:. 2604.04271 [cs.NI] (یا arXiv:.
دسته‌های مرتبط:خبرپژوهشیادگیریسرگرمی
برچسب‌ها:NLPLLM
فهرست خبرها