Ця стаття представляє новий метод дистиляції з урахуванням меж прийняття рішень для інкрементного навчання на рівні екземплярів, який не потребує доступу до старих даних.Ця стаття представляє новий метод дистиляції з урахуванням меж прийняття рішень для інкрементного навчання на рівні екземплярів, який не потребує доступу до старих даних.

Синтез медичних зображень: S-CycleGAN для RUSS та сегментації

2025/11/05 23:30

Анотація та 1 Вступ

  1. Пов'язані роботи

  2. Постановка проблеми

  3. Методологія

    4.1. Дистиляція з урахуванням меж прийняття рішень

    4.2. Консолідація знань

  4. Експериментальні результати та 5.1. Налаштування експерименту

    5.2. Порівняння з методами SOTA

    5.3. Дослідження абляції

  5. Висновок та майбутня робота та Посилання

    \

Додатковий матеріал

  1. Деталі теоретичного аналізу механізму KCEMA в IIL
  2. Огляд алгоритму
  3. Деталі набору даних
  4. Деталі реалізації
  5. Візуалізація запилених вхідних зображень
  6. Більше експериментальних результатів

4. Методологія

Як показано на рис. 2 (а), виникнення концептуального дрейфу в нових спостереженнях призводить до появи зовнішніх зразків, на яких існуюча модель не працює. Новий IIL повинен розширити межі прийняття рішень до цих зовнішніх зразків, а також уникнути катастрофічного забування (CF) на старій межі. Традиційні методи, засновані на дистиляції знань, покладаються на деякі збережені екземпляри [22] або допоміжні дані [33, 34] для протидії CF. Однак у запропонованому налаштуванні IIL ми не маємо доступу до будь-яких старих даних, окрім нових спостережень. Дистиляція на основі цих нових спостережень конфліктує з вивченням нових знань, якщо до моделі не додаються нові параметри. Щоб досягти балансу між навчанням і запобіганням забуванню, ми пропонуємо метод дистиляції з урахуванням меж прийняття рішень, який не потребує старих даних. Під час навчання нові знання, отримані учнем, періодично консолідуються назад до моделі вчителя, що забезпечує кращу генералізацію і є першою спробою в цій галузі.

\ Рисунок 3. Порівняння між (a) попереднім методом на основі дистиляції, який виконує висновки за допомогою моделі учня (S), та (b) запропонованою дистиляцією з урахуванням меж прийняття рішень (DBD) з консолідацією знань (KC). Ми використовуємо модель вчителя (T) для висновків.

\

:::info Автори:

(1) Цян Не, Гонконгський університет науки і технології (Гуанчжоу);

(2) Вейфу Фу, Лабораторія Tencent Youtu;

(3) Юхуань Лінь, Лабораторія Tencent Youtu;

(4) Цзялінь Лі, Лабораторія Tencent Youtu;

(5) Іфен Чжоу, Лабораторія Tencent Youtu;

(6) Юн Лю, Лабораторія Tencent Youtu;

(7) Цян Не, Гонконгський університет науки і технології (Гуанчжоу);

(8) Ченцзе Ван, Лабораторія Tencent Youtu.

:::


:::info Ця стаття доступна на arxiv за ліцензією CC BY-NC-ND 4.0 Deed (Attribution-Noncommercial-Noderivs 4.0 International).

:::

\

Відмова від відповідальності: статті, опубліковані на цьому сайті, взяті з відкритих джерел і надаються виключно для інформаційних цілей. Вони не обов'язково відображають погляди MEXC. Всі права залишаються за авторами оригінальних статей. Якщо ви вважаєте, що будь-який контент порушує права третіх осіб, будь ласка, зверніться за адресою [email protected] для його видалення. MEXC не дає жодних гарантій щодо точності, повноти або своєчасності вмісту і не несе відповідальності за будь-які дії, вчинені на основі наданої інформації. Вміст не є фінансовою, юридичною або іншою професійною порадою і не повинен розглядатися як рекомендація або схвалення з боку MEXC.

Вам також може сподобатися