Bagian ini mendefinisikan pengaturan masalah Instance-Incremental Learning (IIL) yang baru dan praktis yang berfokus pada promosi model hemat biaya dalam sistem yang digunakan.Bagian ini mendefinisikan pengaturan masalah Instance-Incremental Learning (IIL) yang baru dan praktis yang berfokus pada promosi model hemat biaya dalam sistem yang digunakan.

Pengaturan IIL Baru: Meningkatkan Model yang Diterapkan Hanya dengan Data Baru

2025/11/05 23:00

Abstrak dan 1 Pendahuluan

  1. Karya terkait

  2. Pengaturan masalah

  3. Metodologi

    4.1. Distilasi berbasis batas keputusan

    4.2. Konsolidasi pengetahuan

  4. Hasil eksperimen dan 5.1. Pengaturan Eksperimen

    5.2. Perbandingan dengan metode SOTA

    5.3. Studi ablasi

  5. Kesimpulan dan pekerjaan masa depan dan Referensi

    \

Materi Tambahan

  1. Detail analisis teoretis pada mekanisme KCEMA dalam IIL
  2. Ikhtisar algoritma
  3. Detail dataset
  4. Detail implementasi
  5. Visualisasi gambar input berdebu
  6. Hasil eksperimen lebih lanjut

3. Pengaturan masalah

Ilustrasi pengaturan IIL yang diusulkan ditunjukkan pada Gambar 1. Seperti yang dapat dilihat, data dihasilkan secara terus-menerus dan tidak terduga dalam aliran data. Umumnya dalam aplikasi nyata, orang cenderung mengumpulkan data yang cukup terlebih dahulu dan melatih model kuat M0 untuk penerapan. Tidak peduli seberapa kuat modelnya, model tersebut pasti akan menghadapi data di luar distribusi dan gagal menanganinya. Kasus-kasus yang gagal ini dan pengamatan baru dengan skor rendah lainnya akan dianotasi untuk melatih model dari waktu ke waktu. Melatih ulang model dengan semua data kumulatif setiap kali menyebabkan biaya waktu dan sumber daya yang semakin tinggi. Oleh karena itu, IIL baru bertujuan untuk meningkatkan model yang ada hanya dengan data baru setiap kali.

\

\ Gambar 2. Batas keputusan (DB): (a) DB yang dipelajari dari data lama dan data baru, masing-masing. Sehubungan dengan DB lama, data baru dapat dikategorikan menjadi sampel dalam dan sampel luar. (b) DB ideal dengan pelatihan bersama pada data lama dan data baru. (c) fine-tuning model pada data baru dengan label one-hot menderita CF. (d) pembelajaran dengan distilasi pada contoh prototipe menyebabkan overfitting pada contoh-contoh ini dan keruntuhan DB. (e) DB yang dicapai menggunakan distilasi berbasis batas keputusan (DBD) kami.

\

:::info Penulis:

(1) Qiang Nie, Universitas Sains dan Teknologi Hong Kong (Guangzhou);

(2) Weifu Fu, Tencent Youtu Lab;

(3) Yuhuan Lin, Tencent Youtu Lab;

(4) Jialin Li, Tencent Youtu Lab;

(5) Yifeng Zhou, Tencent Youtu Lab;

(6) Yong Liu, Tencent Youtu Lab;

(7) Qiang Nie, Universitas Sains dan Teknologi Hong Kong (Guangzhou);

(8) Chengjie Wang, Tencent Youtu Lab.

:::


:::info Makalah ini tersedia di arxiv di bawah lisensi CC BY-NC-ND 4.0 Deed (Attribution-Noncommercial-Noderivs 4.0 International).

:::

\

Penafian: Artikel yang diterbitkan ulang di situs web ini bersumber dari platform publik dan disediakan hanya sebagai informasi. Artikel tersebut belum tentu mencerminkan pandangan MEXC. Seluruh hak cipta tetap dimiliki oleh penulis aslinya. Jika Anda meyakini bahwa ada konten yang melanggar hak pihak ketiga, silakan hubungi [email protected] agar konten tersebut dihapus. MEXC tidak menjamin keakuratan, kelengkapan, atau keaktualan konten dan tidak bertanggung jawab atas tindakan apa pun yang dilakukan berdasarkan informasi yang diberikan. Konten tersebut bukan merupakan saran keuangan, hukum, atau profesional lainnya, juga tidak boleh dianggap sebagai rekomendasi atau dukungan oleh MEXC.

Anda Mungkin Juga Menyukai