Artikel ini menyajikan studi ablasi yang mengkonfirmasi bahwa tingkat pembelajaran adaptif per langkah per lapisan sangat penting untuk kerangka kerja RECKONING.Artikel ini menyajikan studi ablasi yang mengkonfirmasi bahwa tingkat pembelajaran adaptif per langkah per lapisan sangat penting untuk kerangka kerja RECKONING.

Studi Ablasi Mengkonfirmasi Kebutuhan Tingkat Dinamis untuk Performa RECKONING

Abstrak dan 1. Pendahuluan

  1. Latar Belakang

  2. Metode

  3. Eksperimen

    4.1 Kinerja Penalaran Multi-hop

    4.2 Penalaran dengan Pengalih Perhatian

    4.3 Generalisasi ke Pengetahuan Dunia Nyata

    4.4 Analisis Waktu Eksekusi

    4.5 Menghafal Pengetahuan

  4. Karya Terkait

  5. Kesimpulan, Ucapan Terima Kasih, dan Referensi

\ A. Dataset

B. Penalaran Dalam Konteks dengan Pengalih Perhatian

C. Detail Implementasi

D. Tingkat Pembelajaran Adaptif

E. Eksperimen dengan Model Bahasa Besar

D Tingkat Pembelajaran Adaptif

Karya sebelumnya [3, 4] menunjukkan bahwa tingkat pembelajaran tetap yang dibagikan di seluruh langkah dan parameter tidak menguntungkan kinerja generalisasi sistem. Sebaliknya, [3] merekomendasikan mempelajari tingkat pembelajaran untuk

\ Tabel 8: Contoh penalaran 6-hop dari dataset CLUTRR-SG.

\ Tabel 9: Contoh pengalih perhatian (hitam) dan pengetahuan relevan (merah) dalam dataset ProofWriter.

\ setiap lapisan jaringan dan setiap langkah adaptasi dalam loop dalam. Parameter lapisan dapat belajar menyesuaikan tingkat pembelajaran secara dinamis pada setiap langkah. Untuk mengontrol tingkat pembelajaran α dalam loop dalam secara adaptif, kami mendefinisikan α sebagai sekumpulan variabel yang dapat disesuaikan: α = {α0, α1, …αL}, di mana L adalah jumlah lapisan dan untuk setiap l = 0, …, L, αl adalah vektor dengan N elemen yang diberikan jumlah langkah loop dalam N yang telah ditentukan sebelumnya. Persamaan pembaruan loop dalam kemudian menjadi

\

\

\ Apakah tingkat pembelajaran dinamis diperlukan untuk kinerja RECKONING? Mengikuti karya sebelumnya tentang meta-learning [3, 4], kami secara dinamis mempelajari serangkaian tingkat pembelajaran per-langkah-per-lapisan untuk RECKONING. Dalam studi ablasi ini, kami menganalisis apakah tingkat pembelajaran dinamis untuk loop dalam secara efektif meningkatkan kinerja penalaran loop luar. Demikian pula, kami menetapkan pengaturan eksperimental lainnya dan menetapkan jumlah langkah loop dalam menjadi 4. Seperti yang ditunjukkan Gambar 8, ketika menggunakan tingkat pembelajaran statis (yaitu, semua lapisan dan langkah loop dalam berbagi tingkat pembelajaran konstan), kinerja menurun dengan margin yang besar (penurunan rata-rata 34,2%). Penurunan kinerja menjadi lebih signifikan pada pertanyaan yang memerlukan lebih banyak hop penalaran (penurunan 45,5% untuk 4-hop dan 39,5% untuk 6-hop), menunjukkan pentingnya penggunaan tingkat pembelajaran dinamis dalam loop dalam kerangka kerja kami.

\ Gambar 8: Kami mempelajari seberapa besar tingkat pembelajaran dinamis dalam loop dalam berkontribusi pada kinerja loop luar. Kami menetapkan semua hyperparameter kecuali opsi menggunakan tingkat pembelajaran dinamis atau tetap. Kami melakukan analisis menggunakan dataset CLUTRR-SG karena lebih kompleks dan sulit (kinerja acak lebih rendah).

\

:::info Penulis:

(1) Zeming Chen, EPFL ([email protected]);

(2) Gail Weiss, EPFL ([email protected]);

(3) Eric Mitchell, Stanford University ([email protected])';

(4) Asli Celikyilmaz, Meta AI Research ([email protected]);

(5) Antoine Bosselut, EPFL ([email protected]).

:::


:::info Makalah ini tersedia di arxiv di bawah lisensi CC BY 4.0 DEED.

:::

\

Peluang Pasar
Logo Solayer
Harga Solayer(LAYER)
$0.1396
$0.1396$0.1396
-3.32%
USD
Grafik Harga Live Solayer (LAYER)
Penafian: Artikel yang diterbitkan ulang di situs web ini bersumber dari platform publik dan disediakan hanya sebagai informasi. Artikel tersebut belum tentu mencerminkan pandangan MEXC. Seluruh hak cipta tetap dimiliki oleh penulis aslinya. Jika Anda meyakini bahwa ada konten yang melanggar hak pihak ketiga, silakan hubungi [email protected] agar konten tersebut dihapus. MEXC tidak menjamin keakuratan, kelengkapan, atau keaktualan konten dan tidak bertanggung jawab atas tindakan apa pun yang dilakukan berdasarkan informasi yang diberikan. Konten tersebut bukan merupakan saran keuangan, hukum, atau profesional lainnya, juga tidak boleh dianggap sebagai rekomendasi atau dukungan oleh MEXC.