Zach Anderson
27 Feb 2026 16:58
Integrasi baru menggabungkan pemrosesan terdistribusi Ray Data dengan parsing dokumen Docling untuk memproses 10 ribu+ file kompleks untuk aplikasi RAG dalam hitungan jam, bukan hari.
Tim perusahaan yang membangun aplikasi AI baru saja mendapatkan solusi untuk hambatan paling membuat frustrasi mereka. Anyscale telah merinci bagaimana menggabungkan Ray Data dengan Docling dapat mengubah pemrosesan dokumen berminggu-minggu menjadi berjam-jam—sebuah perkembangan yang dapat mempercepat timeline penerapan bagi perusahaan yang memiliki arsip dokumen masif.
Integrasi teknis ini mengatasi apa yang disebut orang dalam sebagai "hambatan data" dalam sistem Retrieval-Augmented Generation. Meskipun demo membuat AI generatif terlihat mudah, kenyataannya melibatkan bergulat dengan ribuan PDF lama, tabel kompleks, dan gambar tertanam yang ditangani dengan buruk oleh alat pemrosesan tradisional.
Apa yang Benar-Benar Berubah
Mesin eksekusi streaming Ray Data menyalurkan data melalui tugas CPU dan GPU secara bersamaan. Arsitektur Python-native menghilangkan overhead serialisasi yang mengganggu framework lain saat menerjemahkan data antar lingkungan bahasa. Untuk tim yang menjalankan inferensi batch atau preprocessing dataset masif, ini berarti siklus iterasi lebih cepat.
Docling menangani kompleksitas parsing yang merusak sebagian besar alat tradisional—mengekstrak tabel dan tata letak secara akurat sambil mempertahankan struktur semantik. Ketika diintegrasikan dengan Ray Data, setiap node pekerja menjalankan instance Docling dengan model AI tertanam di memori, memungkinkan pemrosesan dokumen paralel dalam skala besar.
Arsitekturnya bekerja seperti ini: Ray Data Driver mengelola eksekusi dan menserialisasi kode tugas untuk distribusi. Pekerja membaca blok data langsung dari penyimpanan dan menulis file JSON yang telah diproses ke tujuan. Driver tidak pernah menjadi hambatan karena tidak menangani throughput data yang sebenarnya.
Fondasi Kubernetes
KubeRay mengorkestrasikan kluster Ray di Kubernetes, menangani autoscaling dinamis dari 10 hingga 100 node secara transparan. Sistem ini mencakup pemulihan otomatis ketika node pekerja gagal—sangat penting untuk pekerjaan injesti besar yang tidak mampu untuk dimulai ulang dari awal.
Alur end-to-end memindahkan dokumen dari penyimpanan objek melalui parsing dan chunking, menghasilkan embedding pada node GPU, dan menulis ke database vektor seperti Milvus. Aplikasi RAG kemudian melakukan query database untuk memberikan konteks ke LLM.
Perusahaan termasuk Pinterest, DoorDash, dan Instacart sudah menggunakan Ray Data untuk pemrosesan last-mile dan pelatihan model, menunjukkan teknologi ini telah terbukti viabilitas produksinya.
Melampaui Pencarian Sederhana
Permainan yang lebih luas di sini menargetkan alur kerja AI agentic di mana agen otonom menjalankan tugas multi-langkah. Kualitas data yang diproses menjadi lebih kritis karena agen mengandalkan dokumentasi yang tepat untuk bertindak atas nama pengguna. Organisasi yang membangun arsitektur terukur sekarang memposisikan diri mereka untuk rantai inferensi lanjutan dengan beberapa panggilan LLM berurutan.
Platform Red Hat OpenShift AI dan Anyscale menyediakan opsi penerapan dengan persyaratan tata kelola perusahaan. Fondasi open-source berarti tim dapat mulai menguji tanpa hambatan pengadaan besar.
Untuk tim AI yang saat ini menghabiskan lebih banyak waktu untuk persiapan data daripada penyetelan model, integrasi ini menawarkan jalur praktis ke depan. Pertanyaannya bukan apakah pemrosesan dokumen terdistribusi itu penting—melainkan apakah infrastruktur Anda dapat menangani apa yang akan datang.
Sumber gambar: Shutterstock
Sumber: https://blockchain.news/news/ray-data-docling-enterprise-ai-document-processing


