Kecerdasan Buatan tidak lagi terbatas pada back office. Dari chatbot yang menangani pertanyaan kompleks hingga robo-adviser yang menghasilkan ringkasan portofolio, AI semakin berfungsi sebagai saluran utama untuk mengomunikasikan informasi keuangan. Meskipun pergeseran ini menghadirkan efisiensi dan skala, hal ini mengurangi "sentuhan manusia" dalam menjelaskan risiko, seorang penasihat manusia dapat mengukur keraguan klien dan menawarkan panduan yang bernuansa yang sering kali diabaikan oleh antarmuka AI yang dioptimalkan untuk kecepatan dan kejelasan.
Dalam konteks Afrika Selatan, ini menciptakan paradoks. Pengungkapan berbasis AI menjanjikan untuk mendemokratisasi akses ke informasi keuangan, namun memperkenalkan risiko yang tidak transparan yang mengancam keadilan, perlindungan konsumen, dan stabilitas sistemik. Saat kita mengintegrasikan teknologi ini, inovasi tidak boleh mengorbankan perlindungan pelanggan.
Dasar regulasi: POPIA, TCF, dan tata kelola
Kerangka regulasi Afrika Selatan memberikan fondasi yang kuat untuk mengelola risiko AI, meskipun tidak dirancang dengan mempertimbangkan pembelajaran mesin.
Protection of Personal Information Act (POPIA) berlaku secara langsung. Model AI keuangan bergantung pada dataset yang luas, riwayat kredit, data demografis dan perilaku, dan pemrosesan harus tetap sah, transparan, dan konsisten dengan tujuan awal pengumpulan. Yang penting, Pasal 71 memberikan hak kepada pelanggan untuk menantang keputusan yang dibuat semata-mata melalui proses otomatis di mana keputusan tersebut membawa konsekuensi hukum. Karena penilaian kredit otomatis dan underwriting menjadi standar, lembaga harus memastikan jalur yang jelas bagi pelanggan untuk meminta peninjauan manusia.
AI dapat meningkatkan hasil Treating Customers Fairly (TCF) dengan memastikan penerapan pemeriksaan keterjangkauan yang konsisten. Namun, jika model dilatih pada data yang bias secara historis, model tersebut dapat menghasilkan hasil yang diskriminatif, melanggar prinsip perlakuan adil TCF. Sifat "kotak hitam" dari pembelajaran mendalam semakin memperumit Hasil 3 (informasi yang jelas) dan Hasil 4 (nasihat yang sesuai), jika lembaga tidak dapat menjelaskan bagaimana hasil dicapai, pengungkapan yang bermakna menjadi sulit.
King V on Corporate Governance (Oktober 2025) memperkuat kewajiban ini: Prinsip 10 memperjelas bahwa dewan harus terlibat dengan konsekuensi etis, hukum, dan strategis dari pengambilan keputusan otomatis. AI bukan hanya masalah TI.
Keadilan, transparansi, dan perlindungan
Model AI yang dilatih pada data historis Afrika Selatan berisiko mereproduksi ketidaksetaraan sosial-ekonomi yang mengakar. Bahkan ketika karakteristik yang dilindungi seperti ras dikecualikan, variabel proxy, kode pos, tingkat pendidikan, pola pekerjaan, dapat menghasilkan hasil diskriminatif yang secara fungsional serupa, membatasi akses ke kredit atau asuransi berdasarkan faktor sistemik daripada merit individu.
Transparansi harus dikalibrasi secara bermakna. Pengungkapan harus melampaui penafian sederhana: konsumen berhak mendapatkan penjelasan yang jelas tentang bagaimana AI mempengaruhi hasil yang memengaruhi mereka, bersama dengan informasi tentang hak mereka untuk pemulihan. Bagi regulator, fokusnya bergeser ke tata kelola dan interpretabilitas, bukti bahwa suatu entitas memahami logika model dan pengamanan yang ada.
AI generatif memperkenalkan risiko tambahan "halusinasi", output yang masuk akal tetapi faktanya tidak benar. Sistem AI yang dioptimalkan untuk konversi prospek dapat secara tidak sengaja mendorong pelanggan ke arah produk berisiko tinggi dengan meremehkan peringatan risiko. Filter output harus melarang AI memotong pengungkapan risiko wajib.
Menjaga stabilitas sistem keuangan
Analis memantau layar data. Freepik
Di luar interaksi individual, AI memengaruhi stabilitas sistemik yang lebih luas. AI membantu regulator memindai dataset yang luas secara instan untuk mendeteksi penipuan atau insolvensi, bertindak sebagai sistem peringatan dini yang lebih cepat daripada analisis manusia saja. AI juga dapat menerjemahkan jargon keuangan yang kompleks ke dalam bahasa yang dapat diakses, mengurangi tingkat default dengan meningkatkan pemahaman konsumen.
Namun, ketergantungan berlebihan pada sejumlah kecil model bahasa besar (LLM) menciptakan risiko konsentrasi: beberapa lembaga mungkin menafsirkan sinyal pasar secara identik dan merespons secara bersamaan, memperburuk volatilitas atau memicu flash crash. Kesalahan yang dihasilkan AI dalam pengungkapan publik besar dapat menyebar secara instan, memicu respons perdagangan otomatis sebelum manusia dapat memperbaiki catatan. Satu bug dalam model penilaian kredit yang banyak digunakan dapat secara bersamaan memengaruhi jutaan pelanggan di berbagai bank.
Pertimbangan untuk lembaga keuangan Afrika Selatan
Saat lembaga beralih dari eksperimen AI ke penerapan skala penuh, kerangka tata kelola harus berkembang. Protokol Human-in-the-Loop (HITL) harus mencakup:
AI adalah alat, bukan manusia. Di Afrika Selatan, di mana inklusi keuangan dan perlindungan pelanggan adalah yang terpenting, AI harus memperjelas lanskap keuangan, bukan mengaburkannya. Dengan mendasarkan penerapan pada prinsip POPIA, TCF, dan King V, serta menanamkan tata kelola yang kuat dan pengawasan manusia, lembaga keuangan dapat memanfaatkan potensi AI tanpa mengorbankan keadilan atau stabilitas. Jika digunakan dengan benar, AI tidak menggantikan peran manusia, tetapi meningkatkannya, memungkinkan para profesional untuk fokus pada penilaian, konteks, dan akuntabilitas yang tidak dapat direplikasi oleh mesin.
Kerangka tata kelola untuk penerapan AI keuangan yang bertanggung jawab
* Financial Sector Conduct Authority (FSCA) mengatur dan mengawasi perilaku pasar lembaga keuangan di Afrika Selatan. Kunjungi www.fsca.co.za.


