Minggu ini, Securonix memperkenalkan Sam, AI SOC Analyst, dan Agentic Mesh bekerja sama dengan Amazon Web Services. Berita utamanya bukanlah fitur AI lainnya. Ini adalah pergeseran ke Model AI Berbasis Produktivitas.
Pernahkah Anda melihat tim SOC Anda tenggelam dalam peringatan sementara dewan direksi menanyakan "ROI AI yang jelas"?
Bayangkan ini.
Pukul 8:45 pagi. CISO bergabung dalam pra-briefing dewan. Peringatan semalam mencapai 40.000. Dua analis izin sakit. Regulator meminta bukti tata kelola AI. Bagian Keuangan menginginkan justifikasi untuk peningkatan pengeluaran SIEM.
Tim menggunakan AI. Tetapi mereka tidak dapat membuktikan apa yang sebenarnya dihasilkannya.
Inilah kesenjangan yang menjadi target Securonix dengan peluncuran terbarunya bekerja sama dengan Amazon Web Services. Perusahaan memperkenalkan Sam, AI SOC Analyst, dan Securonix Agentic Mesh—bersama dengan model AI berbasis produktivitas untuk operasi keamanan.
Bagi pemimpin CX dan EX, ini bukan hanya berita keamanan siber. Ini adalah cetak biru untuk AI yang diatur dalam skala besar.
Model AI berbasis produktivitas mengukur AI berdasarkan pekerjaan yang diselesaikan, bukan berdasarkan penggunaan atau data yang dikonsumsi.
Sebagian besar penetapan harga AI perusahaan melacak token, penyimpanan, atau fitur. Model tersebut memberi penghargaan pada konsumsi. Jarang membuktikan hasil.
Securonix membalikkan logika ini.
Sam dilisensikan berdasarkan pekerjaan setara analis terverifikasi yang diselesaikan oleh AI. Produktivitas dilacak secara transparan. Pemimpin dapat mengukur jam yang dihemat dan throughput yang diperoleh.
Bagi pemimpin CX dan EX, ini membingkai ulang nilai AI:
Pergeseran ini mencerminkan apa yang dihadapi pemimpin CX dengan journey AI dan copilot. Dewan tidak menginginkan statistik penggunaan chatbot. Dewan menginginkan tingkat pengalihan, pengurangan waktu resolusi, dan peningkatan cost-to-serve.
Keamanan kini berbicara dalam bahasa yang sama.
Sam adalah rekan tim SOC digital yang diatur dan selalu aktif yang mengotomatiskan pekerjaan Tier 1 dan Tier 2 di dalam Unified Defense SIEM.
Sam melakukan:
Ini beroperasi secara native di dalam platform Securonix. Analis tetap memegang kendali melalui pengawasan human-in-the-loop.
Banyak copilot AI membantu. Sedikit yang beroperasi sebagai sistem kerja terstruktur. Sam mengorkestrasi agen AI khusus di seluruh langkah investigasi. Ini menyajikan ringkasan bahasa sederhana yang dapat divalidasi atau dieskalasi oleh analis.
Hasilnya: AI meningkatkan penilaian. Ini tidak menggantinya.
Karena sebagian besar penerapan AI berkembang lebih cepat daripada kerangka kontrol.
Pemimpin keamanan menghadapi tiga ketegangan:
Dewan kini mengajukan pertanyaan yang lebih sulit:
AI yang tidak terstruktur tidak dapat menjawab ini.
Di situlah Securonix Agentic Mesh masuk.
Agentic Mesh adalah lapisan orkestrasi yang diatur yang mengoordinasikan agen AI khusus di seluruh deteksi, investigasi, respons, dan pelaporan.
Tidak seperti asisten monolitik, Agentic Mesh berfungsi sebagai sistem kerja.
Ini:
Dibangun menggunakan Amazon Bedrock AgentCore, ini berjalan dengan aman di dalam lingkungan pelanggan. Itu menyediakan isolasi dan ketahanan tingkat perusahaan.
Copilot menjawab pertanyaan.
Sistem agentic menyelesaikan alur kerja yang diatur.
Perbedaan itu mengubah kematangan AI perusahaan.
Pemimpin keamanan semakin beroperasi di bawah pengawasan dewan. AI harus membuktikan kepercayaan, bukan menjanjikannya.
Menurut Sameer Ratolikar, CISO di HDFC Bank:
Simon Hunt, Chief Product Officer di Securonix, membingkai tantangan dengan jelas:
Untuk percakapan dewan, AI berbasis produktivitas memungkinkan:
DPM Flex merutekan telemetri berdasarkan nilai analitis daripada volume mentah untuk mengontrol biaya SIEM.
Produktivitas AI runtuh jika biaya data melonjak.
Data Pipeline Manager with Flex Consumption (DPM Flex) memperkenalkan ekonomi data yang didorong oleh hasil. Alih-alih menyerap semuanya, ini memprioritaskan telemetri bernilai tinggi.
Untuk paralel CX:
Tata kelola biaya adalah bagian dari tata kelola AI.
1. Ukur AI berdasarkan pekerjaan yang diselesaikan.
Metrik adopsi berarti sedikit tanpa metrik output.
2. Tanamkan tata kelola di dalam sistem.
Kepatuhan retroaktif rapuh.
3. Lindungi pengawasan manusia.
AI berkembang paling baik ketika meningkatkan penilaian.
4. Selaraskan AI dengan narasi keuangan.
Dewan menyetujui hasil, bukan eksperimen.
5. Kontrol ekonomi data sejak awal.
Menskalakan AI tanpa disiplin biaya menciptakan reaksi balik.
Kesalahan ini menciptakan fragmentasi. Mereka mengikis kepercayaan eksekutif.
CXQuest mengusulkan Model PRODUCT untuk penskalaan AI perusahaan:
P – Productivity Units Defined
Tentukan setara pekerjaan yang terukur.
R – Risk Guardrails Embedded
Tegakkan kebijakan di dalam alur kerja.
O – Oversight Maintained
Pertahankan manusia dalam kendali eskalasi.
D – Data Economics Managed
Selaraskan penyerapan dengan nilai analitis.
U – Use Case Boundaries Clear
Mulai dengan pekerjaan volume tinggi yang ditentukan.
C – Context Shared Across Agents
Hindari asisten AI yang terisolasi.
T – Transparent Reporting to Leadership
Terjemahkan output ke dalam bahasa keuangan.
Securonix mengoperasionalkan banyak prinsip ini di dalam operasi keamanan. Tim CX dapat menyesuaikan struktur yang sama.
Kelelahan analis mencerminkan kelelahan pusat kontak.
Pekerjaan triase berulang mendorong atrisi.
Kurangnya visibilitas terhadap dampak mengurangi keterlibatan.
Dengan menyerap kebisingan Tier 1 dan Tier 2, Sam memungkinkan analis untuk fokus pada panggilan penilaian berisiko lebih tinggi.
AI harus menghilangkan pekerjaan membosankan, bukan otonomi.
Keamanan sering memelopori kerangka tata kelola sebelum CX mengadopsinya.
Perpindahan menuju orkestrasi AI agentic menunjukkan fase AI perusahaan berikutnya akan fokus pada:
Dewan akan semakin bertanya:
Berapa banyak pekerjaan yang diselesaikan AI?
Apakah itu terkontrol?
Bisakah kita membelanya?
Model ini menjawab pertanyaan tersebut secara langsung.
Ini mengikat biaya pada pekerjaan terverifikasi yang diselesaikan daripada penggunaan data atau fitur.
Ini mengacu pada sistem AI yang mengoordinasikan agen khusus untuk menyelesaikan alur kerja terstruktur.
Analis meninjau, memvalidasi, atau membalikkan tindakan yang dihasilkan AI sebelum eksekusi.
Kegagalan keamanan membawa risiko regulasi dan keuangan. Keputusan AI harus dapat dijelaskan.
Ya. Alur kerja volume tinggi yang digerakkan aturan apa pun dapat mengadopsi pengukuran AI berbasis produktivitas.
Sam, AI SOC Analyst, Agentic Mesh, dan DPM Flex tersedia secara global untuk pelanggan Securonix.
Pergeseran yang lebih dalam sudah jelas.
AI harus melakukan pekerjaan nyata.
Harus diatur berdasarkan desain.
Dan nilainya harus tahan di ruang dewan.
The post Productivity-Based AI Model: How Securonix Redefines Governed AI for SOC Outcomes appeared first on CX Quest.


