এজেন্টিক আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) প্রতিষ্ঠানগুলির কার্যপ্রণালী রূপান্তরিত করার প্রতিশ্রুতি দেয়। নথি সংক্ষিপ্ত করা বা কন্টেন্ট তৈরি করার জন্য ডিজাইন করা পূর্ববর্তী AI টুলগুলির বিপরীতে, এই সিস্টেমগুলি স্বায়ত্তশাসিতভাবে কাজ করতে, কাজ সম্পাদন করতে এবং এন্টারপ্রাইজ সিস্টেমের সাথে ইন্টারঅ্যাক্ট করতে পারে। প্রযুক্তি ঝুঁকি তদারকিকারী বোর্ডগুলির জন্য, এই পরিবর্তন মৌলিকভাবে ভিন্ন শ্রেণীর নিরাপত্তা উদ্বেগ নিয়ে আসে। লরা আই. হার্ডার, ইনফরমেশন সিস্টেমস সিকিউরিটি অ্যাসোসিয়েশন (ISSA) ইন্টারন্যাশনালের ভাইস প্রেসিডেন্ট এবং ইউএস এয়ার ফোর্স রিজার্ভের একজন অফেন্সিভ সাইবার অফিসার, বিশ্বাস করেন যে অনেক নেতা কত দ্রুত এই ঝুঁকিগুলি বাস্তবে পরিণত হতে পারে তা অবমূল্যায়ন করেন। "প্রতিষ্ঠানগুলির জন্য ঝুঁকি সত্যিই অত্যধিক এজেন্সি থাকার মধ্যে নিহিত," হার্ডার বলেন। "এজেন্টরা অনুমতি পরিবর্তন করতে, কার্যকারিতা পরিবর্তন করতে এবং এমন ক্রিয়া তৈরি করতে পারে যা আপনি হয়তো আশা করেননি।" প্রতিষ্ঠানগুলি AI নিয়ে পরীক্ষা-নিরীক্ষা থেকে স্বায়ত্তশাসিত এজেন্টদের কার্যকর করার দিকে এগিয়ে যাওয়ার সাথে সাথে, বোর্ডগুলিকে শাসন কাঠামো, সুরক্ষা ব্যবস্থা এবং তদারকি প্রক্রিয়া স্থাপন করতে ততটাই দ্রুত এগিয়ে যেতে হবে যা মানুষের হস্তক্ষেপ ছাড়াই সিদ্ধান্ত নিতে এবং পদক্ষেপ নিতে সক্ষম সিস্টেমগুলি পরিচালনা করতে পারে।
এজেন্টিক AI নিরাপত্তা সমীকরণ পরিবর্তন করে
গত কয়েক বছর ধরে, বেশিরভাগ কর্পোরেট AI স্থাপনা তথ্য বিশ্লেষণ বা আউটপুট তৈরি করে এমন টুলগুলির উপর কেন্দ্রীভূত হয়েছে। এই সক্ষমতাগুলি গোপনীয়তা এবং ডেটা অখণ্ডতার উদ্বেগ নিয়ে এসেছিল, কিন্তু সিস্টেমগুলি নিজেরাই খুব কমই এন্টারপ্রাইজ পরিবেশের মধ্যে ক্রিয়া সম্পাদন করত। এজেন্টিক AI এই গতিশীলতা পরিবর্তন করে। কেবল সুপারিশ প্রদান বা রেজিউমে ফিল্টার করার পরিবর্তে, এজেন্টরা ওয়ার্কফ্লো ট্রিগার করতে, ডেটাবেস অ্যাক্সেস করতে এবং একটি প্রতিষ্ঠান জুড়ে সফটওয়্যার সিস্টেমের সাথে ইন্টারঅ্যাক্ট করতে পারে। "এটি এখন শুধুমাত্র আমাদের পরামর্শ দিচ্ছে না। এটি পদক্ষেপ নিচ্ছে এবং নিজে থেকেই কাজ করছে," হার্ডার বলেন।

এই স্বায়ত্তশাসন নতুন নিরাপত্তা চ্যালেঞ্জ তৈরি করে কারণ সিস্টেমগুলি পরিচালিত হতে পারে। মানুষ যেমন সামাজিক প্রকৌশলের শিকার হতে পারে, AI এজেন্টদেরও প্রম্পট ইনজেকশনের মতো কৌশলগুলির মাধ্যমে অনাকাঙ্ক্ষিত কাজ সম্পাদন করতে প্রতারিত করা যেতে পারে। হার্ডার বাস্তব-বিশ্বের উদাহরণগুলির দিকে ইঙ্গিত করেন যেখানে ইনপুটগুলিতে এম্বেড করা লুকানো নির্দেশাবলী AI কীভাবে আচরণ করে তা পরিবর্তন করে। "AI তাকে দেওয়া নির্দেশাবলীর ভিত্তিতে আচরণ করবে," তিনি বলেন। এই হুমকিগুলি অনেক AI মডেলের অস্বচ্ছ প্রকৃতির দ্বারা আরও জটিল হয়। প্রতিষ্ঠানগুলি প্রায়শই তৃতীয় পক্ষের টুলগুলির উপর নির্ভর করে কীভাবে সিদ্ধান্ত নেওয়া হয় তার সম্পূর্ণ দৃশ্যমানতা ছাড়াই। ফলাফল এমন একটি সিস্টেম যা ক্রিয়া সম্পাদন করতে সক্ষম যখন এমনভাবে কাজ করে যা পূর্বাভাস করা কঠিন।
বোর্ডগুলি প্রায়শই যে লুকানো ঝুঁকি উপেক্ষা করে
বোর্ডগুলি যখন এজেন্টিক AI মূল্যায়ন শুরু করে, হার্ডার বলেন সবচেয়ে অবমূল্যায়িত দুর্বলতা হল অনুমতি। প্রতিটি AI এজেন্ট সিস্টেম, ডেটা সোর্স এবং অ্যাপ্লিকেশনের একটি নেটওয়ার্কের মধ্যে কাজ করে। এই সিস্টেমগুলিতে প্রদত্ত অ্যাক্সেসের স্তর সম্ভাব্য ক্ষতি নির্ধারণ করে যদি কিছু ভুল হয়। হার্ডার এটিকে সিস্টেমের "ব্লাস্ট রেডিয়াস" হিসাবে বর্ণনা করেন। একটি এজেন্ট যাকে ব্যাপক অনুমতি দেওয়া হয় সে নেতারা যা উপলব্ধি করেন তার চেয়ে অনেক বেশি ডেটা এবং অবকাঠামোর সাথে ইন্টারঅ্যাক্ট করতে সক্ষম হতে পারে।
একটি সাধারণ উদাহরণ ঘটে যখন AI সিস্টেমগুলি অভ্যন্তরীণ সহযোগিতা টুল বা ডকুমেন্ট রিপোজিটরির সাথে সংযুক্ত থাকে। যদি একটি ব্যাপকভাবে শেয়ার করা ফোল্ডারে সংবেদনশীল তথ্য থাকে, তাহলে সেই পরিবেশে কাজ করা একটি এজেন্ট ব্যবহারকারী, সার্ভিস অ্যাকাউন্ট বা ইন্টিগ্রেশনকে প্রদত্ত অনুমতির মধ্যে সেই ডেটা অ্যাক্সেস এবং ব্যবহার করতে সক্ষম হবে যার অধীনে এটি চলে। ব্যবহারিকভাবে, এর মানে হল এজেন্ট এমন তথ্য প্রকাশ বা এর উপর কাজ করতে পারে যা ব্যাপকভাবে অ্যাক্সেসযোগ্য ছিল কিন্তু সক্রিয়ভাবে নিরীক্ষণ করা হয়নি।
তৃতীয় পক্ষের AI সেবাগুলি ঝুঁকির একটি অতিরিক্ত স্তর প্রবর্তন করে। "আপনি যদি একটি মডেল ব্যবহার করেন, সেই মডেলের কোন তথ্যে অ্যাক্সেস আছে, এবং আপনার তথ্য কি সেই মডেলকে প্রশিক্ষণ দিতে ব্যবহার করা যেতে পারে?" হার্ডার জিজ্ঞাসা করেন। স্পষ্ট নিয়ন্ত্রণ ছাড়া, মালিকানা তথ্য, বৌদ্ধিক সম্পত্তি বা সংবেদনশীল গ্রাহক ডেটা AI ইন্টারঅ্যাকশনের মাধ্যমে অনিচ্ছাকৃতভাবে প্রতিষ্ঠান ছেড়ে যেতে পারে।
এমন শাসন নির্মাণ যা AI এর সাথে তাল মিলাতে পারে
AI শাসনকে একটি প্রযুক্তি অ্যাড-অন এর চেয়ে একটি কাঠামোবদ্ধ প্রোগ্রাম হিসাবে বিবেচনা করতে হবে। প্রতিষ্ঠানগুলির একটি নিবেদিত AI শাসন বোর্ড প্রতিষ্ঠা করে শুরু করা উচিত, যা প্রায়শই বিদ্যমান গোপনীয়তা বা ঝুঁকি শাসন কমিটির অনুরূপ। সেই গোষ্ঠীর NIST AI রিস্ক ম্যানেজমেন্ট ফ্রেমওয়ার্ক বা ISO 42001 এর মতো আন্তর্জাতিক মানদণ্ডের মতো প্রতিষ্ঠিত কাঠামো গ্রহণ করা উচিত। "AI শাসন এবং AI সুরক্ষা থাকা শুধুমাত্র এমন একটি পণ্য নয় যা আপনি কিনতে পারেন," তিনি বলেন।
এই কাঠামোগুলি নীতি, ঝুঁকি মূল্যায়ন এবং কার্যকর নিয়ন্ত্রণ সম্পর্কে নির্দেশনা প্রদান করে। কিন্তু তাদের এখনও প্রতিষ্ঠানগুলিকে সংজ্ঞায়িত করতে হবে কীভাবে AI তাদের পরিবেশের মধ্যে কাজ করবে এবং কোন ডেটা অ্যাক্সেস করার অনুমতি দেওয়া হবে। "আপনার নীতি, পদ্ধতি এবং তালিকা প্রয়োজন," হার্ডার বলেন। "এই অংশগুলি আপনার দলগুলি যেখান থেকে কাজ করতে পারে সেই অবকাঠামো তৈরি করতে সাহায্য করবে।" একটি উদীয়মান অনুশীলন হল একটি "AI বিল অফ ম্যাটেরিয়ালস" তৈরি করা যা প্রতিষ্ঠানের অভ্যন্তরে ব্যবহৃত প্রতিটি AI টুল, এটি কোন সিস্টেমের সাথে সংযুক্ত এবং এটি কোন ডেটা অ্যাক্সেস করতে পারে তার তালিকা তৈরি করে। সেই দৃশ্যমানতা ছাড়া, প্রতিষ্ঠানগুলি এন্টারপ্রাইজ অবকাঠামোর সাথে ইন্টারঅ্যাক্ট করা স্বায়ত্তশাসিত সিস্টেম দ্বারা তৈরি এক্সপোজার সম্পূর্ণরূপে বুঝতে পারে না।
যেসব সুরক্ষা ব্যবস্থা AI কে বিপথগামী হওয়া থেকে প্রতিরোধ করে
শাসন কাঠামো থাকা সত্ত্বেও, এজেন্টিক সিস্টেমগুলির প্রযুক্তিগত সুরক্ষা ব্যবস্থা প্রয়োজন যা তারা কীভাবে কাজ করে তা সীমাবদ্ধ করে। সবচেয়ে কার্যকর কৌশল হল শুরু থেকেই নিরাপত্তা নিয়ন্ত্রণ ডিজাইন করা। সিস্টেমগুলি প্রাথমিকভাবে পরীক্ষা ডেটা (উত্পাদন ডেটা নয়) এবং সীমিত বিশেষাধিকার ব্যবহার করে বন্ধ, নিয়ন্ত্রিত স্যান্ডবক্স পরিবেশের মধ্যে তৈরি করা উচিত। "আপনি আপনার এজেন্টিক সিস্টেম তৈরি করার সাথে সাথে, আপনার এটি একটি স্যান্ডবক্সে করা উচিত," তিনি বলেন। "এটি একটি নিয়ন্ত্রিত পরিবেশ যেখানে সিন্থেটিক সিস্টেমগুলি কম ঝুঁকি এবং কোনও বিশেষাধিকার ছাড়াই কাজ করতে পারে।"
পরীক্ষায় রেড টিমিংও অন্তর্ভুক্ত করতে হবে, যেখানে নিরাপত্তা পেশাদাররা সিস্টেমটি ভাঙার বা এর আচরণ পরিচালনা করার চেষ্টা করেন। এই অনুশীলনগুলি উত্পাদন পরিবেশে সিস্টেমগুলি স্থাপনের আগে দুর্বলতা প্রকাশ করে। "লুপে একজন মানুষ থাকা নিশ্চিত করে যে আপনার AI টুল যদি এবং যখন এমন একটি সিদ্ধান্ত নিতে সিদ্ধান্ত নেয় যা আপনি হয়তো চাননি, কোনও ধরণের বিধিনিষেধ রয়েছে," হার্ডার বলেন। বিচ্ছিন্নতা কৌশলগুলিও ঝুঁকি সীমিত করতে পারে। কিছু আর্কিটেকচারে, এজেন্টদের ভার্চুয়াল মেশিনের ভিতরে ধারণ করা হয় যেখানে নীতিগুলি তারা কী কমান্ড সম্পাদন করতে পারে এবং কোন সিস্টেমগুলি অ্যাক্সেস করতে পারে তা সীমাবদ্ধ করে।
বোর্ড তদারকি শেষ পর্যন্ত গুরুত্বপূর্ণ
বোর্ডগুলির জন্য, এজেন্টিক AI এর উত্থান একটি শাসন এবং জবাবদিহিতার চ্যালেঞ্জ এবং হার্ডার জোর দেন যে প্রতিষ্ঠানগুলি তাদের AI সিস্টেমগুলি যে পদক্ষেপগুলি নেয় তার জন্য দায়ী থাকে। "আপনি ফিরে গিয়ে বলতে পারবেন না, 'আমি জানতাম না এটি এটি করতে পারে,'" তিনি বলেন। "আপনাকে আপনার যথাযথ পরিশ্রম করতে হবে।" এই দায়িত্ব আইনি এবং বিশ্বস্ত উভয় প্রভাব বহন করে। বোর্ডগুলিকে নিশ্চিত করতে হবে যে স্বায়ত্তশাসিত প্রযুক্তিগুলি স্পষ্ট তদারকি, সীমাবদ্ধ কর্তৃত্ব এবং ক্রমাগত নিরীক্ষণের সাথে প্রয়োগ করা হয়েছে। "আপনি প্রমাণ করতে না পারা পর্যন্ত এজেন্টদের বিশেষাধিকারপ্রাপ্ত টুলগুলির সাথে সংযুক্ত করবেন না যে এটিতে সীমাবদ্ধ কর্তৃত্ব, মানব চেকপয়েন্ট এবং নিরীক্ষণ রয়েছে," হার্ডার বলেন। এজেন্টিক AI পরীক্ষা-নিরীক্ষা থেকে মূল কার্যক্রমে চলে যেতে থাকে, যে প্রতিষ্ঠানগুলি সফল হবে তারা হবে যারা শাসন এবং নিরাপত্তাকে পরবর্তী চিন্তার পরিবর্তে মৌলিক প্রয়োজনীয়তা হিসাবে বিবেচনা করে।
আরও অন্তর্দৃষ্টির জন্য LinkedIn-এ Laura I. Harder কে ফলো করুন।



