যথার্থতা নিয়ে উদ্বেগের মধ্যে OpenAI স্বাস্থ্য সিদ্ধান্তের জন্য ChatGPT প্রচার করছে
Terrill Dicki মার্চ ০৫, ২০২৬ ০১:২১
OpenAI ক্যান্সার চিকিৎসার সিদ্ধান্তের জন্য ChatGPT ব্যবহারকারী একটি পরিবারকে তুলে ধরেছে, কিন্তু সাম্প্রতিক গবেষণায় দেখা যাচ্ছে AI স্বাস্থ্য সরঞ্জামগুলোতে উল্লেখযোগ্য যথার্থতা এবং নিরাপত্তা সমস্যা রয়েছে।
OpenAI এই সপ্তাহে একটি কেস স্টাডি প্রকাশ করেছে যেখানে একটি পরিবার তাদের ছেলের ক্যান্সার চিকিৎসার সিদ্ধান্তের প্রস্তুতিতে ChatGPT ব্যবহার করেছে, AI চ্যাটবটকে চিকিৎসকের নির্দেশনার পরিপূরক হিসেবে উপস্থাপন করেছে। AI স্বাস্থ্য সরঞ্জামগুলোতে উল্লেখযোগ্য নির্ভরযোগ্যতা সমস্যা রয়েছে এমন ক্রমবর্ধমান প্রমাণের পরিপ্রেক্ষিতে এই সময়টি প্রশ্ন উত্থাপন করে।
৪ মার্চ প্রকাশিত প্রচারমূলক নিবন্ধটি বর্ণনা করে কীভাবে পিতামাতারা তাদের সন্তানের অনকোলজি টিমের সাথে ChatGPT ব্যবহার করেছেন। OpenAI এটিকে দায়িত্বশীল AI ব্যবহার হিসেবে উপস্থাপন করে—চিকিৎসা দক্ষতা প্রতিস্থাপনের পরিবর্তে পরিপূরক করা।
কিন্তু ইতিবাচক বর্ণনাটি অস্বস্তিকর গবেষণা ফলাফলের সাথে সংঘর্ষে পড়ে। Nature Medicine-এ প্রকাশিত একটি গবেষণা OpenAI-এর নিজস্ব "ChatGPT Health" পণ্য পরীক্ষা করে যথার্থতা, নিরাপত্তা প্রোটোকল এবং চিকিৎসা সুপারিশে জাতিগত পক্ষপাতের সাথে উল্লেখযোগ্য সমস্যা খুঁজে পেয়েছে। ক্যান্সার চিকিৎসা সম্পর্কে জীবন-মৃত্যুর সিদ্ধান্ত নেওয়ার সময় মানুষ যে সরঞ্জাম ব্যবহার করতে পারে তার জন্য এটি কোনো ছোট সতর্কতা নয়।
যথার্থতা সমস্যা
স্বাধীন গবেষণা সর্বোত্তমভাবে একটি মিশ্র চিত্র উপস্থাপন করে। Mass General Brigham-এর একটি গবেষণায় দেখা গেছে ChatGPT চিকিৎসা বিশেষত্ব জুড়ে প্রায় ৭২% যথার্থতা অর্জন করেছে, চূড়ান্ত রোগ নির্ণয়ের ক্ষেত্রে ৭৭%-এ উন্নীত হয়েছে। যথেষ্ট ভালো শোনায় যতক্ষণ না আপনি বিবেচনা করেন কী ঝুঁকিতে রয়েছে—আপনি কি এমন একটি বিমানে চড়বেন যেখানে পাইলটের গুরুতর ত্রুটি করার ২৩% সম্ভাবনা রয়েছে?
হেলথকেয়ার AI কোম্পানি Atropos আরও ভয়াবহ সংখ্যা প্রদান করেছে: সাধারণ উদ্দেশ্যের বৃহৎ ভাষা মডেলগুলো চিকিৎসকদের জন্য মাত্র ২% থেকে ১০% সময় ক্লিনিক্যালি প্রাসঙ্গিক তথ্য প্রদান করে। "কখনও কখনও সহায়ক" এবং "ক্যান্সার সিদ্ধান্তের জন্য যথেষ্ট নির্ভরযোগ্য"-এর মধ্যে ব্যবধান বিশাল রয়ে গেছে।
American Medical Association কথায় কমতি করেনি। সংস্থাটি যথার্থতার উদ্বেগ এবং মানসম্মত নির্দেশিকা না থাকার কথা উল্লেখ করে চিকিৎসকদের ক্লিনিক্যাল সিদ্ধান্ত সহায়তার জন্য LLM-ভিত্তিক সরঞ্জাম ব্যবহারের বিরুদ্ধে সুপারিশ করে। যখন AMA ডাক্তারদের দূরে থাকতে বলে, রোগীদের সম্ভবত লক্ষ্য করা উচিত।
ChatGPT যা করতে পারে না
AI চ্যাটবটগুলো শারীরিক পরীক্ষা করতে পারে না। তারা রোগীর দেহের ভাষা পড়তে পারে না বা অভিজ্ঞ অনকোলজিস্টরা কয়েক দশক ধরে যে স্বজ্ঞাত ফলো-আপ প্রশ্নগুলো বিকশিত করেন তা জিজ্ঞাসা করতে পারে না। তারা হ্যালুসিনেট করতে পারে—সম্পূর্ণভাবে বানোয়াট কিন্তু আত্মবিশ্বাসী-শোনানো তথ্য তৈরি করে।
গোপনীয়তার উদ্বেগ আরেকটি স্তর যোগ করে। প্রতিটি উপসর্গ, প্রতিটি ভয়, ChatGPT-তে টাইপ করা একটি শিশুর ক্যান্সার সম্পর্কে প্রতিটি বিস্তারিত তথ্য হয়ে ওঠে যা ব্যবহারকারীদের সীমিত নিয়ন্ত্রণ রয়েছে।
OpenAI-এর কেস স্টাডি জোর দেয় যে পরিবার "ডাক্তারদের কাছ থেকে বিশেষজ্ঞ নির্দেশনার পাশাপাশি" কাজ করেছে। সেই যোগ্যতাটি গুরুত্বপূর্ণ। বিপদটি সচেতন রোগীরা আরও ভাল প্রশ্ন করা নয়—এটি সংকটে থাকা দুর্বল মানুষ সম্ভাব্যভাবে এমন একটি সরঞ্জামের উপর অতিরিক্ত নির্ভর করা যা বিপণন যা প্রস্তাব করে তার চেয়ে বেশি বার ভুল করে।
OpenAI-এর এন্টারপ্রাইজ উচ্চাকাঙ্ক্ষা পর্যবেক্ষণকারী ক্রিপ্টো বিনিয়োগকারীদের জন্য, হেলথকেয়ার পদক্ষেপ উচ্চ-ঝুঁকিপূর্ণ ভার্টিক্যালে আক্রমণাত্মক সম্প্রসারণের সংকেত দেয়। নিয়ন্ত্রকরা নথিভুক্ত যথার্থতা সমস্যা সহ চিকিৎসা সিদ্ধান্ত গ্রহণের সরঞ্জাম প্রচারকারী AI কোম্পানিগুলোকে সহ্য করবে কিনা তা ২০২৬-এ প্রবেশের সময় একটি উন্মুক্ত প্রশ্ন থেকে যায়।
চিত্রের উৎস: Shutterstock- openai
- chatgpt
- ai healthcare
- medical ai
- health tech


