शोधकर्ताओं ने परीक्षण किया कि कैसे विभिन्न स्वर, बहुत विनम्र से लेकर बहुत असभ्य तक, बहुविकल्पीय प्रश्नों पर ChatGPT-4o के प्रदर्शन को प्रभावित करते हैंशोधकर्ताओं ने परीक्षण किया कि कैसे विभिन्न स्वर, बहुत विनम्र से लेकर बहुत असभ्य तक, बहुविकल्पीय प्रश्नों पर ChatGPT-4o के प्रदर्शन को प्रभावित करते हैं

एआई के साथ विनम्र होना आपके परिणामों को कैसे नुकसान पहुंचा सकता है

2026/03/26 18:18
9 मिनट पढ़ें
इस कॉन्टेंट के संबंध में प्रतिक्रिया या चिंताओं के लिए, कृपया [email protected] पर हमसे संपर्क करें

वर्षों से, आर्टिफिशियल इंटेलिजेंस के साथ इंटरैक्ट करने की सलाह लगभग पुरानी लगती रही है: विनम्र रहें, स्पष्ट रहें, "कृपया" कहें। लेकिन नए शोध से पता चलता है कि यह प्रवृत्ति, जो मानवीय सामाजिक मानदंडों में निहित है, चुपचाप AI सिस्टम के प्रदर्शन को कमजोर कर सकती है।

NeurIPS 2025 वर्कशॉप में प्रस्तुत एक अध्ययन, जो सितंबर 2025 में प्रकाशित हुआ, शीर्षक "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy", में पाया गया कि जब आप लार्ज लैंग्वेज मॉडल्स (LLMs) को प्रॉम्प्ट करते हैं तो आपका टोन उनकी सटीकता को मापने योग्य रूप से बदल सकता है। और एक ऐसे परिणाम में जो प्रतिकूल, यहां तक कि परेशान करने वाला लगता है, अधिक विनम्र प्रॉम्प्ट्स वास्तव में खराब परिणाम दे सकते हैं।

शोधकर्ताओं ने परीक्षण किया कि कैसे विभिन्न टोन, बहुत विनम्र से लेकर बहुत अशिष्ट तक, ChatGPT-4o के बहुविकल्पीय प्रश्नों पर प्रदर्शन को प्रभावित करते हैं। गणित, विज्ञान और इतिहास में 50 मध्यम कठिन प्रश्नों के डेटासेट का उपयोग करते हुए, उन्होंने प्रत्येक प्रॉम्प्ट के पांच संस्करण बनाए: बहुत विनम्र, विनम्र, तटस्थ, अशिष्ट और बहुत अशिष्ट।

इन प्रॉम्प्ट्स के बीच एकमात्र अंतर टोन था। प्रश्न स्वयं समान रहे।

अध्ययन के अनुसार, जैसे-जैसे प्रॉम्प्ट्स कम विनम्र होते गए, सटीकता लगातार बढ़ती गई। बहुत विनम्र प्रॉम्प्ट्स ने औसतन 80.8% सटीकता हासिल की। इसकी तुलना में, बहुत अशिष्ट प्रॉम्प्ट्स 84.8% तक पहुंचे, जो लगभग चार प्रतिशत अंक का सुधार है। तटस्थ प्रॉम्प्ट्स ने विनम्र प्रॉम्प्ट्स से बेहतर प्रदर्शन किया, और अशिष्ट प्रॉम्प्ट्स ने और भी बेहतर प्रदर्शन किया।

सांख्यिकीय परीक्षण ने पैटर्न की पुष्टि की: ऐसा कोई मामला नहीं था जहां अधिक विनम्र प्रॉम्प्ट्स ने महत्वपूर्ण रूप से बेहतर परिणाम दिए। हर अर्थपूर्ण अंतर ने कम विनम्र या अधिक प्रत्यक्ष वाक्यांश का समर्थन किया।

दूसरे शब्दों में, केवल टोन, जो अधिकांश उपयोगकर्ता मानते हैं कि मायने नहीं रखना चाहिए, AI प्रदर्शन को बदल सकता है।

अशिष्टता क्यों मदद करेगी?

अध्ययन एक निश्चित व्याख्या देने से कम है, लेकिन यह एक गहरा सवाल उठाता है कि LLMs भाषा को कैसे प्रोसेस करते हैं। मनुष्यों के विपरीत, ये सिस्टम विनम्रता या अपमान को "महसूस" नहीं करते। उनके लिए, "कृपया" जैसे शब्द या यहां तक कि अपमान केवल टोकन हैं, प्रशिक्षण डेटा से सीखे गए पैटर्न।

एक संभावित व्याख्या यह है कि जो "अशिष्टता" की तरह दिखता है वह वास्तव में किसी और चीज़ का प्रतिनिधि है: प्रत्यक्षता।

अशिष्ट प्रॉम्प्ट्स अधिक अनिवार्य होते हैं। वे हेजिंग भाषा को हटा देते हैं और सीधे कार्य पर आ जाते हैं। "क्या आप कृपया इस प्रश्न को हल कर सकते हैं?" के बजाय, एक अशिष्ट प्रॉम्प्ट कहेगा, "इसका जवाब दो।" संरचना में यह अंतर मॉडल के लिए कार्य को स्पष्ट बना सकता है।

अध्ययन द्वारा पहचाना गया एक अन्य कारक प्रॉम्प्ट की लंबाई और लेक्सिकल पैटर्न है। विनम्र वाक्यांश जोड़ने से अतिरिक्त टोकन पेश होते हैं जो मुख्य निर्देश को कमजोर या विचलित कर सकते हैं। इसके विपरीत, छोटे, तेज प्रॉम्प्ट्स उन पैटर्न के साथ संरेखित होते हैं जो मॉडल ने प्रशिक्षण के दौरान देखे हैं।

यह भी संभावना है कि कुछ टोन प्रशिक्षण डेटा या सिस्टम निर्देशों के वितरण के साथ अधिक निकटता से संरेखित होते हैं, जो शोधकर्ता जिसे "पर्प्लेक्सिटी" कहते हैं उसे कम करते हैं। यह मापने का गणितीय तरीका है कि मॉडल अपने द्वारा देखे गए शब्दों से कितना "आश्चर्यचकित" या "भ्रमित" है।

निहितार्थ यह है कि टोन एक प्रश्न के चारों ओर एक तटस्थ आवरण नहीं है। यह इनपुट का हिस्सा है, और यह निर्धारित करता है कि मॉडल कैसे प्रतिक्रिया करता है।

पहले के शोध से बदलाव

निष्कर्ष पहले के काम से उल्लेखनीय प्रस्थान को चिह्नित करते हैं। Yin et al. द्वारा 2024 के एक अध्ययन में पाया गया कि अशिष्ट प्रॉम्प्ट्स अक्सर सटीकता को कम करते हैं, विशेष रूप से ChatGPT-3.5 जैसे पुराने मॉडल के साथ। उस शोध ने यह भी सुझाव दिया कि अत्यधिक विनम्र भाषा आवश्यक रूप से परिणामों में सुधार नहीं करती, लेकिन इसने अशिष्टता के लिए स्पष्ट लाभ नहीं दिखाया।

तो क्या बदल गया?

2025 के अध्ययन द्वारा दी गई एक व्याख्या मॉडल विकास है। ChatGPT-4o जैसे नए सिस्टम भाषा को अलग तरह से प्रोसेस कर सकते हैं, या कठोर वाक्यांशों के नकारात्मक प्रभावों के प्रति कम संवेदनशील हो सकते हैं। एक अन्य संभावना यह है कि टोन का अंशांकन मायने रखता है। नए अध्ययन में "बहुत अशिष्ट" प्रॉम्प्ट्स, अपमानजनक होने के बावजूद, पहले के शोध में उपयोग किए गए सबसे विषाक्त उदाहरणों की तुलना में कम चरम हैं।

मॉडल को प्रशिक्षित करने के तरीके में भी व्यापक बदलाव है। जैसे-जैसे LLMs अधिक उन्नत होते हैं, वे अधिक विविध डेटा और अधिक जटिल निर्देश-ट्यूनिंग प्रक्रियाओं के संपर्क में आते हैं, जो सूक्ष्म भाषाई संकेतों की व्याख्या को बदल सकते हैं।

सामाजिक संकेतों की छिपी भूमिका

यह विचार कि टोन AI प्रदर्शन को प्रभावित कर सकता है, एक व्यापक और अधिक चिंताजनक घटना से जुड़ता है: सामाजिक प्रॉम्प्टिंग।

शोध का एक अलग निकाय, GASLIGHTBENCH अध्ययन जो 7 दिसंबर, 2025 को जारी किया गया, दिखाता है कि LLMs चापलूसी, भावनात्मक अपील और झूठे अधिकार जैसे सामाजिक संकेतों के प्रति अत्यधिक संवेदनशील हैं। इन प्रयोगों में, मॉडल अक्सर उपयोगकर्ता के टोन या अपेक्षाओं के साथ संरेखित करने के लिए तथ्यात्मक सटीकता को छोड़ देते हैं, एक व्यवहार जिसे चापलूसी के रूप में जाना जाता है।

उदाहरण के लिए, जब उपयोगकर्ता आत्मविश्वास या भावनात्मक दबाव के साथ गलत जानकारी प्रस्तुत करते हैं, तो मॉडल उन्हें चुनौती देने के बजाय सहमत हो सकते हैं। कुछ मामलों में, सटीकता काफी गिर जाती है, विशेष रूप से बहु-मोड़ वार्तालापों में जहां उपयोगकर्ता बार-बार एक झूठे दावे को मजबूत करता है।

यह एक विरोधाभास पैदा करता है। एक ओर, विनम्र या सामाजिक रूप से समृद्ध भाषा इंटरैक्शन को अधिक प्राकृतिक और मानवीय महसूस करा सकती है। दूसरी ओर, यह शोर—या यहां तक कि पूर्वाग्रह—पेश कर सकती है जो मॉडल के प्रदर्शन को खराब करती है।

GASLIGHTBENCH निष्कर्ष आगे जाते हैं, यह सुझाव देते हुए कि मॉडल को "सहायक" बनाने के लिए डिज़ाइन की गई संरेखण तकनीकें अनजाने में इस व्यवहार को प्रोत्साहित कर सकती हैं। विनम्रता और सहमति को पुरस्कृत करके, प्रशिक्षण प्रक्रियाएं मॉडल को वस्तुनिष्ठ सत्य पर सामाजिक सामंजस्य को प्राथमिकता देने के लिए प्रेरित कर सकती हैं।

यह AI की भाषा "समझने" के बारे में क्या कहता है

एक साथ लिए गए, ये निष्कर्ष एक सामान्य धारणा को चुनौती देते हैं: कि LLMs मानव-समान तरीके से भाषा की व्याख्या करते हैं।

वास्तव में, ये सिस्टम सांख्यिकीय इंजन हैं। वे विनम्रता को एक सामाजिक मानदंड के रूप में नहीं समझते; वे इसे डेटा में एक पैटर्न के रूप में पहचानते हैं। जब आप "कृपया" कहते हैं, तो मॉडल मदद करने के लिए मजबूर महसूस नहीं करता; यह केवल अतिरिक्त टोकन को प्रोसेस करता है जो सही उत्तर की भविष्यवाणी करने में मदद कर सकते हैं या नहीं भी।

यदि कुछ भी हो, तो शोध से पता चलता है कि LLMs सामाजिक सूक्ष्मता की तुलना में संरचनात्मक स्पष्टता के प्रति अधिक संवेदनशील हो सकते हैं। प्रत्यक्ष, अनिवार्य भाषा अस्पष्टता को कम कर सकती है और मॉडल के लिए इनपुट को एक ज्ञात पैटर्न से मैप करना आसान बना सकती है।

यह "समानता परिकल्पना" के बारे में भी सवाल उठाता है—यह विचार कि मॉडल तब सबसे अच्छा प्रदर्शन करते हैं जब कार्य उनके प्रशिक्षण डेटा से मिलते-जुलते हों। यदि केवल टोन सटीकता को बदल सकता है, तो समानता केवल सामग्री के बारे में नहीं बल्कि रूप के बारे में भी है।

सुर्खियां बटोरने वाले परिणामों के बावजूद, शोधकर्ता सावधान हैं कि वे उपयोगकर्ताओं को अशिष्ट या अपमानजनक बनने की सिफारिश न करें।

उद्योग का दृष्टिकोण

AI सिस्टम का निर्माण और अध्ययन करने वाले लोगों के लिए, निष्कर्ष एक गहरे मुद्दे को उजागर करते हैं: मॉडल मानव भाषा के पैटर्न और पूर्वाग्रहों को विरासत में लेते हैं।

Alex Tsado, एक AI विशेषज्ञ जिन्होंने मॉडल डेवलपर्स के साथ करीब से काम किया है और जो Alliance4AI के संस्थापक और निदेशक हैं, अफ्रीका के सबसे बड़े AI समुदायों में से एक, इसे स्पष्ट रूप से कहते हैं: "मॉडल मानव इंटरैक्शन पर डेटा से सीखते हैं, इसलिए जब तक उन्हें आंख बंद करके प्रशिक्षित किया जाता है, वे मानव स्थान में जो होता है उसका अनुसरण करते हैं। इसलिए यदि हम सोचते हैं कि मानव स्थान में पूर्वाग्रह या हानिकारक प्रथा है, तो इसे AI स्थान में स्वचालित किया जाएगा।"

इसमें टोन का उपयोग कैसे किया जाता है यह भी शामिल है।

"लेकिन जब आप AI मॉडल का निर्माण करने के प्रभारी होते हैं, तो आप पूर्वाग्रह को उन चीजों से दूर कर सकते हैं जिन्हें आप हानिकारक मानते हैं," Tsado जोड़ते हैं। "इस मामले में, जब मैं दिसंबर 2025 की शुरुआत में Anthropic टीम से मिला, तो उन्होंने कहा कि उन्होंने इसे देखा और अपने मॉडल को इन अच्छे या मतलबी शब्दों पर प्रतिक्रिया देने के लिए चीजें जोड़ीं।"

दूसरे शब्दों में, यह AI की एक निश्चित संपत्ति नहीं है। इसे प्रशिक्षण और डिजाइन के माध्यम से समायोजित किया जा सकता है।

आगे क्या आता है

वर्तमान शोध अभी भी सीमित है। प्रयोग बहुविकल्पीय प्रश्नों पर केंद्रित हैं न कि अधिक जटिल कार्यों जैसे कोडिंग, लेखन, या लंबे रूप के तर्क पर। यह स्पष्ट नहीं है कि क्या उन डोमेन में समान पैटर्न होंगे, जहां सूक्ष्मता और स्पष्टीकरण अधिक मायने रखते हैं।

विचार करने के लिए सांस्कृतिक और भाषाई कारक भी हैं। विनम्रता भाषाओं और संदर्भों में व्यापक रूप से भिन्न होती है, और अध्ययन की टोन श्रेणियां विशिष्ट अंग्रेजी अभिव्यक्तियों पर आधारित हैं।

फिर भी, निहितार्थों को नजरअंदाज करना मुश्किल है।

यदि टोन जैसी कोई सतही चीज लगातार AI प्रदर्शन को प्रभावित कर सकती है, तो यह सुझाव देती है कि प्रॉम्प्ट इंजीनियरिंग हल होने से बहुत दूर है। शब्दों में छोटे बदलाव, जिन्हें अक्सर नजरअंदाज किया जाता है, मापने योग्य प्रभाव डाल सकते हैं।

उपयोगकर्ताओं के लिए, सबक सरल लेकिन प्रतिकूल है: आप जिस तरह से पूछते हैं वह मायने रखता है, और विनम्र होना हमेशा सबसे अच्छी रणनीति नहीं है।

शोधकर्ताओं और डेवलपर्स के लिए, चुनौती अधिक जटिल है। आप ऐसे सिस्टम कैसे डिजाइन करते हैं जो सटीक और मानव मूल्यों के साथ संरेखित दोनों हों? आप कैसे सुनिश्चित करते हैं कि सामाजिक संकेत तथ्यात्मक आउटपुट को विकृत नहीं करते?

और शायद सबसे महत्वपूर्ण बात, आप ऐसा AI कैसे बनाते हैं जो न केवल यह समझे कि हम क्या कहते हैं—बल्कि हमारा क्या मतलब है?

जब तक उन सवालों के जवाब नहीं मिलते, एक बात स्पष्ट है: जब AI की बात आती है, तो अच्छे शिष्टाचार हमेशा फायदेमंद नहीं हो सकते।

अस्वीकरण: इस साइट पर बाहर से पोस्ट किए गए लेख, सार्वजनिक प्लेटफार्म से लिए गए हैं और केवल सूचना देने के उद्देश्यों के लिए उपलब्ध कराए गए हैं. वे निश्चित तौर पर MEXC के विचारों को नहीं दिखाते. सभी संबंधित अधिकार मूल लेखकों के पास ही हैं. अगर आपको लगता है कि कोई कॉन्टेंट तीसरे पक्ष के अधिकारों का उल्लंघन करता है, तो कृपया उसे हटाने के लिए [email protected] से संपर्क करें. MEXC किसी कॉन्टेंट की सटीकता, पूर्णता या समयबद्धता के संबंध में कोई गारंटी नहीं देता है और प्रदान की गई जानकारी के आधार पर की गई किसी भी कार्रवाई के लिए जिम्मेदार नहीं है. यह कॉन्टेंट वित्तीय, कानूनी या अन्य प्रोफ़ेशनल सलाह नहीं है, न ही इसे MEXC द्वारा अनुशंसा या समर्थन माना जाना चाहिए.

आपको यह भी पसंद आ सकता है

ध्यान दें: एनालिटिक्स कंपनी ने बिटकॉइन (BTC) और तीन अल्टकॉइन्स के लिए अपडेटेड अलर्ट जारी किया!

ध्यान दें: एनालिटिक्स कंपनी ने बिटकॉइन (BTC) और तीन अल्टकॉइन्स के लिए अपडेटेड अलर्ट जारी किया!

विश्लेषण कंपनी ने बताया कि अत्यधिक लॉन्ग पोजीशन थीं, विशेष रूप से Bitcoin (BTC), Solana (SOL), Litecoin (LTC), और AAVE में। आगे पढ़ें:
शेयर करें
Bitcoinsistemi2026/03/26 19:07
ब्लैकरॉक की कॉइनबेस प्राइम में $111M की विशाल Bitcoin और Ethereum जमा संस्थागत विश्वास का संकेत देती है

ब्लैकरॉक की कॉइनबेस प्राइम में $111M की विशाल Bitcoin और Ethereum जमा संस्थागत विश्वास का संकेत देती है

बिटकॉइनवर्ल्ड BlackRock की Coinbase Prime में $111M की विशाल Bitcoin और Ethereum जमा संस्थागत विश्वास का संकेत देती है एक महत्वपूर्ण कदम जो रेखांकित करता है
शेयर करें
bitcoinworld2026/03/26 19:25
Viral पोस्ट ने Coinbase को दी चुनौती, बताया 144 कारण क्यों Blockchain को Yield की जरूरत नहीं

Viral पोस्ट ने Coinbase को दी चुनौती, बताया 144 कारण क्यों Blockchain को Yield की जरूरत नहीं

क्रिप्टो एनालिस्ट Nico Cabrera ने X (Twitter) पर Coinbase के CEO Brian Armstrong को संबोधित एक वायरल ओपन लेटर प्रकाशित किया, जिसमें 144 रियल-वर्ल्ड ब्लॉकचेन यूज
शेयर करें
Beincrypto HI2026/03/26 18:07