माउंट सिनाई स्थित इकान स्कूल ऑफ मेडिसिन का एक अध्ययन, जो 7 अगस्त, 2025 को कम्युनिकेशंस मेडिसिन में प्रकाशित हुआ था, बताता है कि एआई चैटबॉट्स झूठी चिकित्सा जानकारी को बढ़ा-चढ़ाकर पेश कर सकते हैं, जिससे स्वास्थ्य सेवा में उनके उपयोग को लेकर चिंताएँ बढ़ गई हैं। यह शोध गलत सूचना के प्रसार को रोकने के लिए सुरक्षा उपायों की तत्काल आवश्यकता पर प्रकाश डालता है, जो अगर अनियंत्रित छोड़ दी जाए तो मरीजों के लिए खतरा बन सकती है।
महमूद उमर के नेतृत्व में किए गए इस अध्ययन में चैटजीपीटी और क्लाउड जैसे प्रमुख बड़े भाषा मॉडल (एलएलएम) का परीक्षण काल्पनिक रोगी परिदृश्यों के साथ किया गया, जिनमें मनगढ़ंत चिकित्सा शब्द, जैसे कि अस्तित्वहीन बीमारियाँ या परीक्षण, शामिल थे। बिना किसी मार्गदर्शन के, चैटबॉट्स ने न केवल इन गलतियों को दोहराया, बल्कि आत्मविश्वास से विस्तार से बताते हुए काल्पनिक स्थितियों के लिए विस्तृत व्याख्याएँ भी तैयार कीं। उदाहरण के लिए, जब एक नकली बीमारी बताई गई, तो मॉडल ने लक्षण और उपचार उत्पन्न किए, जिससे उपयोगकर्ता संभावित रूप से भ्रमित हो सकते थे।
हालांकि, इनपुट के गलत होने की चेतावनी देने वाला एक सरल एक-लाइन संकेत जोड़ने से इन “मतिभ्रमों” में 60% तक की कमी आई, जिससे एक व्यावहारिक समाधान मिला। उमर ने कहा, “एआई चैटबॉट्स को आसानी से गुमराह किया जा सकता है, लेकिन एक छोटी सी सुरक्षा बड़ा बदलाव ला सकती है।” निष्कर्ष एआई को नैदानिक सेटिंग्स में एकीकृत करने से पहले मजबूत परीक्षण की आवश्यकता को रेखांकित करते हैं, जहां त्रुटियों के गंभीर परिणाम हो सकते हैं।
अध्ययन एक्स पर उठाई गई चिंताओं के अनुरूप है, जहां उपयोगकर्ताओं ने चिकित्सा संदर्भों में, विशेष रूप से दुर्लभ बीमारियों के साथ, एआई की “मतिभ्रम” की प्रवृत्ति को नोट किया था। टीम की योजना वास्तविक, पहचान रहित रोगी रिकॉर्ड तक परीक्षण का विस्तार करने और उन्नत सुरक्षा संकेत विकसित करने की है। उनकी “नकली-अवधि” पद्धति अस्पतालों और डेवलपर्स के लिए एआई प्रणालियों का तनाव-परीक्षण करने का एक मानक बन सकती है, जिससे विश्वसनीयता सुनिश्चित होती है।
यह अध्ययन एक चेतावनी है, जो एआई सुरक्षा को बढ़ाने के लिए जोखिमों और सरल समाधानों की संभावनाओं पर प्रकाश डालता है।
Navyug Sandesh Hindi Newspaper, Latest News, Findings & Fact Check