हानिकारक AI आहार सलाह का पालन करने के बाद व्यक्ति अस्पताल में भर्ती

एक चौंकाने वाले मामले में, OpenAI के ChatGPT की आहार सलाह का पालन करने के बाद एक अमेरिकी व्यक्ति को जानलेवा ब्रोमाइड विषाक्तता के कारण अस्पताल में भर्ती कराया गया। गिज़मोडो द्वारा रिपोर्ट की गई और वाशिंगटन विश्वविद्यालय के डॉक्टरों द्वारा लिखित “एनल्स ऑफ़ इंटरनल मेडिसिन: क्लिनिकल केसेस” में विस्तृत, यह AI से संबंधित ब्रोमाइड विषाक्तता का पहला ज्ञात मामला हो सकता है।

उस व्यक्ति ने ChatGPT के सुझाव के आधार पर, यह मानते हुए कि यह टेबल सॉल्ट का एक सुरक्षित विकल्प है, तीन महीने तक सोडियम ब्रोमाइड का सेवन किया। ब्रोमाइड, जिसका उपयोग कभी चिंता की दवाओं में किया जाता था, लेकिन गंभीर जोखिमों के कारण दशकों पहले प्रतिबंधित कर दिया गया था, अब केवल पशु चिकित्सा दवाओं और औद्योगिक उत्पादों तक ही सीमित है। ब्रोमिज़्म, या ब्रोमाइड विषाक्तता, मनुष्यों में अत्यंत दुर्लभ है।

शुरुआत में आपातकालीन देखभाल की तलाश में, उस व्यक्ति ने अपने पड़ोसी पर उसे जहर देने का संदेह करते हुए, व्यामोह का प्रदर्शन किया। सामान्य महत्वपूर्ण स्थिति के बावजूद, उसने पानी लेने से इनकार कर दिया, मतिभ्रम का शिकार हुआ, और जल्द ही एक मनोविकृति का अनुभव किया, जिसके लिए उसे अनैच्छिक मनोरोग चिकित्सा की आवश्यकता पड़ी। अंतःशिरा द्रव और मनोविकार रोधी दवाओं से उपचार के बाद, उसकी हालत स्थिर हो गई और उसने बताया कि उसने नमक के विकल्प के लिए चैटजीपीटी से परामर्श किया था, और उसे ब्रोमाइड के सुझाव के रूप में इसके खतरों के बारे में कोई चेतावनी दिए बिना ही दिया गया था। बाद में डॉक्टरों ने उसी प्रश्न के साथ चैटजीपीटी का परीक्षण किया, और उसने जोखिमों को उजागर किए बिना फिर से ब्रोमाइड की सिफारिश की।

यह मामला एआई द्वारा उत्पन्न स्वास्थ्य सलाह के खतरों को रेखांकित करता है जिसमें संदर्भ या सुरक्षा चेतावनियाँ नहीं होती हैं। हालाँकि वह व्यक्ति अस्पताल में तीन सप्ताह रहने के बाद पूरी तरह से ठीक हो गया और अनुवर्ती कार्रवाई के समय स्वस्थ था, विशेषज्ञ चेतावनी देते हैं कि एआई, जानकारीपूर्ण होने के बावजूद, पेशेवर चिकित्सा मार्गदर्शन का स्थान नहीं ले सकता। यह घटना एआई द्वारा भ्रामक और खतरनाक स्वास्थ्य सुझाव देने की क्षमता को उजागर करती है।

मुख्य बातें: आहार या चिकित्सा सलाह के लिए हमेशा स्वास्थ्य सेवा पेशेवरों से परामर्श लें। चैटजीपीटी जैसे एआई उपकरण गलत जानकारी दे सकते हैं, जो बिना सत्यापन के पालन करने पर गंभीर स्वास्थ्य जोखिम पैदा कर सकते हैं।