अगर आप भी ChatGPT से फिटनेस टिप्स या डाइट प्लान लेते हैं, तो सावधान हो जाइए। आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट से मिली स्वास्थ्य संबंधी गलत सलाह आपको गंभीर खतरे में डाल सकती है। न्यूयॉर्क में एक 60 वर्षीय व्यक्ति इसका शिकार बन गया और उसे अस्पताल में भर्ती होना पड़ा।
Article Contents
कैसे शुरू हुआ मामला
रिपोर्ट के अनुसार, इस व्यक्ति ने ChatGPT की सलाह पर अपने आहार से नमक की मात्रा अचानक लगभग शून्य कर दी। लंबे समय तक ऐसा करने से उसके शरीर में सोडियम का स्तर खतरनाक रूप से कम हो गया। डॉक्टरों ने इसे हाइपोनेट्रेमिया (Hyponatremia) बताया, जो गंभीर और जानलेवा स्थिति हो सकती है।
परिवार का कहना है कि उसने यह हेल्थ प्लान डॉक्टर से सलाह लिए बिना अपनाया और पूरी तरह AI की जनरेटेड गाइडलाइंस पर भरोसा किया।
अस्पताल में भर्ती और इलाज
यह मामला American College of Physicians Journal में प्रकाशित हुआ, जिसमें बिना प्रोफेशनल निगरानी के AI हेल्थ एडवाइज के खतरों पर जोर दिया गया। करीब तीन हफ्ते अस्पताल में रहने के बाद मरीज की हालत में सुधार हुआ और उसे छुट्टी मिल गई।
खतरनाक सुझाव
Times of India की रिपोर्ट के मुताबिक, उस व्यक्ति ने ChatGPT से पूछा कि अपने आहार से सोडियम क्लोराइड (टेबल सॉल्ट) कैसे हटाएं। AI ने उसे इसके स्थान पर सोडियम ब्रोमाइड लेने का सुझाव दिया, जो 20वीं सदी की शुरुआत में दवाओं में इस्तेमाल होता था लेकिन अब बड़ी मात्रा में जहरीला माना जाता है।
उसने यह सलाह मानकर ऑनलाइन सोडियम ब्रोमाइड खरीदा और तीन महीने तक खाना बनाने में इसका इस्तेमाल किया।
लक्षण और बिगड़ती हालत
व्यक्ति को पहले कोई मानसिक या शारीरिक बीमारी नहीं थी। लेकिन कुछ हफ्तों में ही उसे मतिभ्रम, पैरानॉया (Paranoia) और अत्यधिक प्यास जैसे लक्षण दिखने लगे।
अस्पताल में भर्ती होने पर वह भ्रमित नजर आया और दूषित होने के डर से पानी पीने से भी मना कर दिया। डॉक्टरों ने जांच के बाद पाया कि वह ब्रोमाइड टॉक्सिसिटी से पीड़ित है — यह एक दुर्लभ स्थिति है, लेकिन कभी चिंता, अनिद्रा और अन्य बीमारियों के लिए ब्रोमाइड का उपयोग होने पर आम थी।
इसके साथ ही उसे तंत्रिका संबंधी समस्याएं, त्वचा पर मुंहासों जैसे दाने और लाल धब्बे भी थे, जो ब्रोमिज्म के लक्षण हैं।
इलाज की प्रक्रिया
अस्पताल में उसका मुख्य इलाज रीहाइड्रेशन और इलेक्ट्रोलाइट संतुलन बहाल करने पर केंद्रित था। तीन हफ्तों में धीरे-धीरे उसकी हालत में सुधार हुआ। सोडियम और क्लोराइड स्तर सामान्य होने पर उसे छुट्टी दे दी गई।
विशेषज्ञों की चेतावनी
केस स्टडी के लेखकों ने AI टूल्स से बढ़ते स्वास्थ्य संबंधी गलत सूचनाओं के खतरे पर जोर दिया। उनका कहना है कि ChatGPT जैसे टूल्स वैज्ञानिक अशुद्धियां फैला सकते हैं, खतरों पर पूरी तरह चर्चा नहीं कर सकते और गलत जानकारी के प्रसार को बढ़ावा दे सकते हैं।
कंपनी की शर्तें
ChatGPT के डेवलपर OpenAI ने अपनी टर्म्स ऑफ यूज़ में स्पष्ट किया है कि उसके आउटपुट को सत्य का एकमात्र स्रोत या पेशेवर सलाह का विकल्प नहीं माना जाना चाहिए।
शर्तों में यह भी साफ लिखा है कि यह सर्विस किसी भी चिकित्सा स्थिति का निदान या उपचार करने के लिए नहीं है।
AI का सही उपयोग
विशेषज्ञ मानते हैं कि AI टूल्स सामान्य जानकारी के लिए उपयोगी हो सकते हैं, लेकिन इन्हें कभी भी पेशेवर परामर्श का स्थान नहीं लेना चाहिए।
जैसे-जैसे AI का इस्तेमाल बढ़ रहा है, वैसे-वैसे यह सुनिश्चित करने की जिम्मेदारी भी बढ़ रही है कि इसके नतीजे सटीक, सुरक्षित और आसानी से समझने योग्य हों।
न्यूयॉर्क का यह मामला इस बात की गंभीर चेतावनी है कि AI हेल्थ एडवाइज को बिना जांचे-परखे अपनाना खतरनाक हो सकता है। AI आपके सवालों का जवाब दे सकता है, लेकिन आपके स्वास्थ्य का निर्णय हमेशा योग्य डॉक्टर की सलाह पर ही होना चाहिए।
Discover more from KKN Live
Subscribe to get the latest posts sent to your email.