Home Health ChatGPT की खतरनाक सलाह से न्यूयॉर्क का शख्स अस्पताल में भर्ती

ChatGPT की खतरनाक सलाह से न्यूयॉर्क का शख्स अस्पताल में भर्ती

अगर आप भी ChatGPT से फिटनेस टिप्स या डाइट प्लान लेते हैं, तो सावधान हो जाइए। आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट से मिली स्वास्थ्य संबंधी गलत सलाह आपको गंभीर खतरे में डाल सकती है। न्यूयॉर्क में एक 60 वर्षीय व्यक्ति इसका शिकार बन गया और उसे अस्पताल में भर्ती होना पड़ा।

कैसे शुरू हुआ मामला

रिपोर्ट के अनुसार, इस व्यक्ति ने ChatGPT की सलाह पर अपने आहार से नमक की मात्रा अचानक लगभग शून्य कर दी। लंबे समय तक ऐसा करने से उसके शरीर में सोडियम का स्तर खतरनाक रूप से कम हो गया। डॉक्टरों ने इसे हाइपोनेट्रेमिया (Hyponatremia) बताया, जो गंभीर और जानलेवा स्थिति हो सकती है।

परिवार का कहना है कि उसने यह हेल्थ प्लान डॉक्टर से सलाह लिए बिना अपनाया और पूरी तरह AI की जनरेटेड गाइडलाइंस पर भरोसा किया।

अस्पताल में भर्ती और इलाज

यह मामला American College of Physicians Journal में प्रकाशित हुआ, जिसमें बिना प्रोफेशनल निगरानी के AI हेल्थ एडवाइज के खतरों पर जोर दिया गया। करीब तीन हफ्ते अस्पताल में रहने के बाद मरीज की हालत में सुधार हुआ और उसे छुट्टी मिल गई।

खतरनाक सुझाव

Times of India की रिपोर्ट के मुताबिक, उस व्यक्ति ने ChatGPT से पूछा कि अपने आहार से सोडियम क्लोराइड (टेबल सॉल्ट) कैसे हटाएं। AI ने उसे इसके स्थान पर सोडियम ब्रोमाइड लेने का सुझाव दिया, जो 20वीं सदी की शुरुआत में दवाओं में इस्तेमाल होता था लेकिन अब बड़ी मात्रा में जहरीला माना जाता है।

उसने यह सलाह मानकर ऑनलाइन सोडियम ब्रोमाइड खरीदा और तीन महीने तक खाना बनाने में इसका इस्तेमाल किया।

लक्षण और बिगड़ती हालत

व्यक्ति को पहले कोई मानसिक या शारीरिक बीमारी नहीं थी। लेकिन कुछ हफ्तों में ही उसे मतिभ्रम, पैरानॉया (Paranoia) और अत्यधिक प्यास जैसे लक्षण दिखने लगे।

अस्पताल में भर्ती होने पर वह भ्रमित नजर आया और दूषित होने के डर से पानी पीने से भी मना कर दिया। डॉक्टरों ने जांच के बाद पाया कि वह ब्रोमाइड टॉक्सिसिटी से पीड़ित है — यह एक दुर्लभ स्थिति है, लेकिन कभी चिंता, अनिद्रा और अन्य बीमारियों के लिए ब्रोमाइड का उपयोग होने पर आम थी।

इसके साथ ही उसे तंत्रिका संबंधी समस्याएं, त्वचा पर मुंहासों जैसे दाने और लाल धब्बे भी थे, जो ब्रोमिज्म के लक्षण हैं।

इलाज की प्रक्रिया

अस्पताल में उसका मुख्य इलाज रीहाइड्रेशन और इलेक्ट्रोलाइट संतुलन बहाल करने पर केंद्रित था। तीन हफ्तों में धीरे-धीरे उसकी हालत में सुधार हुआ। सोडियम और क्लोराइड स्तर सामान्य होने पर उसे छुट्टी दे दी गई।

विशेषज्ञों की चेतावनी

केस स्टडी के लेखकों ने AI टूल्स से बढ़ते स्वास्थ्य संबंधी गलत सूचनाओं के खतरे पर जोर दिया। उनका कहना है कि ChatGPT जैसे टूल्स वैज्ञानिक अशुद्धियां फैला सकते हैं, खतरों पर पूरी तरह चर्चा नहीं कर सकते और गलत जानकारी के प्रसार को बढ़ावा दे सकते हैं।

कंपनी की शर्तें

ChatGPT के डेवलपर OpenAI ने अपनी टर्म्स ऑफ यूज़ में स्पष्ट किया है कि उसके आउटपुट को सत्य का एकमात्र स्रोत या पेशेवर सलाह का विकल्प नहीं माना जाना चाहिए।

शर्तों में यह भी साफ लिखा है कि यह सर्विस किसी भी चिकित्सा स्थिति का निदान या उपचार करने के लिए नहीं है।

AI का सही उपयोग

विशेषज्ञ मानते हैं कि AI टूल्स सामान्य जानकारी के लिए उपयोगी हो सकते हैं, लेकिन इन्हें कभी भी पेशेवर परामर्श का स्थान नहीं लेना चाहिए।

जैसे-जैसे AI का इस्तेमाल बढ़ रहा है, वैसे-वैसे यह सुनिश्चित करने की जिम्मेदारी भी बढ़ रही है कि इसके नतीजे सटीक, सुरक्षित और आसानी से समझने योग्य हों।

न्यूयॉर्क का यह मामला इस बात की गंभीर चेतावनी है कि AI हेल्थ एडवाइज को बिना जांचे-परखे अपनाना खतरनाक हो सकता है। AI आपके सवालों का जवाब दे सकता है, लेकिन आपके स्वास्थ्य का निर्णय हमेशा योग्य डॉक्टर की सलाह पर ही होना चाहिए।

Read this article in

KKN लाइव WhatsApp पर भी उपलब्ध है, खबरों की खबर के लिए यहां क्लिक करके आप हमारे चैनल को सब्सक्राइब कर सकते हैं।

KKN Public Correspondent Initiative

NO COMMENTS

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Exit mobile version