विशेषज्ञों ने आगाह किया था कि AI से मेडिकल सलाह लेना खतरनाक हो सकता है, क्योंकि यह अभी भी विकसित हो रहा है। हाल ही में, न्यूयॉर्क के एक 60 वर्षीय व्यक्ति को ChatGPT की गलत सलाह के कारण तीन सप्ताह अस्पताल में बिताना पड़ा।
यह घटना कैसे हुई? टाइम्स ऑफ इंडिया की रिपोर्ट के अनुसार, व्यक्ति ने ChatGPT से पूछा कि नमक को कैसे बदला जाए। AI ने सोडियम ब्रोमाइड का उपयोग करने का सुझाव दिया, जो अब जहरीला माना जाता है।
व्यक्ति ने इस सलाह पर विश्वास किया और तीन महीने तक सोडियम ब्रोमाइड का सेवन किया। इसके परिणामस्वरूप उसे डर, भ्रम, अत्यधिक प्यास और मानसिक उलझन सहित कई गंभीर लक्षण दिखाई दिए। अस्पताल में, उसने पानी पीने से भी इनकार कर दिया, यह मानते हुए कि उसमें कुछ मिलाया गया था। डॉक्टरों ने ब्रोमाइड विषाक्तता का निदान किया।
अस्पताल में डॉक्टरों ने इलेक्ट्रोलाइट्स को संतुलित किया। तीन सप्ताह के बाद, व्यक्ति को छुट्टी दे दी गई। यह मामला अमेरिकन कॉलेज ऑफ फिजिशियन्स की पत्रिका में प्रकाशित हुआ। इसने स्पष्ट रूप से दिखाया कि स्वास्थ्य संबंधी मामलों में AI की सलाह पर भरोसा करना खतरनाक हो सकता है, खासकर नमक जैसे आवश्यक पोषक तत्वों को बदलने की सलाह के लिए।