AI चैटबॉट्स से स्वास्थ्य जानकारी: जोखिम और सावधानियाँ

हालिया अध्ययन में पाया गया है कि AI चैटबॉट्स द्वारा दी गई स्वास्थ्य जानकारी में लगभग 50% उत्तर गलत या अधूरे हो सकते हैं। यह अध्ययन विभिन्न स्वास्थ्य विषयों पर आधारित है और यह दर्शाता है कि AI उत्तरों को आत्मविश्वास के साथ प्रस्तुत करता है, जिससे उपयोगकर्ताओं को गलत जानकारी का सामना करना पड़ सकता है। जानें कि AI का उपयोग कैसे करें ताकि आप स्वास्थ्य संबंधी निर्णय लेते समय सुरक्षित रहें।
 | 
AI चैटबॉट्स से स्वास्थ्य जानकारी: जोखिम और सावधानियाँ gyanhigyan

AI चैटबॉट्स की स्वास्थ्य जानकारी की सटीकता

आपने शायद कभी न कभी, किसी लक्षण को जानने के लिए AI चैटबॉट का उपयोग किया होगा, गूगल पर सर्च करने के बजाय। उत्तर अक्सर आत्मविश्वास से भरा और स्पष्ट लगता है। लेकिन हालिया अध्ययन के अनुसार, यही आत्मविश्वास इसे खतरनाक बना सकता है। BMJ Open में प्रकाशित शोध के अनुसार, लगभग आधे AI-जनित स्वास्थ्य उत्तर गलत या अधूरे होते हैं, भले ही वे सुनने में विश्वसनीय लगें। इसका मतलब है कि आपके द्वारा प्राप्त किए गए 50% उत्तर गलत हो सकते हैं।

इस अध्ययन में ChatGPT, Gemini, Grok, Meta AI, और DeepSeek जैसे पांच प्रमुख AI चैटबॉट्स का मूल्यांकन किया गया। शोधकर्ताओं ने 250 स्वास्थ्य-संबंधित प्रश्नों का परीक्षण किया, जिसमें कैंसर, टीके, पोषण, स्टेम सेल और खेल प्रदर्शन जैसे विषय शामिल थे। परिणाम चिंताजनक थे:

  • 49-50% उत्तरों को समस्याग्रस्त माना गया
  • लगभग 30% उत्तर कुछ हद तक भ्रामक थे
  • करीब 20% उत्तर अत्यधिक समस्याग्रस्त या संभावित रूप से हानिकारक थे


आत्मविश्वास की समस्या

अध्ययन के एक प्रमुख निष्कर्ष में यह पाया गया कि AI उत्तर देने में संकोच नहीं करता। गलत या अधूरे उत्तर भी अक्सर आत्मविश्वास के साथ प्रस्तुत किए जाते हैं। 250 उत्तरों में से, चैटबॉट्स ने केवल दो बार उत्तर देने से इनकार किया। इससे 'गलत भरोसे का अहसास' पैदा होता है। भाषा साफ-सुथरी, संरचित और समझने में आसान होती है, जिससे उपयोगकर्ताओं के लिए सटीकता पर सवाल उठाना कठिन हो जाता है।

हालांकि, सभी विषय समान रूप से समस्याग्रस्त नहीं थे। चैटबॉट्स ने टीकों और कैंसर जैसे क्षेत्रों में अपेक्षाकृत बेहतर प्रदर्शन किया, लेकिन पोषण, स्टेम सेल उपचार, और खेल प्रदर्शन सलाह में काफी संघर्ष किया। ये वही श्रेणियाँ हैं जहां लोग अक्सर त्वरित समाधान या वैकल्पिक उपचार की तलाश करते हैं, जिससे गलत जानकारी का जोखिम और बढ़ जाता है।


यह समस्या क्यों होती है

समस्या यह नहीं है कि AI के पास जानकारी की कमी है, बल्कि यह है कि यह उत्तर कैसे उत्पन्न करता है। AI मॉडल तथ्यों को उसी तरह नहीं जानते जैसे मनुष्य करते हैं। वे प्रशिक्षण डेटा में पैटर्न के आधार पर उत्तरों की भविष्यवाणी करते हैं, जिसमें वैज्ञानिक अनुसंधान, ऑनलाइन फोरम, और सामान्य वेब सामग्री शामिल हो सकती है। इसका मतलब है कि एक उत्तर सटीक चिकित्सा ज्ञान को पुरानी, अधूरी, या भ्रामक जानकारी के साथ मिला सकता है।

अध्ययन में यह भी पाया गया कि चैटबॉट्स द्वारा दिए गए संदर्भ अक्सर अधूरे या अविश्वसनीय होते हैं, जिनकी औसत पूर्णता स्कोर केवल 40% थी। सामान्य प्रश्नों के लिए, जैसे किसी शब्द को समझना या सामान्य स्वास्थ्य सुझाव प्राप्त करना, AI उपयोगी हो सकता है। लेकिन निर्णय लेने के मामले में, जोखिम स्पष्ट हो जाते हैं।


क्या आपको स्वास्थ्य के लिए AI का उपयोग बंद कर देना चाहिए?

जरूरी नहीं, लेकिन इसे कैसे उपयोग किया जाता है, यह महत्वपूर्ण है। AI को एक प्रारंभिक बिंदु के रूप में सोचें, अंतिम उत्तर के रूप में नहीं। यह चिकित्सा शब्दावली को स्पष्ट करने, जानकारी का सारांश देने, या डॉक्टर की यात्रा के लिए आपको तैयार करने में मदद कर सकता है। लेकिन यह पेशेवर सलाह का विकल्प नहीं होना चाहिए, खासकर जब लक्षण, उपचार, या निदान की बात आती है। क्योंकि यदि यह अध्ययन कुछ भी दिखाता है, तो यह है कि AI केवल गलत नहीं होता, बल्कि यह गलतियों को आत्मविश्वास के साथ प्रस्तुत करता है। और जब आपकी स्वास्थ्य की बात आती है, तो यह भेदभाव अधिक महत्वपूर्ण हो जाता है।