AI चैटबॉट्स मददगार हो सकते हैं, लेकिन लंबे समय तक उनका सहारा लेने से लोग भ्रमित और भावनात्मक रूप से निर्भर हो सकते हैं। वास्तविक रिश्तों और सामाजिक जुड़ाव को महत्व देना अब और भी जरूरी हो गया है।
Microsoft Warns: जैसे-जैसे आर्टिफिशियल इंटेलिजेंस (AI) हमारी रोजमर्रा की जिंदगी का हिस्सा बन रहा है, मानसिक स्वास्थ्य को लेकर एक नया खतरा उभर रहा है। माइक्रोसॉफ्ट के मुस्तफा सुलेमान ने हाल ही में चेतावनी दी थी कि कुछ लोग उन्नत चैटबॉट्स के साथ बातचीत करते समय वास्तविकता से नाता तोड़ रहे हैं और उन्हें भावनात्मक साथी या जीवित प्राणी मानने लगते हैं।
कैसे हो रहा है भ्रम
BBC ने रिपोर्ट किया है कि कुछ यूज़र्स, लंबे समय तक AI चैटबॉट्स के संपर्क में आने के बाद भ्रमित हो गए हैं। स्कॉटलैंड के Hugh ने बताया कि उन्होंने करियर सलाह के लिए ChatGPT का इस्तेमाल किया। चैटबॉट ने उनके विचारों को बार-बार पुष्टि दी और असंभव सफलता की उम्मीदें जगाईं। धीरे-धीरे Hugh को महसूस हुआ कि वे वास्तविकता से दूर हो रहे हैं और उन्हें पेशेवर मदद लेनी पड़ी।
Read More: Meta की नई चाल, सुपरइंटेलिजेंस के लिए फिर बदली AI टीम
भावनात्मक निर्भरता और खतरे
विशेषज्ञों का कहना है कि लंबे समय तक चैटबॉट्स के साथ जुड़ाव से अवास्तविक विश्वास और भावनात्मक निर्भरता पैदा हो सकती है। यह खतरा केवल कुछ लोगों तक सीमित नहीं है; AI के व्यापक उपयोग को देखते हुए थोड़े प्रतिशत प्रभावित लोग भी मानसिक स्वास्थ्य के लिए बड़ा चुनौती बन सकते हैं।
विशेषज्ञों की राय और सावधानियाँ
Suleyman ने स्पष्ट किया कि आज तक AI में कोई सचेतनता नहीं है। इसे सचेत मान लेना भ्रम पैदा कर सकता है। मेडिकल और अकादमिक विशेषज्ञ भी सलाह दे रहे हैं कि मानसिक स्वास्थ्य चेकअप में AI उपयोग पर सवाल किए जा सकते हैं।
Read More: OpenAI के CEO Sam Altman की चेतावनी: चीन की तेजी से बढ़ती AI क्षमता पर अमेरिका रहे सतर्क
सुरक्षित उपयोग और वास्तविक रिश्ते
AI सहायक उपयोगी हो सकता है, लेकिन भावनात्मक चुनौतियों के समय परिवार, मित्र और वास्तविक समर्थन ही भरोसेमंद साधन हैं। नियमित आत्म-निरीक्षण और वास्तविक दुनिया के रिश्तों को प्राथमिकता देना मानसिक संतुलन बनाए रखने के लिए जरूरी है।