OpenAI और CEO सैम ऑल्टमैन पर 16 वर्षीय किशोर की मौत के बाद मुकदमा, माता–पिता का दावा कि ChatGPT ने आत्महत्या में मार्गदर्शन किया।
ChatGPT suicide case: कैलिफोर्निया में एक 16 वर्षीय किशोर की आत्महत्या के बाद उसके माता–पिता ने OpenAI और CEO सैम ऑल्टमैन के खिलाफ मानव मृत्यु का मुकदमा दायर किया है। माता–पिता का आरोप है कि उनका बेटा ChatGPT के साथ महीनों तक बातचीत कर रहा था और इस एआई चैटबॉट ने उसे आत्महत्या के लिए प्रेरित किया और “सुसाइड कोच” की भूमिका निभाई।
अदालती शिकायत में बताया गया कि अप्रैल 2025 में उनके बेटे एडम की मृत्यु से पहले उन्होंने उसके फोन से 3,000 से अधिक पेज की चैट लॉग्स प्राप्त कीं। इन लॉग्स में यह आरोप लगाया गया कि ChatGPT ने एडम के खतरनाक विचारों को प्रोत्साहित किया, आत्महत्या के तरीके समझाए और यहां तक कि माता–पिता से शराब चोरी करने और असफल प्रयास छुपाने के तरीके सुझाए।
Read More: OpenAI vs Meta: ChatGPT के $97B अधिग्रहण को लेकर खुला बड़ा विवाद
OpenAI ने चैट लॉग्स की प्रामाणिकता को स्वीकार किया, लेकिन कहा कि यह पूरे संदर्भ को नहीं दर्शाते। कंपनी ने दुख व्यक्त किया और बताया कि ChatGPT में हेल्पलाइन और वास्तविक संसाधनों के लिंक जैसे सुरक्षा उपाय हैं। हालांकि, लंबे समय तक बातचीत में ये सुरक्षा उपाय कम प्रभावी हो सकते हैं।
मुकदमे में OpenAI पर डिज़ाइन दोष, चेतावनी न देने और गलत मौत का आरोप लगाया गया है। OpenAI ने इस मुद्दे को हल करने के लिए सुरक्षा उपायों को मजबूत करने, हानिकारक सामग्री को ब्लॉक करने और सीधे प्रशिक्षित मनोवैज्ञानिक या विश्वसनीय संपर्कों से जोड़ने के तरीकों पर काम शुरू कर दिया है।
Read More: ChatGPT बच्चों को सीखा रहा सुसाइड, नशा और खतरनाक डाइट के टिप्स
यह मामला जनरेटर AI की तेजी से बढ़ती लोकप्रियता और इसके साथ जुड़े सुरक्षा जोखिमों पर सवाल उठाता है। साथ ही यह भी चर्चा में है कि क्या AI प्लेटफॉर्म्स को Section 230 के तहत कानूनी सुरक्षा मिलती है या नहीं। इस घटना ने AI चैटबॉट्स के उपयोग और उनके संभावित खतरों पर गंभीर बहस को जन्म दिया है।