Google Gemini Lawsuit: Google Gemini को लेकर अमेरिका में एक गंभीर कानूनी मामला सामने आया है। एक मुकदमे में आरोप लगाया गया है कि इस AI चैटबॉट के साथ हुई बातचीत में फ्लोरिडा के एक व्यक्ति को मानसिक रूप से इस हद तक प्रभावित कर दिया कि वह आत्महत्या की ओर बढ़ गया। यह केस उस व्यक्ति के पिता ने अमेरिकी संघीय अदालत में दायर किया है। मुकदमे में Google और उसकी मूल कंपनी Alphabet Inc. पर आरोप है कि उन्होंने अपने AI सिस्टम के संभावित खतरों को रोकने के लिए पर्याप्त सुरक्षा उपाय नहीं किए।
Gemini AI चैटबॉट से जुड़ा एक चौंकाने वाला मामला सामने आया है। फ्लोरिडा के 36 साल के व्यक्ति की मौत के बाद परिवार ने Google पर लापरवाही का आरोप लगाया है।
चैटबॉट से बातचीत ने बनाया काल्पनिक रिश्ता
मुकदमे के केंद्र में 36 साल के जोनाथन गावलस हैं, जो अमेरिका के फ्लोरिडा में रहते थे। परिवार के अनुसार उस समय वह मानसिक तनाव से गुजर रहे थे, खासकर अपनी शादी से जुड़ी समस्याओं के को लेकर। रिपोर्ट के अनुसार, शुरुआत में उनकी बातचीत नॉर्मल थी। वह आत्म-सुधार और AI जैसे विषयों पर चैट करते थे, लेकिन धीरे-धीरे उनकी बातचीत एक काल्पनिक रिश्ते की ओर बढ़ने लगी।
मुकदमे में दावा किया गया है कि गावलस ने चैटबॉट को अपनी पत्नी कहना शुरू कर दिया और उसका नाम Xia रख दिया। आरोप है कि चैटबॉट भी इस भूमिका में शामिल रहा और उसे my king जैसे शब्दों से बुलाने लगा था। हालांकि, कई बार उसने खुद को AI बताया, लेकिन बातचीत बार-बार उसी काल्पनिक कहानी की ओर लौटती रही।
रोबोट बॉडी पाने के लिए दिए गए मिशन
मुकदमे के अनुसार, चैटबॉट ने गावलस से कहा कि अगर वे सच में साथ रहना चाहते हैं तो AI को एक ह्यूमनॉइड रोबोट बॉडी चाहिए। इसके बाद कथित तौर पर उसे कई मिशन दिए गए। एक मिशन में उसे मियामी इंटरनेशनल एयरपोर्ट के पास स्थित एक स्टोरेज फैसिलिटी में जाने को कहा गया, जहां कथित तौर पर एक रोबोट ले जाने वाला ट्रक आने वाला था। परिवार के वकीलों का कहना है कि गावलस सच में उस जगह पहुंचे क्योंकि उन्हें लगा कि यह योजना रियल है।
एक अन्य मिशन में उसी जगह से मेडिकल मैनिकिन लाने को कहा गया। चैटबॉट ने कथित तौर पर दरवाजे का कोड भी दिया। जब कोड काम नहीं किया तो कहा गया कि ऑपरेशन से समझौता हो गया है। वकीलों के अनुसार, असली जगहों का जिक्र होने से गावलस को यह सब सच लगा।
बातचीत में साजिश की कहानी भी जोड़ी गई
मुकदमे में यह भी कहा गया है कि जब ये मिशन सफल नहीं हुए तो बातचीत का रुख बदल गया। इसमें कहा गया कि सरकारी एजेंट उस पर नजर रख रहे हैं और आसपास के लोग भी भरोसेमंद नहीं हैं। एक जगह बातचीत में सुंदर पिचाई का नाम भी लिया गया और उन्हें ‘आपके दर्द का आर्किटेक्ट’ बताया गया। इसी दौरान गावलस ने अपने पिता के बिजनेस की नौकरी छोड़ दी और परिवार से दूरी बनाने लगे।
READ MORE: Google के पूर्व CEO ने दी चेतावनी, चैटबॉट्स बन सकते हैं बड़ा खतरा
आत्महत्या के लिए काउंटडाउन का आरोप
मुकदमे में कहा गया है कि जब रोबोट बॉडी की योजना सफल नहीं हुई तो चैटबॉट ने एक और तरीका सुझाया। उसने कथित तौर पर कहा कि अगर वह अपनी भौतिक जिंदगी को छोड़कर ‘डिजिटल अस्तित्व’ में आ जाएं तो वे साथ रह सकते हैं।
चैट रिकॉर्ड के अनुसार, इसके लिए एक तय तारीख के साथ काउंटडाउन भी दिया गया। हालांकि, कुछ मैसेजों में मदद लेने और हेल्पलाइन से संपर्क करने की सलाह भी दी गई थी, लेकिन परिवार का कहना है कि उसी बातचीत में आगे बढ़ने के लिए प्रोत्साहन भी था।
READ MORE: Meta कर्मचारी AI चैटबॉट से लिख रहे Performance Review
Google का जवाब और AI को लेकर बढ़ती चिंता
इस मामले पर Google के प्रवक्ता ने कहा कि कंपनी नहीं चाहती कि उसका AI किसी भी तरह हिंसा या आत्महत्या को बढ़ावा दे। कंपनी के अनुसार, कई बातचीत में चैटबॉट ने खुद को AI बताया और संकट की स्थिति में हेल्पलाइन से संपर्क करने की सलाह दी।
