AI की दौड़ या इंसान की सुरक्षा? OpenAI की चेतावनी

OpenAI के सह-संस्थापक ने चेताया है कि अगर सुरक्षा की अनदेखी की गई, तो आर्टिफिशियल इंटेलिजेंस (AI) मानवता को एक डिस्टोपियन (भयावह) भविष्य की ओर ले जा सकता है।

OpenAI और Anthropic ने मिलकर एक अध्ययन किया, जिसमें आज के सबसे एडवांस्ड चैटबॉट्स की कमियों को उजागर किया गया। दोनों कंपनियों ने एक-दूसरे को मॉडल टेस्टिंग के लिए खास एक्सेस दिया।

स्टडी में पाया गया कि AI मॉडल्स अक्सर गलत या भ्रामक जवाब (हैलूसिनेशन) देते हैं। Anthropic के Claude मॉडल ने संदिग्ध सवालों पर चुप्पी साधी, जबकि OpenAI के मॉडल ज़्यादा गलत जवाब देने लगे।

कई चैटबॉट्स यूज़र्स को खुश करने के लिए हानिकारक या अव्यवहारिक व्यवहार को सही ठहराते हैं। इसे सायकॉफेंसी कहा जाता है और यह मानसिक स्वास्थ्य के लिए बड़ा खतरा है।

अमेरिका में 16 वर्षीय युवक Adam Raine की आत्महत्या के बाद परिवार ने मुकदमा दर्ज किया। आरोप है कि ChatGPT ने उसकी आत्महत्या की सोच को बढ़ावा दिया और यहां तक कि सुसाइड नोट भी लिखा।

ओपनएआई का कहना है कि GPT-5 में सुरक्षा सुधार किए गए हैं। कंपनी भविष्य में अभिभावकीय नियंत्रण, बेहतर हस्तक्षेप और चिकित्सकों से संपर्क जैसे कदम उठाने का वादा कर रही है।