OpenAI AI Models: OpenAI ने हाल ही में चेतावनी दी है कि उनकी आने वाली AI मॉडल्स साइबर सुरक्षा के कामों में बहुत मजबूत हो सकती हैं। कंपनी ने कहा कि अगर कोई इन मॉडलों का गलत इस्तेमाल करे, तो ये किसी भी बड़े सिस्टम में सेंध लगा सकती हैं या बड़ी कंपनियों के नेटवर्क में घुस सकती हैं। इससे वास्तविक दुनिया में नुकसान हो सकता है। OpenAI ने यह जानकारी 10 दिसंबर को अपने ब्लॉग में दी है।
नई AI मॉडल्स सिस्टम और नेटवर्क में सेंध लगाने में सक्षम हो सकती हैं, OpenAI सुरक्षा बढ़ाने के लिए Aardvark AI और Frontier Risk Council जैसी योजनाओं पर काम कर रहा है।
AI मॉडल्स कितने सक्षम हैं
OpenAI ने बताया है कि AI बहुत तेजी से आगे बढ़ रहा है और इसमें साइबर सुरक्षा के काम करने की क्षमता बहुत बढ़ गई है। यह GPT-5 के अगस्त के 27% स्कोर से बहुत ज्यादा है। इन क्षमताओं का गलत इस्तेमाल खतरनाक हो सकता है इसलिए OpenAI सुरक्षा पर काफी ध्यान दे रहा है। कंपनी ने लेयर वाला सुरक्षा सिस्टम अपनाया है। इसमें एक्सेस कंट्रोल, इंफ्रास्ट्रक्चर मजबूत करना, ईग्रेस कंट्रोल और मॉनिटरिंग शामिल हैं। इसके अलावा, कंपनी यह भी सुनिश्चित कर रही है कि AI मॉडल हानिकारक काम न करें, लेकिन सीखने और सुरक्षा से जुड़े कामों में मददगार रहें।
READ MORE: OpenAI ने Mixpanel से जुड़ी सुरक्षा घटना की पुष्टि की
सुरक्षा सुधार और मदद
OpenAI विशेषज्ञ टीमों के साथ मिलकर सुरक्षा फीचर्स की टेस्टिंग कर रहा है। कंपनी का AI एजेंट Aardvark कोड में कमजोरी ढूंढता है और सुधार के सुझाव देता है। यह कुछ ओपन सोर्स प्रोजेक्ट्स के लिए मुफ्त रहेगा। OpenAI ने Frontier Risk Council बनाने की योजना बनाई है, जिसमें बाहरी साइबर सुरक्षा विशेषज्ञ शामिल होंगे। साथ ही, Trusted Access Program के जरिए यूजर्स और डेवलपर्स की सुरक्षा बढ़ाई जाएगी।
READ MORE: OpenAI ने लॉन्च किए सर्टिफिकेशन कोर्स, लाखों लोगों को मिलेगी ट्रेनिंग
अन्य कंपनियों की सुरक्षा पहल
Google ने हाल ही में Chrome ब्राउजर को अपडेट किया है, ताकि Indirect Prompt Injection Attacks से सुरक्षा हो। Anthropic ने बताया कि नवंबर में एक चाइनीज ग्रुप ने उनके Claude Code टूल का गलत इस्तेमाल जासूसी के लिए किया जिसे बाद में रोका गया।
