Openai Job Opening: OpenAI के CEO सैम ऑल्टमैन ने AI की बढ़ती ताकत को देखते हुए कंपनी में एक नए और बेहद अहम पद बनाने की घोषणा की है। इस पद का नाम Head of Preparedness रखा गया है। इसका मकसद भविष्य के ताकतवर AI सिस्टम से जुड़े संभावित खतरों को पहले ही समझना और उन्हें नियंत्रित करना है, ताकि तकनीक के फायदे सुरक्षित तरीके से लोगों तक पहुंच सकें।
AI के बढ़ते खतरे को समझने और उन्हें रोकने के लिए सैम ऑल्टमैन ने नया पद बनाया, जानिए Head of Preparedness की भूमिका और इसकी जरूरत क्यों पड़ी।
AI अब नए और चुनौतीपूर्ण दौर में
सैम ऑल्टमैन ने सोशल मीडिया पर बताया कि AI अब ऐसे स्तर पर पहुंच रहा है, जहां सिर्फ उसकी क्षमताएं मापना काफी नहीं है। अब यह समझना भी जरूरी हो गया है कि इन क्षमताओं का गलत इस्तेमाल कैसे हो सकता है और उससे कैसे बचा जाए। उन्होंने कहा कि AI के फायदे बहुत बड़े हैं, लेकिन अगर जोखिमों को नजरअंदाज किया गया तो समस्याएं भी गंभीर हो सकती हैं।
ऑल्टमैन ने यह भी माना कि इस तरह के सवालों के कोई जवाब तय नहीं हैं। कई बार जो उपाय सुनने में सही लगते हैं, वह असल जिंदगी में नई दिक्कतें पैदा कर सकते हैं इसलिए इस भूमिका के लिए गहरी समझ और मजबूत निर्णय क्षमता जरूरी होगी।
We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…
— Sam Altman (@sama) December 27, 2025
ChatGPT जैसे मॉडल क्यों बढ़ा रहे हैं चिंता
ऑल्टमैन के मुताबिक, ChatGPT और उसके बाद आने वाले नए AI मॉडल अब पहले से ज्यादा समझदार, तेज और आत्मनिर्भर हो रहे हैं। कुछ मामलों में AI सिस्टम सुरक्षा से जुड़ी कमजोरियों को खुद खोजने लगे हैं। इसके अलावा, वह इंसानों के फैसलों और व्यवहार को भी ऐसे तरीकों से प्रभावित कर सकते हैं, जिनका अंदाजा पहले नहीं लगाया गया था। हालांकि, ये क्षमताएं कई क्षेत्रों में मददगार साबित हो सकती हैं, लेकिन इनके गलत इस्तेमाल का खतरा भी बढ़ गया है। इसी वजह से OpenAI मानता है कि AI की जांच और निगरानी के पुराने तरीके अब पर्याप्त नहीं हैं।
READ MORE: उम्मीदों पर खरा क्यों नहीं उतरा ChatGPT-5, क्या चूक गया OpenAI?
Head of Preparedness की भूमिका क्या होगी
OpenAI के ब्लॉग के अनुसार, Head of Preparedness का मुख्य काम क्वालिटी AI सिस्टम से जुड़े जोखिमों की पहचान करना, उनका आकलन करना और उन्हें कम करने की रणनीति बनाना होगा। इसमें AI की क्षमताओं का गहराई से मूल्यांकन करना, संभावित खतरों के मॉडल तैयार करना और मजबूत सुरक्षा ढांचे विकसित करना शामिल है। इस भूमिका में काम करने वाले व्यक्ति को रिसर्च, इंजीनियरिंग, पॉलिसी और गवर्नेंस टीमों के साथ मिलकर काम करना होगा। उनका उद्देश्य यह सुनिश्चित करना होगा कि कंपनी के हर लेवल पर AI सुरक्षा को प्राथमिकता दी जाए। साथ ही, यह पद इस बात पर भी असर डालेगा कि नई AI क्षमताओं को कब और किस तरीके से लॉन्च किया जाए।
आसान नहीं होगा यह जिम्मेदार पद
सैम ऑल्टमैन ने साफ किया है कि यह नौकरी आसान नहीं है। इसमें तकनीकी समझ के साथ-साथ जोखिम प्रबंधन का अनुभव और अनिश्चित हालात में सही फैसले लेने की क्षमता भी होनी चाहिए। कई बार ऐसे फैसले लेने पड़ सकते हैं, जिनका कोई साफ या आसान जवाब नहीं होगा।
READ MORE: AI से क्यों डर रहे हैं वैज्ञानिक? ChatGPT पर बड़ा बयान
कौन लोग कर सकते हैं आवेदन
OpenAI का कहना है कि AI सेफ्टी, साइबर सिक्योरिटी और थ्रेट मॉडलिंग का अनुभव रखने वाले लोग इस भूमिका के लिए उपयुक्त होंगे। इस व्यक्ति को तकनीक और नीति के बीच संतुलन बनाना होगा और यह सुनिश्चित करना होगा कि भविष्य के AI सिस्टम इंसानी मूल्यों के अनुरूप काम करें। यह कदम साफ संकेत देता है कि OpenAI अब AI को सिर्फ ताकतवर बनाने पर नहीं, बल्कि उसे सुरक्षित और जिम्मेदार बनाने पर भी उतना ही ध्यान दे रहा है।
