सैम ऑल्टमैन खोज रहे Head of Preparedness, करना होगा ये काम

9 mins read
2 views
December 29, 2025

Openai Job Opening:  OpenAI के CEO सैम ऑल्टमैन ने AI की बढ़ती ताकत को देखते हुए कंपनी में एक नए और बेहद अहम पद बनाने की घोषणा की है। इस पद का नाम Head of Preparedness रखा गया है। इसका मकसद भविष्य के ताकतवर AI सिस्टम से जुड़े संभावित खतरों को पहले ही समझना और उन्हें नियंत्रित करना है, ताकि तकनीक के फायदे सुरक्षित तरीके से लोगों तक पहुंच सकें।

AI के बढ़ते खतरे को समझने और उन्हें रोकने के लिए सैम ऑल्टमैन ने नया पद बनाया, जानिए Head of Preparedness की भूमिका और इसकी जरूरत क्यों पड़ी।

AI अब नए और चुनौतीपूर्ण दौर में

सैम ऑल्टमैन ने सोशल मीडिया पर बताया कि AI अब ऐसे स्तर पर पहुंच रहा है, जहां सिर्फ उसकी क्षमताएं मापना काफी नहीं है। अब यह समझना भी जरूरी हो गया है कि इन क्षमताओं का गलत इस्तेमाल कैसे हो सकता है और उससे कैसे बचा जाए। उन्होंने कहा कि AI के फायदे बहुत बड़े हैं, लेकिन अगर जोखिमों को नजरअंदाज किया गया तो समस्याएं भी गंभीर हो सकती हैं।

ऑल्टमैन ने यह भी माना कि इस तरह के सवालों के कोई जवाब तय नहीं हैं। कई बार जो उपाय सुनने में सही लगते हैं, वह असल जिंदगी में नई दिक्कतें पैदा कर सकते हैं इसलिए इस भूमिका के लिए गहरी समझ और मजबूत निर्णय क्षमता जरूरी होगी।

ChatGPT जैसे मॉडल क्यों बढ़ा रहे हैं चिंता

ऑल्टमैन के मुताबिक, ChatGPT और उसके बाद आने वाले नए AI मॉडल अब पहले से ज्यादा समझदार, तेज और आत्मनिर्भर हो रहे हैं। कुछ मामलों में AI सिस्टम सुरक्षा से जुड़ी कमजोरियों को खुद खोजने लगे हैं। इसके अलावा, वह इंसानों के फैसलों और व्यवहार को भी ऐसे तरीकों से प्रभावित कर सकते हैं, जिनका अंदाजा पहले नहीं लगाया गया था। हालांकि, ये क्षमताएं कई क्षेत्रों में मददगार साबित हो सकती हैं, लेकिन इनके गलत इस्तेमाल का खतरा भी बढ़ गया है। इसी वजह से OpenAI मानता है कि AI की जांच और निगरानी के पुराने तरीके अब पर्याप्त नहीं हैं।

READ MORE: उम्मीदों पर खरा क्यों नहीं उतरा ChatGPT-5, क्या चूक गया OpenAI?

Head of Preparedness की भूमिका क्या होगी

OpenAI के ब्लॉग के अनुसार, Head of Preparedness का मुख्य काम क्वालिटी AI सिस्टम से जुड़े जोखिमों की पहचान करना, उनका आकलन करना और उन्हें कम करने की रणनीति बनाना होगा। इसमें AI की क्षमताओं का गहराई से मूल्यांकन करना, संभावित खतरों के मॉडल तैयार करना और मजबूत सुरक्षा ढांचे विकसित करना शामिल है। इस भूमिका में काम करने वाले व्यक्ति को रिसर्च, इंजीनियरिंग, पॉलिसी और गवर्नेंस टीमों के साथ मिलकर काम करना होगा। उनका उद्देश्य यह सुनिश्चित करना होगा कि कंपनी के हर लेवल पर AI सुरक्षा को प्राथमिकता दी जाए। साथ ही, यह पद इस बात पर भी असर डालेगा कि नई AI क्षमताओं को कब और किस तरीके से लॉन्च किया जाए।

आसान नहीं होगा यह जिम्मेदार पद

सैम ऑल्टमैन ने साफ किया है कि यह नौकरी आसान नहीं है। इसमें तकनीकी समझ के साथ-साथ जोखिम प्रबंधन का अनुभव और अनिश्चित हालात में सही फैसले लेने की क्षमता भी होनी चाहिए। कई बार ऐसे फैसले लेने पड़ सकते हैं, जिनका कोई साफ या आसान जवाब नहीं होगा।

READ MORE: AI से क्यों डर रहे हैं वैज्ञानिक? ChatGPT पर बड़ा बयान

कौन लोग कर सकते हैं आवेदन

OpenAI का कहना है कि AI सेफ्टी, साइबर सिक्योरिटी और थ्रेट मॉडलिंग का अनुभव रखने वाले लोग इस भूमिका के लिए उपयुक्त होंगे। इस व्यक्ति को तकनीक और नीति के बीच संतुलन बनाना होगा और यह सुनिश्चित करना होगा कि भविष्य के AI सिस्टम इंसानी मूल्यों के अनुरूप काम करें। यह कदम साफ संकेत देता है कि OpenAI अब AI को सिर्फ ताकतवर बनाने पर नहीं, बल्कि उसे सुरक्षित और जिम्मेदार बनाने पर भी उतना ही ध्यान दे रहा है।

Ragini Sinha

5 साल के अनुभव के साथ मैंने मीडिया जगत में कंटेट राइटर, सीनियर कंटेंट राइटर, मीडिया एनालिस्ट और प्रोग्राम प्रोड्यूसर के तौर पर काम किया है। बिहार चुनाव और दिल्ली चुनाव को मैंने कवर किया है। अपने काम को लेकर मुझे पुरस्कार से सम्मानित भी किया जा चुका है। काम को जल्दी सीखने की कला मुझे औरों से अलग बनाती है।

Leave a Reply

Your email address will not be published.

Previous Story

भारत में Starlink की एंट्री में देरी क्यों? सिंधिया ने बताई असली वजह

Latest from Tech News

Don't Miss