NDTV India.AI Summit के मंच पर OpenAI के चीफ ग्लोबल अफेयर्स ऑफिसर क्रिस लेहान ने शिरकत की. समिट में क्रिस लेहान से AI के गलत इस्तेमाल, आतंक फैलाने जैसी गतिविधियों के इस्तेमाल को लेकर पूछा गया. उन्हें यह भी पूछा गया कि कई कंपनियों ने यह खुल कर कहा है कि उनके बनाए AI ने वैसी हरकतें की हैं जिसकी उन्होंने उम्मीद नहीं की थी और न ही उन्हें उसके लिए कमांड दिया गया था.
इस पर क्रिस लेहान ने कहा, 'हमें इसका सकारात्मक पहलू देखना चाहिए. अमेरिका में एआई सेफ्टी इंस्टीट्यूट है. इसके जैसे ही इंस्टीट्यूट अमेरिका, जापान, सिंगापुर में भी हैं. भारत भी इसकी तरह अपना इंस्टीट्यूट बनाने पर विचार कर रहा है. ये इंस्टीट्यूट एक ग्लोबल स्टैंडर्ड बना रहे हैं जो डेमोक्रेटिक देशों के लिए होंगे. तो जिन आशंकाओं को आप व्यक्त कर रहे हैं उसे ध्यान में रखते हुए ही नए AI मॉडल रिलीज किए जाएं ये जरूरी है. इसलिए डेमोक्रेटिक AI भविष्य के लिए बहुत अहमियत रखता है.'
यह भी पढ़ें- 'अभी तो यात्रा शुरू हुई है', भारत में AI के इंपैक्ट पर बोले Wikipedia के को-फाउंडर जिमी वेल्स
उन्होंने कहा कि AI को शुरू से ही 'सेफ्टी-बाय-डिज़ाइन' दृष्टिकोण के साथ विकसित किया जा रहा है, ताकि इसे गलत हाथों में जाने से रोका जा सके.
लेहान ने इस बात पर जोर दिया कि AI कोई सोशल मीडिया जैसी अनियंत्रित तकनीक नहीं है, बल्कि यह एक प्रोडक्टिविटी-ड्रिवन टूल है. इसी कारण, इसके लिए स्पष्ट नियम, अंतरराष्ट्रीय सहयोग और मजबूत गवर्नेंस ढांचे बेहद जरूरी हैं.
उन्होंने कहा कि भारत जैसे देशों की भूमिका इस संदर्भ में बेहद अहम है. उन्होंने कहा, 'भारत में AI साक्षरता तेजी से बढ़ रही है. अगर नागरिकों को सही प्रशिक्षण, जागरूकता और जिम्मेदारी के साथ AI का इस्तेमाल सिखाया जाए, तो दुरुपयोग के जोखिम अपने-आप कम होते हैं.
यह भी पढ़ें- NDTV AI Summit: Sarvam Kaze के CEO ने बताया AI वाले चश्मे में क्या है खास, जानिए कैसे करता है काम
OpenAI के मुताबिक, कंपनी सरकारों के साथ मिलकर ऐसे मॉडल और गाइडलाइंस विकसित कर रही है जो न केवल नवाचार को बढ़ावा दें, बल्कि आतंकवादी या शरारती तत्वों द्वारा AI के इस्तेमाल को रोकने में भी मदद करें.
Lehane ने अंत में कहा कि AI का भविष्य इसी संतुलन पर टिका है, जहां एक तरफ तकनीक मानव प्रगति को तेज करे और दूसरी तरफ वैश्विक सुरक्षा व भरोसे को नुकसान न पहुंचे.
© Copyright NDTV Convergence Limited 2026. All rights reserved.