भारत सरकार का “IndiaAI Mission” अब आर्टिफिशियल इंटेलिजेंस के दुरुपयोग को रोकने और भरोसेमंद AI के विकास की दिशा में एक बड़ा कदम उठा रहा है। सूचना प्रौद्योगिकी मंत्रालय (MeitY) के तहत शुरू की गई इस पहल में अब पाँच उन्नत प्रोजेक्ट्स को चुना गया है, जिनका मुख्य उद्देश्य है — डीपफेक, AI बायस, और जनरेटिव AI के दुरुपयोग से निपटना।
इन प्रोजेक्ट्स का नेतृत्व देश के प्रमुख तकनीकी संस्थान जैसे IIT जोधपुर, IIT मद्रास, IIT मंडी, IIT खड़गपुर और IIIT धारवाड़ कर रहे हैं। प्रत्येक प्रोजेक्ट का लक्ष्य है सुरक्षित, पारदर्शी और जिम्मेदार AI इकोसिस्टम का निर्माण करना।
1. “Saakshya” – डीपफेक मीडिया की पहचान के लिए मल्टी-एजेंट सिस्टम
IIT जोधपुर और IIT मद्रास मिलकर “Saakshya” नामक एक अत्याधुनिक फ्रेमवर्क विकसित कर रहे हैं। यह सिस्टम Retrieval-Augmented Generation (RAG) तकनीक पर आधारित होगा, जो डीपफेक इमेज, वीडियो और टेक्स्ट कंटेंट की सटीक पहचान करने में सक्षम होगा। इसका उद्देश्य केवल गलत कंटेंट पकड़ना नहीं, बल्कि उसके सोर्स, कॉन्टेक्स्ट और इंटेंट को समझना भी है — ताकि प्रशासनिक एजेंसियों और सोशल मीडिया प्लेटफॉर्म्स को फेक न्यूज और मैनिपुलेटेड कंटेंट के खिलाफ ठोस सबूत मिल सकें। यह सिस्टम भविष्य में भारत के डिजिटल गवर्नेंस मॉडल में भी एक “AI-based evidence verification tool” के रूप में काम कर सकता है।

2. “AI Vishleshak” – डीपफेक ऑडियो और फर्जी हस्ताक्षर की पहचान
IIT मंडी ने हिमाचल प्रदेश की Directorate of Forensic Services के साथ मिलकर “AI Vishleshak” प्रोजेक्ट शुरू किया है। यह एक Explainable AI (XAI) आधारित सिस्टम होगा जो ऑडियो-वीडियो डीपफेक, फर्जी हस्ताक्षर और दस्तावेजों की असलियत की जांच कर सकेगा। “AI Vishleshak” का मकसद फोरेंसिक टीमों को ऐसे टूल्स देना है जो अदालतों में AI-जनित सबूतों की प्रामाणिकता साबित करने में मदद कर सकें। इस तकनीक का सबसे बड़ा फायदा यह होगा कि यह न केवल “डीपफेक है या नहीं” बताएगी, बल्कि क्यों और कैसे वह नकली है — यह भी स्पष्ट करेगी।
3. IIT खड़गपुर का “Real-Time Voice Deepfake Detection System”
वॉइस-क्लोनिंग तकनीक तेजी से लोकप्रिय हो रही है — और इसी से सबसे बड़ा खतरा है वॉइस फ्रॉड का।इस चुनौती से निपटने के लिए IIT खड़गपुर एक ऐसा रियल-टाइम डिटेक्शन सिस्टम बना रहा है जो किसी व्यक्ति की आवाज़ के डीपफेक संस्करण को तुरंत पहचान सकेगा। यह सिस्टम कॉल सेंटर, बैंकिंग, साइबर सुरक्षा और सोशल मीडिया प्लेटफॉर्म्स के लिए बेहद उपयोगी साबित हो सकता है। विशेषज्ञों का मानना है कि आने वाले समय में वॉइस डीपफेक्स से फेक वेरिफिकेशन कॉल और घोटाले बढ़ सकते हैं, ऐसे में यह पहल बेहद समयानुकूल है।
4. Digital Futures Lab और Karya का “AI Bias Evaluation” प्रोजेक्ट
AI के विकास में बायस (bias) यानी पक्षपात एक बड़ी चुनौती है। Digital Futures Lab और Karya मिलकर कृषि क्षेत्र में इस्तेमाल होने वाले AI लैंग्वेज मॉडल्स में जेंडर बायस की जांच करेंगे। यह प्रोजेक्ट यह समझने की कोशिश करेगा कि क्या AI टूल्स महिलाओं किसानों के संदर्भ में गलत या भेदभावपूर्ण सुझाव दे रहे हैं। यह प्रयास भारत के AI ethics framework को मजबूत बनाने की दिशा में एक अहम कदम माना जा रहा है।

5. “Anvil” – जनरेटिव AI के लिए Penetration Testing Toolkit
अंतिम प्रोजेक्ट “Anvil” को Globals ITES और IIIT धारवाड़ मिलकर विकसित कर रहे हैं। यह एक उन्नत Penetration Testing Toolkit होगा, जो बड़े लैंग्वेज मॉडल्स (LLMs) और जनरेटिव AI सिस्टम्स की सुरक्षा कमजोरियों की जांच करेगा। “Anvil” के जरिए डेवलपर्स यह पता लगा सकेंगे कि किसी मॉडल को गलत इनपुट देकर या प्रॉम्प्ट इंजेक्शन से कैसे गुमराह किया जा सकता है, और उसे सुरक्षित बनाने के उपाय क्या हैं। यह कदम AI सुरक्षा को राष्ट्रीय साइबर रक्षा ढांचे से जोड़ने की दिशा में एक महत्वपूर्ण प्रगति है।
AI को ‘सुरक्षित और भरोसेमंद’ बनाने की ओर भारत का कदम
MeitY के अनुसार, इन पाँच प्रोजेक्ट्स के जरिए भारत AI सुरक्षा, नैतिकता और पारदर्शिता के क्षेत्र में वैश्विक स्तर पर अपनी स्थिति मजबूत कर रहा है। “IndiaAI Mission” का लक्ष्य केवल तकनीक विकसित करना नहीं, बल्कि ऐसा AI इकोसिस्टम बनाना है जो सामाजिक न्याय, जवाबदेही और डिजिटल भरोसे पर आधारित हो। डीपफेक्स और जनरेटिव AI के युग में जहां गलत सूचना और डेटा मैनिपुलेशन का खतरा बढ़ रहा है, वहीं भारत के ये प्रोजेक्ट्स एक सुरक्षित डिजिटल भविष्य की दिशा में आशा की किरण हैं। “Saakshya” से लेकर “Anvil” तक, हर पहल का उद्देश्य स्पष्ट है — AI को अधिक पारदर्शी, जिम्मेदार और इंसानों के लिए सुरक्षित बनाना।