भारत सरकार की नई डिजिटल गाइडलाइंस: Deepfake और फर्जी AI कंटेंट पर लगेगी कड़ी लगाम

नई दिल्ली
 भारत में आर्टिफिशियल इंटेलिजेंस यानी एआई का इस्तेमाल तेजी से बढ़ रहा है, लेकिन इसके साथ ही फर्ज़ी वीडियो, डीपफेक, ऑनलाइन ठगी और गलत जानकारी का खतरा भी बढ़ा है. इन्हीं समस्याओं पर लगाम लगाने के लिए केंद्र सरकार ने आईटी नियमों में बड़ा बदलाव किया है. भारत सरकार ने इंफोर्मेशन टेक्नोलॉजी ((Intermediary Guidelines and Digital Media Ethics Code) रूल्स, 2021 में संशोधन करते हुए नए नियम नोटिफाई किए हैं, जो 20 फरवरी 2026 से लागू होंगे.

इन नए नियमों के तहत अब सोशल मीडिया प्लेटफॉर्म, मैसेजिंग ऐप्स, वीडियो शेयरिंग साइट्स और एआई टूल्स को यह साफ बताना होगा कि कोई कंटेंट एआई से बना है या उसमें एआई का इस्तेमाल किया गया है. भारत सरकार का साफ कहना है कि यूजर्स को यह जानने का हक है कि वो जो भी देख या सुन रहे हैं, वह असली है या आर्टिफिशियल इंटेलिजेंस यानी एआई टेक्नोलॉजी की मदद से बनाया गया है.

एआई और सिंथेटिक कंटेंट की नई परिभाषा

See also  बर्थडे पार्टी में शामिल होने जा रही लड़की को बनाया बंधक, तीन आरोपियों ने किया गैंगरेप

भारत सरकार ने एआई-जनरेटेड कंटेंट और सिंथेटिक कंटेंट की परिभाषा को पहले से ज्यादा बेहतर बना दिया है. अब फोटो, वीडियो, ऑडियो, ग्राफिक्स या किसी भी डिजिटल कंटेंट को, अगर कंप्यूटर या एआई टेक्नोलॉजी से इस तरह बदला गया है कि आम यूज़र को उसमें फर्क न समझ आए, तो उसे सिंथेटिक कंटेंट माना जाएगा. इसका सीधा निशाना डीपफेक कंटेंट है, जिसमें किसी व्यक्ति की नकली वीडियो या आवाज़ बनाकर उसे गलत तरीके से पेश किया जाता है.

ऐसे कंटेंट को अब गैरकानूनी जानकारी की कैटेगिरटी में रखा जाएगा. हालांकि, सरकार ने यह भी साफ किया है कि सामान्य फोटो एडिटिंग, कलर करेक्शन, सबटाइटल जोड़ना, ट्रांसलेशन, पढ़ाई या एक्सेसिबिलिटी से जुड़े काम सिंथेटिक कंटेंट नहीं माने जाएंगे, जब तक कि वो लोगों को गुमराह न करें.

    AI कंटेंट पर लेबलिंग होगी जरूरी: नए नियमों के मुताबिक एआई से बने या बदले गए कंटेंट पर साफ लेबल लगाना अनिवार्य होगा. वीडियो में ऑन-स्क्रीन टैग दिखेगा और ऑडियो कंटेंट की शुरुआत में यह बताया जाएगा कि यह एआई से तैयार किया गया है. इसके अलावा कंटेंट में मेटाडेटा भी जोड़ा जाएगा, जिससे यह पता चल सके कि वह किस प्लेटफॉर्म या टूल से बनाया गया है.

See also  बम की धमकियों के चलते इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने नई गाइडलाइन जारी की

    कंटेंट हटाने की समय सीमा बेहद कम: अब किसी भी गैरकानूनी या नुकसानदेह कंटेंट को हटाने के लिए प्लेटफॉर्म्स को पहले की तरह 36 घंटे नहीं, बल्कि सिर्फ 3 घंटे का समय मिलेगा. आपातकालीन शिकायतों पर कार्रवाई का समय भी घटाकर 2 घंटे कर दिया गया है.
    बड़े सोशल मीडिया प्लेटफॉर्म्स पर सख्ती: Facebook, Instagram, YouTube, X जैसे बड़े प्लेटफॉर्म्स को अब पोस्ट अपलोड करते वक्त यूजर्स से यह घोषणा लेनी होगी कि कंटेंट AI से बना है या नहीं. प्लेटफॉर्म्स को तकनीकी तरीकों से इस दावे की जांच भी करनी होगी और AI कंटेंट को साफ तौर पर अलग दिखाना होगा. नियमों का पालन न करने पर कानूनी कार्रवाई हो सकती है.

    हर तीन महीने यूजर्स को चेतावनी जरूरी: डिजिटल प्लेटफॉर्म्स को अब हर तीन महीने में यूजर्स को यह याद दिलाना होगा कि नियम तोड़ने पर अकाउंट सस्पेंड या बंद हो सकता है. ये नोटिस अंग्रेजी या भारत की 22 आधिकारिक भाषाओं में दिए जा सकते हैं. गंभीर मामलों में प्लेटफॉर्म्स को पुलिस या जांच एजेंसियों को सूचना देना भी अनिवार्य होगा.

See also  दिल्ली-NCR में बारिश से हाहाकार: उड़ानें लेट, सड़कों पर जलभराव से ट्रैफिक जाम

    AI टूल देने वाली कंपनियों की जिम्मेदारी: जो प्लेटफॉर्म एआई या डीपफेक बनाने के टूल देते हैं, उन्हें यूजर्स को साफ चेतावनी देनी होगी कि गलत इस्तेमाल करने पर जेल और कानूनी कार्रवाई हो सकती है. अगर कोई नियम तोड़ता है, तो प्लेटफॉर्म को कंटेंट हटाने, अकाउंट बंद करने, सबूत सुरक्षित रखने और जरूरत पड़ने पर जानकारी शेयर करने की जिम्मेदारी निभानी होगी.

कुल मिलाकर, ये नए नियम भारत में एआई कंटेंट को लेकर अब तक की सबसे सख्त और व्यापक पहल माने जा रहे हैं, जो डिजिटल दुनिया को ज्यादा सुरक्षित बनाने की दिशा में बड़ा कदम हैं.