आर्टिफिशियल इंटेलिजेंस (AI) जहां एक तरफ ज़िंदगी को आसान बना रहा है, वहीं इसका खतरनाक इस्तेमाल अब आम लोगों की जेब पर भारी पड़ने लगा है। AI Deepfake Scam के ज़रिए साइबर ठग अब न सिर्फ आवाज़ बल्कि चेहरे तक की हूबहू नकल कर रहे हैं, जिससे वीडियो कॉल पर भी पहचान करना मुश्किल हो गया है।
क्या है AI Deepfake Scam?
Deepfake एक ऐसी AI तकनीक है, जिसमें किसी व्यक्ति की आवाज़, चेहरे के हाव-भाव और बोलने के तरीके को डिजिटल रूप से कॉपी किया जाता है। ठग सोशल मीडिया से फोटो, वीडियो और ऑडियो जुटाकर ऐसा वीडियो तैयार कर लेते हैं, जो बिल्कुल असली जैसा लगता है।
वीडियो कॉल पर कैसे हो रही है ठगी?

अब तक ठगी फोन कॉल या मैसेज तक सीमित थी, लेकिन अब WhatsApp, Zoom और अन्य वीडियो कॉलिंग प्लेटफॉर्म भी सुरक्षित नहीं रहे।
ठगी का तरीका कुछ ऐसा होता है:
ठग परिचित व्यक्ति (दोस्त, रिश्तेदार या अधिकारी) की तरह वीडियो कॉल करते हैं
चेहरे और आवाज़ बिल्कुल असली जैसी होती है
तुरंत पैसों की मांग की जाती है
भावनात्मक दबाव बनाया जाता है – “अभी नहीं भेजे तो बड़ा नुकसान हो जाएगा”
कुछ ही मिनटों में बैंक अकाउंट खाली हो जाता है।
सामने आए मामले (Real Incidents)
दिल्ली और गुरुग्राम में कई मामलों में लोगों से वीडियो कॉल पर खुद को कंपनी का सीनियर अधिकारी बताकर लाखों की ठगी की गई।
डिजिटल अरेस्ट स्कैम में ठग पुलिस या CBI अफसर बनकर वीडियो कॉल करते हैं और गिरफ्तारी का डर दिखाकर पैसे ट्रांसफर करवाते हैं।
हाल ही में एक कारोबारी से AI-जनरेटेड वीडियो कॉल के जरिए करीब 1 करोड़ रुपये की ठगी का मामला भी सामने आया।
क्यों बढ़ रहा है Deepfake साइबर अपराध?

सोशल मीडिया पर पर्सनल डेटा की भरमार
AI टूल्स का सस्ता और आसान होना
डिजिटल लेन-देन पर बढ़ती निर्भरता
लोगों में साइबर जागरूकता की कमी
कैसे पहचानें AI Deepfake वीडियो कॉल?

इन संकेतों पर ध्यान दें:
चेहरे की मूवमेंट में हल्की गड़बड़ी
आंखों का कम झपकना
आवाज़ और होंठों की सिंकिंग में फर्क
अचानक पैसे की मांग और जल्दबाज़ी
बचाव के तरीके
वीडियो कॉल पर भी तुरंत पैसे न भेजें
किसी भी आपात स्थिति में दूसरे माध्यम से पुष्टि करें
अनजान कॉल पर बैंक, OTP या UPI डिटेल शेयर न करें
सोशल मीडिया पर निजी फोटो-वीडियो सीमित रखें
साइबर ठगी होने पर तुरंत 1930 हेल्पलाइन या cybercrime.gov.in पर शिकायत करें
सरकार और एजेंसियों की चेतावनी
साइबर क्राइम सेल और गृह मंत्रालय ने AI Deepfake स्कैम को लेकर चेतावनी जारी की है। अधिकारियों का कहना है कि वीडियो कॉल को भी अब सबूत न मानें, जब तक पूरी पुष्टि न हो जाए।
AI तकनीक का गलत इस्तेमाल साइबर अपराध को नए स्तर पर ले जा रहा है। अब सिर्फ कॉल या मैसेज ही नहीं, वीडियो कॉल पर भी सतर्क रहने की जरूरत है। जागरूकता ही इस नई डिजिटल ठगी से बचाव का सबसे बड़ा हथियार है।

