कृत्रिम बुद्धिमत्ता (एआई) के फायदों के साथ नुकसान भी सामने आने लगे हैं। यह कहना उचित ही है कि जैसे-जैसे एआई की क्षमताओं का विस्तार होगा, वास्तविकता और कल्पना के बीच की रेखाएं तेजी से धुंधली होती जाएंगी। अभी तक सोशल मीडिया के जरिए यह जानकारी मिल रही थी कि कुछ वर्षों बाद एआई कितना बदलाव लेकर आ सकती है, लेकिन इसका दूसरा पहलू भी सामने आ रहा है, जिसके मद्देनज़र सावधानी बरतने की ज़रूरत है।
केरल में एआई आधारित वीडियो कॉल के जरिए 40,000 रुपए की ठगी इस किस्म की शुरुआती आपराधिक घटनाओं में से एक है। भविष्य में जब एआई और परिष्कृत हो जाएगी तो साइबर ठग इसका दुरुपयोग कर अधिक लोगों को नुकसान पहुंचाने की कोशिश कर सकते हैं। कोझिकोड में रहने वाले एक व्यक्ति के पास उसके परिचित का वीडियो कॉल आया, जो आंध्र प्रदेश में उसके साथ काम करता था। उसने सामान्य बातचीत के बाद यह कहकर कुछ रुपयों की मांग की कि उसे बहुत ज़रूरत है।
चूंकि दोनों एक-दूसरे को अच्छी तरह जानते थे, वीडियो कॉल पर एक-दूसरे को देख रहे थे, बातचीत कर रहे थे, इसलिए शक करने का सवाल ही नहीं था। उसने 40,000 रुपए भेज दिए। उसके बाद पूर्व सहकर्मी के नाम से फिर वीडियो कॉल आया, जिसमें दोबारा राशि भेजने की मांग की गई। इससे उस व्यक्ति को शक हुआ। उसने फोन किया तो पता चला कि पूर्व सहकर्मी ने न तो वीडियो कॉल के जरिए संपर्क किया था और न ही रुपए मांगे थे! यह एआई आधारित उपकरणों की मदद से धोखाधड़ी की गई थी, जिसके बारे में ज़्यादातर लोगों को अधिक जानकारी नहीं है।
जब वॉट्सऐप या किसी अन्य वीडियो माध्यम से किसी परिचित के नाम से संपर्क किया जाता है तो लोगों के मन में शक की गुंजाइश नहीं होती, क्योंकि वे उसे स्क्रीन पर प्रत्यक्ष देख रहे होते हैं, जो असल में 'आंखों देखा झूठ' होता है। परिचित आवाजों की नकल करके एआई फोन धोखाधड़ी विदेशों में बड़ी समस्या बनती जा रही है। इसके जरिए किसी व्यक्ति की आवाज की कॉपी बनाई जाती है। हू-ब-हू कॉपी बनाने के लिए एल्गोरिदम को प्रशिक्षित करने के वास्ते डेटा की जरूरत होती है। इसके लिए इच्छित लक्ष्य की आवाज़ की बहुत सारी ऑडियो रिकॉर्डिंग का इस्तेमाल किया जाता है।
विशेषज्ञ बताते हैं कि 'किसी व्यक्ति की आवाज़ के जितने ज्यादा उदाहरण एल्गोरिदम में डाले जाते हैं, उसकी अंतिम कॉपी उतनी ही बेहतर होती है। लेकिन एक बार कॉपी बाहर आ जाने पर क्या होता है? सबसे बुरा क्या हो सकता है? एक डीपफेक एल्गोरिदम डेटा रखने वाला किसी भी 'व्यक्ति' से जो चाहे, कहलवाने में सक्षम होता है।'
अमेरिका में तकनीकी विशेषज्ञ डीपफेक के खतरों से चिंतित हैं। हाल में वहां एक मामला बेहद चर्चा में रहा था। एक लड़की अपने दोस्तों के साथ स्कीइंग के लिए गई थी। इस दौरान उसकी मां के फोन पर कॉल आया, जिसमें उसकी बेटी के रोने की आवाज सुनाई दी। इससे वह महिला बुरी तरह घबरा गई। उसने बेटी की सुरक्षा को लेकर कुछ सवाल किए। फोन पर एक पुरुष ने उससे कहा कि 'तुम्हारी बेटी का मैंने अपहरण कर लिया है। अगर वह सही-सलामत चाहिए तो 10 लाख डॉलर भेजो।'
आखिर में दोनों 5 लाख डॉलर पर सहमत हो जाते हैं। जब महिला ने स्कीइंग के लिए गए समूह से फोन पर संपर्क किया तो पता चला कि अपहरण जैसी कोई घटना नहीं हुई थी। एक साइबर अपराधी एआई का दुरुपयोग कर उससे लाखों डॉलर ऐंठने की कोशिश कर रहा था!
चूंकि यह तकनीक अभी नई है, इसलिए आमजन को इसके बारे में विशेष जानकारी नहीं है। साइबर ठगों ने इसे 'सुनहरे मौके' के तौर पर लेते हुए दुरुपयोग शुरू कर दिया है। सरकारों को चाहिए कि वे इन अपराधियों पर कठोर कार्रवाई करें, साइबर सुरक्षा को मजबूत बनाएं। साथ ही आमजन भी जागरूक रहें। ज़रूरी नहीं कि वीडियो कॉल पर जो दिखाई दे, वह हमेशा सच ही हो! विवेक से काम लें।