उन्होंने बोला कि यह उतना ही सरल होगा जितना कि इन्स्टाग्राम पर फिल्टर लगाना। स्त्रियों को इससे बहुत ज्यादा खतरा होने कि सम्भावना है। किसी के फेक पॉर्न फोटो बनाकर उसे बदनाम करना इस टेक्नॉलजी की मदद से सरल होगा, जिसके परिणाम बुरे हो सकते हैं। अलीभाई ने कहा, ‘इस डीपफेक टेक्नॉलजी को एक हथियार बना देता है। ‘ उन्होंने बोला कि यह खतरा दो स्तर पर है, सबसे पहले तो संबंध टूटेंगे व दूसरे स्तर पर लोगों को ब्लैकमेल किया जा सकता है।
पहले भी आ चुके हैं कई सेलेब्स के फेक वीडियो-
अलीभाई ने कहा, ‘अगर फोटो वेरिफाइ करने व फेक पॉर्न वीडियो से जुड़े सॉल्यूशंस उपलब्ध नहीं हुए तो बहुत ज्यादा परेशानी का सामना करना पड़ सकता है। किसी का किसी पर भी भरोसा करना कठिन हो जाएगा हर वस्तु को संदेह की नजर से देखा जाएगा। ‘ बता दें कि हॉलीवुड ऐक्ट्रेस स्कारलेट जॉनसन समेत कई सिलेब्स के डीपफेक पॉर्न वीडियोज पहले ही इंटरनेट पर सामने आ चुके हैं। कई डीपफेक वीडियो ऐसे भी हैं, जो पॉर्न नहीं हैं लेकिन उनमें डोनाल्ड ट्रंप, बराक ओबामा व मार्क ज़करबर्ग जैसे चेहरे ऐसी बातें बोलते दिख रहे हैं, जो उन्होंने कभी कही ही नहीं।
डीपफेक कैसे करता है काम-
डीपफेक्स डाउनलोडेबल ऐप्स होते हैं जो आर्टिफिशल इंटेलिजेंस व मशीन लर्निंग की मदद से सरलता से पॉर्न वीडियोज में चेहरे बदल देते हैं। इसके लिए उपभोक्ता को पहले ऐसा पॉर्न वीडियो ट्रैक करना होता है, जिसमें दिख रहा चेहरा ऐक्ट्रेस या टारगेट से मिलता-जुलता हो। इसके बाद टारगेट की ढेरों तस्वीरों को फीड कर दिया जाता है व मशीन लर्निंग एल्गोरिथ्म चेहरे को फ्रेम-बाई-फ्रेम विडियो में सेट कर देता है। इस तरह वास्तविक सा दिखने वाला फेक पॉर्न विडियो बन जाता है।