AI म्हणजेच कृत्रिम बुद्धिमत्तेमुळे होणारे चांगले बदल आपण पाहत असतानाच याचं वाईट रूपसुद्धा समोर येऊ लागलं आहे. अनेक प्रसिद्ध सेलेब्रिटीचा चेहरा Deepfake तंत्राचा वापर करून दुसऱ्या व्हिडिओवर लावून तो व्हायरल केला जात आहे. तो बदललेला चेहरा इतका हुबेहूब पद्धतीने त्या व्हिडिओमध्ये ठेवलेला असतो की आता तो व्हिडिओ खरा आहे की खोटा हे सांगणंसुद्धा दिवसेंदिवस अवघड होत आहे. फॉटोशॉपचा वापर करून फोटोमध्ये बदल करता यायचे पण व्हिडिओसाठी आता या नव्या Deepfake चा वापर होतोय!
गेल्या काही दिवसांपासून अभिनेत्री रश्मिकाचा एक लिफ्टमधून बाहेर पडतानाचा व्हिडिओ व्हायरल होत आहे. पण खरेतर तो व्हिडिओ रश्मिकाचा नसून झारा पटेल नावाच्या मॉडेलचा आहे मात्र त्यावर त्या मॉडेलच्या चेहऱ्याऐवजी रश्मिकाचा चेहरा Deepfake वापरुन बसवला आहे आणि सहज व्हिडिओ पाहणाऱ्या कोणत्याही व्यक्तीला त्या व्हिडिओमध्ये रश्मिकाच आहे असं वाटेल!
Deepfake म्हणजे काय आणि हे कसं काम करतं ? : Deepfake म्हणजे असा व्हिडिओ ज्यामध्ये एखाद्या व्यक्तीचा चेहरा किंवा शरीर AI मधी Deep Learning चा वापर करून बदलण्यात आहे जेणेकरून त्यांना दुसऱ्या व्यक्तिप्रमाणे दाखवता येईल. असे व्हिडिओ शक्यतो चुकीच्या उद्देशाने अश्लील किंवा चुकीची माहिती पसरवण्यासाठी तयार केले जात आहेत.
Deep Learning सॉफ्टवेअर किंवा टूलद्वारे एखाद्या अभिनेत्रीचा चेहरा पूर्णपणे Analyse केला जातो आणि मग तो चेहरा एखाद्या पोर्न व्हिडिओमध्ये मूळ व्हिडिओतील पोर्नस्टारच्या जागी त्या अभिनेत्रीचा चेहरा जोडला जातो आणि मग याचं आउटपुट हे इतक्या उत्तम प्रकारे तयार केलेलं असतं की व्हिडिओ खरा आहे की खोटा हे सहज सांगता येत नाही!
https://www.instagram.com/deeptomcruise या इंस्टाग्राम प्रोफाइलवर असे हॉलीवुड सेलेब्रिटीचे अनेक डीपफेक व्हिडिओ तुम्ही पाहू शकाल.
असे व्हिडिओ तयार करण्याचं प्रमाण गेले काही महिन्यात प्रचंड वाढलं असून याचे दुष्परिणाम आता जाणवण्यास सुरुवात झाली आहे. सध्या जगभरात अनेक अभिनेत्रींना किंवा सेलेब्रिटींना यामुळे प्रचंड त्रासाला सामोरं जावं लागत असून हीच गोष्ट उद्या आपल्या सोबत किंवा आपल्या परिचयाच्या व्यक्तिंसोबतसुद्धा होऊ शकते. कारण हे तंत्रज्ञान इंटरनेटवर मोफत आणि सहज उपलब्ध होत आहे!
उद्या राजकीय किंवा वैयक्तिकरित्या बदनामीसाठीही एखाद्या व्यक्तिने कधीच न उच्चारलेले शब्दसुद्धा या तंत्राने त्या व्यक्तिने बोलल्याचं दाखवलं जाऊ शकतं. यामुळे मोठ्या प्रमाणात चुकीची माहिती पसरून त्या व्यक्तिबद्दल गैरसमज पसरु शकतात. याचा वापर भविष्यात एखाद्याला त्रास देणे, धमकावणे, अपमानित करणे यासाठी नक्कीच केला जाऊ शकतो.
Deepfake व्हिडिओ कसा ओळखायचा ?
- प्रथम प्रचलित सोशल मीडियावर संबंधित व्हिडिओ उपलब्ध आहे का ते पहा.
- व्हिडिओचं आउटपुट चांगलं नसेल तर चेहऱ्यावरील हावभाव पाहून लगेच लक्षात येऊ शकतं की तो व्हिडिओ फेक आहे.
- डोळे, केशरचनेचा भाग आणि बोलताना ओठांची हालचाल (Lip Sync) सध्यातरी AI ला पूर्णपणे जमत नाही. तिथे काही चुका नक्की दिसतात.
- चेहऱ्याचं भागदेखील जास्तच सपाट/मऊ असतो आणि सावली योग्य प्रकारे दिसत नाही.
- डीपफेकमध्ये डोळ्यांच्या पापण्यांची उघडझाप अगदीच कमी किंवा खूपच जास्त दिसते.
- चेहरा वेगळ्या दिशेने वळला की काही सेकंद मूळ व्हिडिओमधील चेहरासुद्धा दिसतो!
- जास्त हालचाल असलेल्या क्षणी बरेच रेषा, ब्लर झालेल्या किंवा चुकीच्या आकृत्या दिसतात.
आता बऱ्याच मोठ्या कंपन्या एकत्र येत असून इंटरनेटवरील AI द्वारे तयार करण्यात आलेल्या कंटेंटला त्याप्रकारे लेबल दाखवण्यासाठी प्रयत्न करत आहेत. विशेष म्हणजे यातील बऱ्याच कंपन्याचेच टूल्स वापरुन हे व्हिडिओ तयार होत आहेत!
रश्मिकाने ट्विटर/एक्सवरती याबाबत नाराजी व्यक्त करत याबद्दल सर्वांनी एकत्र येऊन अशा प्रकारच्या चुकीची ओळख निर्माण करणाऱ्या प्रकारांकडे वेळीच लक्ष द्यायला हवं असं म्हटलं आहे. हीच गोष्ट जर शाळेत किंवा कॉलेजमध्ये असताना झाली असती तर याला सामोरं कसं जायचं याची कल्पनासुद्धा करता येत नाही असं तिने सांगितलं आहे. यावर आता अमिताभ बच्चन यांच्या सारख्या सेलेब्रिटीनी रश्मिकाच्या भूमिकेला दुजोरा देत कायदेशीर कारवाईची मागणी केली आहे.
खाली दिलेल्या ट्विटमधील व्हिडिओमुळेच यावेळी निदान चर्चेला तरी सुरुवात झाली आहे आणि AI चा वाईट वापर किती सहजपणे केला जाऊ शकतो याचं उदाहरण समोर आलं आहे.
आता या प्रकरणाच्या बातम्या देतानासुद्धा अनेक न्यूज माध्यमांनी अश्लील Thumbnails चा वापर करत बातम्या शेयर केल्या आहेत. यूट्यूबवर केवळ रश्मिका नावाने सर्च केलं तरी हे सर्व वाईट प्रकार दिसून येतील. यामुळे याबद्दल मीडियाकडून काही होण्याची तर अपेक्षा करू नयेच. मुळात या डीपफेक टूल्सवर बंदी घालणं सुद्धा वाटतं तितकं सोपं नाही. जगभरातील Governments आणि AI कंपनन्यानी एकत्र येऊन याबद्दल उपाय काढण्यासाठी चर्चा करणं मात्र नक्कीच आवश्यक आहे…