Manoramaonline.com no longer supports Internet Explorer 8 or earlier. Please upgrade your browser.  Learn more »

പ്രിയങ്ക ചോപ്ര ഒരു ഇരയാണ്, നാളെ നിങ്ങളാകാം, 'വ്യാജ' വിഡിയോ ഭീഷണി

deepfake-video

എഴുതി വിടുന്ന വ്യാജവാര്‍ത്തകളെക്കൊണ്ടു പൊറുതി മുട്ടി നില്‍ക്കുമ്പൊഴാണ് അതിലെത്രെയോ അധികം പ്രശ്‌നം സൃഷ്ടിക്കാവുന്ന ഡീപ്‌ഫെയ്ക് (deepfake) വിഡിയോകള്‍ രംഗപ്രവേശനം ചെയ്തിരിക്കുന്നത്. കരുതിയിരുന്നില്ലെങ്കില്‍ വന്‍ കലാപങ്ങള്‍ പൊട്ടിപ്പുറപ്പെടാന്‍ ഇവ മതിയെന്നതിനാല്‍ ഇവയെക്കുറിച്ച് ഓരോരുത്തരും അറിഞ്ഞിരിക്കണം.

വ്യാജ വാര്‍ത്ത, ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സിന്റെ മികവില്‍ പുതിയ മാനങ്ങള്‍ തേടുകയാണ് ഡീപ്‌ഫെയ്ക് വിഡിയോകളിലൂടെ. ഇന്ത്യന്‍ രാഷ്ടീയവുമായി ബന്ധപ്പെട്ട ഒരാള്‍ ഡീപ്‌ഫെയ്ക് വിഡിയോകള്‍ തയാറാക്കാന്‍ ആവശ്യപ്പെട്ട് ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സ് എൻജിനീയറെ സമീപിച്ചതായും വാര്‍ത്തകള്‍ വന്നിരുന്നു.

ആഴ്ചകൾക്ക് മുൻപ് മുന്‍ അമേരിക്കന്‍ പ്രസിഡന്റ് ബറാക് ഒബാമ, ഇപ്പോഴത്തെ പ്രസിഡന്റ് ഡോണള്‍ഡ് ട്രംപിനെതിരെ അത്ര സുഖകരമല്ലാത്ത ഭാഷയില്‍ സംസാരിക്കുന്ന ഒരു വിഡിയോ പുറത്തിറങ്ങിയിരുന്നു. നല്ല ഭാഷ ഉപയോഗിക്കുന്നതില്‍ ശ്രദ്ധിക്കുന്ന ഒബാമ ഇങ്ങനെ സംസാരിച്ചോ എന്ന് ആളുകള്‍ ചിന്തിച്ചു തുടങ്ങുമ്പോഴാണ് അതൊരു ഡീപ്‌ഫെയ്ക് വിഡിയോ ആണെന്ന കാര്യം പുറത്തുവരുന്നത്. വിഡിയോയില്‍ വളരെ സ്വാഭാവികമായി തോന്നിപ്പിക്കുന്ന രീതിയില്‍ ഒരാളുടെ തല മാറ്റിവച്ചാണ് ഡീപ്‌ഫെയ്ക് വിഡിയോ സൃഷ്ടിക്കുന്നത്. 

ജോര്‍ഡന്‍ പീല്‍ ആണ് ഈ വിഡിയോയ്ക്കു പിന്നില്‍. അദ്ദേഹത്തിന്റെ ഉദ്ദേശം ആര്‍ട്ടഫിഷ്യല്‍ ഇന്റലിജന്‍സിന്റെ സഹായത്തോടെ എത്ര എളുപ്പത്തില്‍ ഇത്തരം വിഡിയോ സൃഷ്ടിക്കമെന്നതും അതുകൊണ്ട് ആളുകള്‍ എന്തുകൊണ്ടു കരുതിയിരിക്കണമെന്ന് പറയുകയുമാണ്. 

എത്ര അപകടകരമാണ് ഇനി വരാന്‍ ഇരിക്കുന്ന കാലം എന്ന മുന്നറിയിപ്പാണ് ഈ വിഡിയൊ തരുന്നത്. ഇന്റര്‍നെറ്റിലൂടെ ഒരു നേതാവോ മറ്റാരെങ്കിലുമൊ നല്‍കുന്ന ആഹ്വാനങ്ങളും മറ്റും മുഖവിലയ്‌ക്കെടുക്കരുതെന്നും അവയുടെ നിജസ്ഥിതി മനസ്സിലാക്കണമെന്നുമാണ് ജോര്‍ഡന്‍ പീലും ബസ്ഫീഡും ഒന്നിച്ചു സൃഷ്ടിച്ച ഈ വിഡിയോ ഓരോരുത്തര്‍ക്കും നല്‍കുന്ന മുന്നറിയിപ്പ്. 

എളുപ്പത്തില്‍ ഡിജിറ്റലായി വ്യാജ കണ്ടെന്റ് സൃഷ്ടിക്കാമെന്ന് നമുക്കറിയാം. ചിത്രങ്ങളും സ്വരവുമൊക്കെ ഇങ്ങനെ മാറ്റുന്ന കാര്യമാണ് ഇതുവരെ കേട്ടിട്ടുള്ളത്. എന്നാല്‍ ഇപ്പോള്‍ ന്യൂറല്‍ നെറ്റ്‌വര്‍ക്കുകള്‍ ഒരാളുടെ മുഖത്തെ വിവിധ പോയിന്റുകളെ മനസ്സിലാക്കുകയും അവയെ ഗണിത ശാസ്ത്രപരമായി (ജ്യാമിതീതയമായി അല്ല) പഠിക്കുകയും അതിനു ശേഷം ഒരാളുടെ മുഖത്തിനു മുകളിലായി മറ്റൊരാളുടെ മുഖം കൊണ്ടുവരികയും ചെയ്താണ് വ്യാജ വിഡിയോ സൃഷ്ടിക്കുന്നത്. നിലവിലുള്ള ഫോറെന്‍സിക് ഉപകരണങ്ങള്‍ വച്ച് ഇതു കണ്ടുപിടിക്കാനാവുകയും ഇല്ല എന്നതാണ് ഇപ്പോഴത്തെ പ്രശ്‌നം.

ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സിന്റെ സഹായത്തോടെയുള്ള അശ്ലീല വിഡിയോയുടെ വര്‍ധനയും ഇപ്പോള്‍ ഉണ്ടായിരിക്കുന്നു. കഴിഞ്ഞ വര്‍ഷം തന്നെ റെഡിറ്റ് ഉപയോക്താവ് ഒരു പ്രശ്‌സ്തന്റെ മുഖം മറ്റൊരാളുടെ ഉടലുമായി ചേര്‍ത്ത് എങ്ങനെ അശ്ലീല വിഡിയൊ സൃഷ്ടിക്കാമെന്നു കാണിച്ചു തന്നിരുന്നു. ബോളിവുഡ് നടി പ്രിയങ്ക ചോപ്രയുടെ ഡീപ്‌ഫെയ്ക് വിഡിയൊ ഉണ്ടെന്നും പറയുന്നു. എന്നാല്‍, ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സിന്റെ സഹായത്തോടെയുള്ള വിഡിയോ നിര്‍മാണം വളരെ എളുപ്പമാണെന്നും നാളെ ഒരു ടിവി ചാനല്‍ ഒരു നേതാവിന്റെ ഇന്റര്‍വ്യൂ ആണെന്നു പറഞ്ഞ് പ്രക്ഷേപണം ചെയ്താല്‍ പോലും അതില്‍ അദ്ഭുതപ്പെടാനില്ലെന്നാണ് വിദഗ്ധര്‍ പറയുന്നത്. 

എന്നാല്‍, ഇന്ത്യയിലും മറ്റുമുള്ള പലര്‍ക്കും വിഡിയോ പോലും ആവശ്യമില്ല. ഒരാളുടേതെന്ന് പറഞ്ഞ് എഴുതി വരുന്ന ഉദ്ധരണികള്‍ പോലും വിശ്വസിക്കുന്നവരാണ് അവരെന്നു ചിലര്‍ ചൂണ്ടിക്കാണിക്കുന്നു. അത്തരം ആളുകളുടെ ഇടയിലേക്ക് ഡീപ്‌ഫെയ്ക് വിഡിയോ പോലെയുള്ളവ വരുമ്പോള്‍ സൃഷ്ടിക്കപ്പെടാവുന്ന സാമൂഹികാഘാതം വളരെ ഗുരുതരമായിരിക്കുമെന്ന് വിദഗ്ധര്‍ പറയുന്നു.

കർണാടക നിയമസഭ തിരഞ്ഞടെപ്പ് ക്യാംപയിനിൽ വിവിധ രാഷ്ട്രീയ പാർട്ടികൾ വ്യാജ വിഡിയോകളും ഉള്ളടക്കങ്ങളും നിർമിച്ചു വ്യാപകമായി പ്രചരിപ്പിച്ചിരുന്നു. ഇത്തരം വിഡിയോകൾ പലപ്പോഴും സമൂഹത്തിൽ വൻ കലാപത്തിന് വരെ കാരണമായി. വടക്കെ ഇന്ത്യയില്‍ പലപ്പോഴും കലാപം പൊട്ടിപ്പുറപ്പെടുന്നത് വ്യാജ വിഡിയോകളുടെ പേരിലാണ്. അതെ, അടുത്ത ലോക് സഭാ തിരഞ്ഞെടുപ്പ് വരുമ്പോൾ ഇത്തരം വ്യാജ വിഡിയോകൾക്ക് സോഷ്യൽമീഡിയ കീഴടക്കും, രാജ്യത്ത് ലഹളകൾ പൊട്ടിപ്പുറപ്പെടും, ഇതിലൂടെ രാഷ്ട്രീയക്കാർ വോട്ടുബാങ്കുകൾ ഉണ്ടാക്കും. ഡീപ്‌ഫെയ്ക് വിഡിയോയുടെ പേരിൽ നാളെ എന്തും സംഭവിക്കാം.

related stories