എഴുതി വിടുന്ന വ്യാജവാര്ത്തകളെക്കൊണ്ടു പൊറുതി മുട്ടി നില്ക്കുമ്പൊഴാണ് അതിലെത്രെയോ അധികം പ്രശ്നം സൃഷ്ടിക്കാവുന്ന ഡീപ്ഫെയ്ക് (deepfake) വിഡിയോകള് രംഗപ്രവേശനം ചെയ്തിരിക്കുന്നത്. കരുതിയിരുന്നില്ലെങ്കില് വന് കലാപങ്ങള് പൊട്ടിപ്പുറപ്പെടാന് ഇവ മതിയെന്നതിനാല് ഇവയെക്കുറിച്ച് ഓരോരുത്തരും അറിഞ്ഞിരിക്കണം.
വ്യാജ വാര്ത്ത, ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സിന്റെ മികവില് പുതിയ മാനങ്ങള് തേടുകയാണ് ഡീപ്ഫെയ്ക് വിഡിയോകളിലൂടെ. ഇന്ത്യന് രാഷ്ടീയവുമായി ബന്ധപ്പെട്ട ഒരാള് ഡീപ്ഫെയ്ക് വിഡിയോകള് തയാറാക്കാന് ആവശ്യപ്പെട്ട് ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ് എൻജിനീയറെ സമീപിച്ചതായും വാര്ത്തകള് വന്നിരുന്നു.
ആഴ്ചകൾക്ക് മുൻപ് മുന് അമേരിക്കന് പ്രസിഡന്റ് ബറാക് ഒബാമ, ഇപ്പോഴത്തെ പ്രസിഡന്റ് ഡോണള്ഡ് ട്രംപിനെതിരെ അത്ര സുഖകരമല്ലാത്ത ഭാഷയില് സംസാരിക്കുന്ന ഒരു വിഡിയോ പുറത്തിറങ്ങിയിരുന്നു. നല്ല ഭാഷ ഉപയോഗിക്കുന്നതില് ശ്രദ്ധിക്കുന്ന ഒബാമ ഇങ്ങനെ സംസാരിച്ചോ എന്ന് ആളുകള് ചിന്തിച്ചു തുടങ്ങുമ്പോഴാണ് അതൊരു ഡീപ്ഫെയ്ക് വിഡിയോ ആണെന്ന കാര്യം പുറത്തുവരുന്നത്. വിഡിയോയില് വളരെ സ്വാഭാവികമായി തോന്നിപ്പിക്കുന്ന രീതിയില് ഒരാളുടെ തല മാറ്റിവച്ചാണ് ഡീപ്ഫെയ്ക് വിഡിയോ സൃഷ്ടിക്കുന്നത്.
ജോര്ഡന് പീല് ആണ് ഈ വിഡിയോയ്ക്കു പിന്നില്. അദ്ദേഹത്തിന്റെ ഉദ്ദേശം ആര്ട്ടഫിഷ്യല് ഇന്റലിജന്സിന്റെ സഹായത്തോടെ എത്ര എളുപ്പത്തില് ഇത്തരം വിഡിയോ സൃഷ്ടിക്കമെന്നതും അതുകൊണ്ട് ആളുകള് എന്തുകൊണ്ടു കരുതിയിരിക്കണമെന്ന് പറയുകയുമാണ്.
എത്ര അപകടകരമാണ് ഇനി വരാന് ഇരിക്കുന്ന കാലം എന്ന മുന്നറിയിപ്പാണ് ഈ വിഡിയൊ തരുന്നത്. ഇന്റര്നെറ്റിലൂടെ ഒരു നേതാവോ മറ്റാരെങ്കിലുമൊ നല്കുന്ന ആഹ്വാനങ്ങളും മറ്റും മുഖവിലയ്ക്കെടുക്കരുതെന്നും അവയുടെ നിജസ്ഥിതി മനസ്സിലാക്കണമെന്നുമാണ് ജോര്ഡന് പീലും ബസ്ഫീഡും ഒന്നിച്ചു സൃഷ്ടിച്ച ഈ വിഡിയോ ഓരോരുത്തര്ക്കും നല്കുന്ന മുന്നറിയിപ്പ്.
എളുപ്പത്തില് ഡിജിറ്റലായി വ്യാജ കണ്ടെന്റ് സൃഷ്ടിക്കാമെന്ന് നമുക്കറിയാം. ചിത്രങ്ങളും സ്വരവുമൊക്കെ ഇങ്ങനെ മാറ്റുന്ന കാര്യമാണ് ഇതുവരെ കേട്ടിട്ടുള്ളത്. എന്നാല് ഇപ്പോള് ന്യൂറല് നെറ്റ്വര്ക്കുകള് ഒരാളുടെ മുഖത്തെ വിവിധ പോയിന്റുകളെ മനസ്സിലാക്കുകയും അവയെ ഗണിത ശാസ്ത്രപരമായി (ജ്യാമിതീതയമായി അല്ല) പഠിക്കുകയും അതിനു ശേഷം ഒരാളുടെ മുഖത്തിനു മുകളിലായി മറ്റൊരാളുടെ മുഖം കൊണ്ടുവരികയും ചെയ്താണ് വ്യാജ വിഡിയോ സൃഷ്ടിക്കുന്നത്. നിലവിലുള്ള ഫോറെന്സിക് ഉപകരണങ്ങള് വച്ച് ഇതു കണ്ടുപിടിക്കാനാവുകയും ഇല്ല എന്നതാണ് ഇപ്പോഴത്തെ പ്രശ്നം.
ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സിന്റെ സഹായത്തോടെയുള്ള അശ്ലീല വിഡിയോയുടെ വര്ധനയും ഇപ്പോള് ഉണ്ടായിരിക്കുന്നു. കഴിഞ്ഞ വര്ഷം തന്നെ റെഡിറ്റ് ഉപയോക്താവ് ഒരു പ്രശ്സ്തന്റെ മുഖം മറ്റൊരാളുടെ ഉടലുമായി ചേര്ത്ത് എങ്ങനെ അശ്ലീല വിഡിയൊ സൃഷ്ടിക്കാമെന്നു കാണിച്ചു തന്നിരുന്നു. ബോളിവുഡ് നടി പ്രിയങ്ക ചോപ്രയുടെ ഡീപ്ഫെയ്ക് വിഡിയൊ ഉണ്ടെന്നും പറയുന്നു. എന്നാല്, ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സിന്റെ സഹായത്തോടെയുള്ള വിഡിയോ നിര്മാണം വളരെ എളുപ്പമാണെന്നും നാളെ ഒരു ടിവി ചാനല് ഒരു നേതാവിന്റെ ഇന്റര്വ്യൂ ആണെന്നു പറഞ്ഞ് പ്രക്ഷേപണം ചെയ്താല് പോലും അതില് അദ്ഭുതപ്പെടാനില്ലെന്നാണ് വിദഗ്ധര് പറയുന്നത്.
എന്നാല്, ഇന്ത്യയിലും മറ്റുമുള്ള പലര്ക്കും വിഡിയോ പോലും ആവശ്യമില്ല. ഒരാളുടേതെന്ന് പറഞ്ഞ് എഴുതി വരുന്ന ഉദ്ധരണികള് പോലും വിശ്വസിക്കുന്നവരാണ് അവരെന്നു ചിലര് ചൂണ്ടിക്കാണിക്കുന്നു. അത്തരം ആളുകളുടെ ഇടയിലേക്ക് ഡീപ്ഫെയ്ക് വിഡിയോ പോലെയുള്ളവ വരുമ്പോള് സൃഷ്ടിക്കപ്പെടാവുന്ന സാമൂഹികാഘാതം വളരെ ഗുരുതരമായിരിക്കുമെന്ന് വിദഗ്ധര് പറയുന്നു.
കർണാടക നിയമസഭ തിരഞ്ഞടെപ്പ് ക്യാംപയിനിൽ വിവിധ രാഷ്ട്രീയ പാർട്ടികൾ വ്യാജ വിഡിയോകളും ഉള്ളടക്കങ്ങളും നിർമിച്ചു വ്യാപകമായി പ്രചരിപ്പിച്ചിരുന്നു. ഇത്തരം വിഡിയോകൾ പലപ്പോഴും സമൂഹത്തിൽ വൻ കലാപത്തിന് വരെ കാരണമായി. വടക്കെ ഇന്ത്യയില് പലപ്പോഴും കലാപം പൊട്ടിപ്പുറപ്പെടുന്നത് വ്യാജ വിഡിയോകളുടെ പേരിലാണ്. അതെ, അടുത്ത ലോക് സഭാ തിരഞ്ഞെടുപ്പ് വരുമ്പോൾ ഇത്തരം വ്യാജ വിഡിയോകൾക്ക് സോഷ്യൽമീഡിയ കീഴടക്കും, രാജ്യത്ത് ലഹളകൾ പൊട്ടിപ്പുറപ്പെടും, ഇതിലൂടെ രാഷ്ട്രീയക്കാർ വോട്ടുബാങ്കുകൾ ഉണ്ടാക്കും. ഡീപ്ഫെയ്ക് വിഡിയോയുടെ പേരിൽ നാളെ എന്തും സംഭവിക്കാം.