ഫോട്ടോഷോപ്പൊക്കെ ചെറുത് !
Mail This Article
വ്യാജവാർത്തക്കാരുടെ ഏറ്റവും പ്രിയപ്പെട്ട ഉപകരണം ഫോട്ടോഷോപ് ആണെന്നാണല്ലോ പൊതുവേ പറയാറുള്ളത്. കംപ്യൂട്ടറിൽ ഈ ആപ്ലിക്കേഷൻ ഉണ്ടെങ്കിൽ ആടിനെ പട്ടിയാക്കാം, ആനയെ പുലിയാക്കാം, മനുഷ്യനെ വിഡ്ഢിയാക്കാം എന്നതാണ് ‘വ്യാജ ആപ്തവാക്യം’.
എന്നാൽ, മനുഷ്യനു പ്രയോജനം ചെയ്യേണ്ട സാങ്കേതികവിദ്യ വളരുന്തോറും മനുഷ്യകുലത്തിനാകെ ദുരന്തം വിതയ്ക്കുന്നതിനുള്ള മാർഗമായി മാറുന്നത് എല്ലാക്കാലത്തും നമ്മൾ കണ്ടിട്ടുണ്ട്.
വ്യാജവാർത്തകൾ സൃഷ്ടിക്കപ്പെടുന്നതിന്റെയും കഥ അതുതന്നെ. ഫോട്ടോഷോപ്പിൽ നിന്നൊക്കെ സംഗതി വളർന്നു വലുതായിക്കഴിഞ്ഞു.
മാർക്കും പെട്ടു!
കഴിഞ്ഞയാഴ്ച, ഇൻസ്റ്റഗ്രാമിൽ അതിന്റെ ഉടമ (ഫെയ്സ്ബുക്കിന്റെയും) മാർക് സക്കർബർഗിന്റെ ഒരു വിഡിയോ പ്രത്യക്ഷപ്പെട്ടു.
ഫെയ്സ്ബുക് അതിന്റെ ഉപയോക്താക്കളുടെ സ്വകാര്യ വിവരങ്ങൾ മറിച്ചു വിറ്റുവെന്നെ ആരോപണം കഴിഞ്ഞ വർഷം വലിയ വിവാദമായിരുന്നല്ലോ.
ഇൻസ്റ്റഗ്രാമിലെ വിഡിയോയിൽ മറ്റു പല കാര്യങ്ങൾക്കൊപ്പം, ‘കോടിക്കണക്കിനു പേരുടെ സ്വകാര്യവിവരങ്ങൾ കയ്യിലുള്ള ഞാൻ ഭാവിയെ നിയന്ത്രിക്കും’ എന്ന മട്ടിലാണു സക്കർബർഗ് സംസാരിക്കുന്നത്.
വിഡിയോയിൽ കാണുന്നത് സക്കർബർഗിന്റെ ദൃശ്യംതന്നെ, ശബ്ദവും. എന്നാൽ, സക്കർബർഗ് അങ്ങനെ ഒരു വിഡിയോ സന്ദേശം നൽകിയിട്ടില്ല എന്നതാണു വാസ്തവം.
ബിൽ പോസ്റ്റർ, ഡാനിയേൽ ഹൗ എന്നീ കലാകാരന്മാരാണ് സക്കർബർഗിന്റെ ‘ഡീപ്ഫെയ്ക്’ സൃഷ്ടിച്ചത്. ആർട് പ്രോജക്ട് ആയാണത്രേ ഇവരിതു ചെയ്തത്.
യുഎസ് ജനപ്രതിനിധി സഭ സ്പീക്കറായ നാൻസി പെലോസിയുടെ ചില ഡീപ്ഫെയ്ക് വിഡിയോകൾ അടുത്തകാലത്തു ഫെയ്സ്ബുക്കിൽ വന്നിരുന്നു. ഇതു ചൂണ്ടിക്കാട്ടിയിട്ടും നീക്കം ചെയ്യാൻ ഫെയ്സ്ബുക് തയാറായില്ല. ഇപ്പോൾ ഫെയ്സ്ബുക് ഉടമ തന്നെ അതിന്റെ രുചിയറിഞ്ഞു!
സംഗതി പഴയ മോർഫിങ്ങല്ല
ഡീപ്ഫെയ്ക് എന്ന സങ്കേതം ഉപയോഗിച്ചു കൃത്രിമമായി തയാറാക്കിയതാണ് ഈ വിഡിയോ. ഒരാളുടെ ഏതെങ്കിലും വിഡിയോ എടുത്ത് അതിന്റെ ശബ്ദം മാറ്റുകയോ തലവെട്ടിമാറ്റി വച്ചു മോർഫ് ചെയ്യുകയോ ചെയ്യുന്ന പഴയ സൂത്രമല്ല ഡീപ്ഫെയ്ക്.
ഒരാളുടെ ലഭ്യമായ വിഡിയോകളും ദൃശ്യങ്ങളുമെല്ലാം വിശദമായി പരിശോധിച്ച്, അയാളുടെ മുഖത്തെ പേശീചലനങ്ങൾ പോലും പഠിച്ച്, അയാൾ സംസാരിക്കുന്ന രീതിയിലും ശബ്ദത്തിലും അംഗവിക്ഷേപങ്ങളോടെയും വിഡിയോ തയാറാക്കുകയാണ് ഡീപ്ഫെയ്ക്കിൽ ചെയ്യുന്നത്.
നിർമിതബുദ്ധി അഥവാ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ആണ് ഇതിനു പിന്നിൽ പ്രവർത്തിക്കുന്നത്. നമ്മൾ പറയാത്ത കാര്യങ്ങൾ യഥാർഥത്തിൽ നമ്മൾ പറയുന്നതുപോലെയും പാടാത്തതു പാടിയതു പോലെയുമുള്ള വിഡിയോകൾ ഇതിലൂടെ നിർമിക്കാം.
രാഷ്ട്രീയക്കാരും താരങ്ങളും
ഡീപ്ഫെയ്ക് പുതിയൊരു സങ്കേതമല്ല. മുൻപും ഡീപ്ഫെയ്ക്കുകൾ ഉണ്ടായിട്ടുണ്ട്. ഇതു സംബന്ധിച്ച അക്കാദമിക ഗവേഷണം ഏറെനാളായി നടക്കുന്നു. ഒപ്പം ഇന്റർനെറ്റിൽ വ്യക്തികൾ നടത്തുന്ന ശ്രമങ്ങളും.
സിനിമ പോലുള്ള മേഖലകളിൽ ഏറെ പ്രയോജനം ചെയ്യാവുന്ന വിദ്യയാണിത്.
യുഎസ് പ്രസിഡന്റായിരുന്ന ബറാക് ഒബാമയുടെ, 2017ൽ വന്ന ഡീപ്ഫെയ്ക് വിഡിയോ ഏറെ വിവാദമായിരുന്നു. യുഎസ് പ്രസിഡന്റ് ഡോണൾഡ് ട്രംപും ജർമൻ ചാൻസലർ അംഗല മെർക്കലും അർജന്റീനയിലെ മൊറിഷ്യോ മക്രിയുമൊക്കെ രാഷ്ട്രീയത്തിൽ ഇതിന്റെ ഇരകളായവരാണ്.
പറയാത്ത കാര്യങ്ങൾ യഥാർഥത്തിൽ പറയുന്നതുപോലെ, വിശ്വസനീയമായി തോന്നിപ്പിക്കുന്ന ഈ വ്യാജനിർമിതികൾ ഉണ്ടാക്കാവുന്ന അപകടങ്ങൾ ഊഹിക്കാവുന്നതേയുള്ളൂ.
ഇതിനു പുറമേയാണ് അശ്ലീലവിഡിയോകളും മറ്റുമൊക്കെ സൃഷ്ടിക്കാൻ ഈ സാങ്കേതികവിദ്യ ഉപയോഗിക്കുന്നതിന്റെ ദുരന്തം.
2017ൽ, പ്രശസ്തരായ ചില ഹോളിവുഡ് താരങ്ങളുടെ ദൃശ്യങ്ങൾ ഇത്തരത്തിൽ പുറത്തുവന്നതോടെയാണ് ഡീപ്ഫെയ്ക് വ്യാപകമായി ചർച്ചയാകുന്നത്.
പേടിയും പ്രതീക്ഷയും ഒന്നിൽ മാത്രം
ഇനിയുള്ള നാളുകളിൽ വലിയ ഭീഷണിയായി മാറിയേക്കാവുന്ന ഒന്നാണ് ഡീപ്ഫെയ്ക്. ഇത്തരം വ്യാജ വിഡിയോകൾ തിരിച്ചറിയാനുള്ള മറു സാങ്കേതികവിദ്യകൾ സംബന്ധിച്ച് ലോകത്തു പലയിടത്തും ഗവേഷണങ്ങൾ നടക്കുന്നുണ്ട്.
വിഡിയോയിലെ വ്യക്തിയുടെ കണ്ണുകളിലേക്കു സൂക്ഷിച്ചു നോക്കുക തുടങ്ങി ലളിതമായ ചില വിദ്യകളുമുണ്ട്. ഡീപ്ഫെയ്ക്കിലെ ആളുകൾ സാധാരണ മനുഷ്യർ ചെയ്യുന്നതുപോലെ ഇമകളടയ്ക്കില്ല, കണ്ണുകൾ കൂടുതൽ നേരം തുറന്നിരിക്കും എന്നൊക്കെയാണു ഗവേഷകർ കണ്ടെത്തിയിട്ടുള്ളത്.
എന്നാൽ, ഇതിനെയൊക്കെ മറികടക്കുന്ന രീതിയിൽ സാങ്കേതികവിദ്യ വളരുകയാണ് എന്നതാണു വെല്ലുവിളി.
അതിനൊപ്പം, കള്ളത്തരം കണ്ടെത്താനുള്ള സാങ്കേതികവിദ്യയും വളരുമെന്നതാണ് ഏക പ്രതീക്ഷ.