sections
MORE

ഫോട്ടോഷോപ്പൊക്കെ ചെറുത് !

zukkar fake
സക്കർബർഗിന്റെ ‘ഡീപ്‌ഫെയ്ക്’
SHARE

വ്യാജവാർത്തക്കാരുടെ ഏറ്റവും പ്രിയപ്പെട്ട ഉപകരണം ഫോട്ടോഷോപ് ആണെന്നാണല്ലോ പൊതുവേ പറയാറുള്ളത്. കംപ്യൂട്ടറിൽ ഈ ആപ്ലിക്കേഷൻ ഉണ്ടെങ്കിൽ ആടിനെ പട്ടിയാക്കാം, ആനയെ പുലിയാക്കാം, മനുഷ്യനെ വിഡ്ഢിയാക്കാം എന്നതാണ് ‘വ്യാജ ആപ്തവാക്യം’.

എന്നാൽ, മനുഷ്യനു പ്രയോജനം ചെയ്യേണ്ട സാങ്കേതികവിദ്യ വളരുന്തോറും മനുഷ്യകുലത്തിനാകെ ദുരന്തം വിതയ്ക്കുന്നതിനുള്ള മാർഗമായി മാറുന്നത് എല്ലാക്കാലത്തും നമ്മൾ കണ്ടിട്ടുണ്ട്.

വ്യാജവാർത്തകൾ സൃഷ്ടിക്കപ്പെടുന്നതിന്റെയും കഥ അതുതന്നെ. ഫോട്ടോഷോപ്പിൽ നിന്നൊക്കെ സംഗതി വളർന്നു വലുതായിക്കഴിഞ്ഞു. 

 മാർക്കും പെട്ടു! 

കഴിഞ്ഞയാഴ്ച, ഇൻസ്റ്റഗ്രാമിൽ അതിന്റെ ഉടമ (ഫെയ്‌സ്ബുക്കിന്റെയും) മാർക് സക്കർബർഗിന്റെ ഒരു വിഡിയോ പ്രത്യക്ഷപ്പെട്ടു.

ഫെയ്‌സ്ബുക് അതിന്റെ ഉപയോക്താക്കളുടെ സ്വകാര്യ വിവരങ്ങൾ മറിച്ചു വിറ്റുവെന്നെ ആരോപണം കഴിഞ്ഞ വർഷം വലിയ വിവാദമായിരുന്നല്ലോ.

ഇൻസ്റ്റഗ്രാമിലെ വിഡിയോയിൽ മറ്റു പല കാര്യങ്ങൾക്കൊപ്പം, ‘കോടിക്കണക്കിനു പേരുടെ സ്വകാര്യവിവരങ്ങൾ കയ്യിലുള്ള ഞാൻ ഭാവിയെ നിയന്ത്രിക്കും’ എന്ന മട്ടിലാണു സക്കർബർഗ് സംസാരിക്കുന്നത്.

വിഡിയോയിൽ കാണുന്നത് സക്കർബർഗിന്റെ ദൃശ്യംതന്നെ, ശബ്ദവും. എന്നാൽ, സക്കർബർഗ് അങ്ങനെ ഒരു വിഡിയോ സന്ദേശം നൽകിയിട്ടില്ല എന്നതാണു വാസ്തവം. 

ബിൽ പോസ്റ്റർ, ഡാനിയേൽ ഹൗ എന്നീ കലാകാരന്മാരാണ് സക്കർബർഗിന്റെ ‘ഡീപ്‌ഫെയ്ക്’ സൃഷ്ടിച്ചത്. ആർട് പ്രോജക്ട് ആയാണത്രേ ഇവരിതു ചെയ്തത്.

യുഎസ് ജനപ്രതിനിധി സഭ സ്പീക്കറായ നാൻസി പെലോസിയുടെ ചില ഡീപ്‌ഫെയ്ക് വിഡിയോകൾ അടുത്തകാലത്തു ഫെയ്‌സ്ബുക്കിൽ വന്നിരുന്നു. ഇതു ചൂണ്ടിക്കാട്ടിയിട്ടും നീക്കം ചെയ്യാൻ ഫെയ്‌സ്ബുക് തയാറായില്ല. ഇപ്പോൾ ഫെയ്‌സ്ബുക് ഉടമ തന്നെ അതിന്റെ രുചിയറിഞ്ഞു! 

 സംഗതി പഴയ  മോർഫിങ്ങല്ല

ഡീപ്‌ഫെയ്ക് എന്ന സങ്കേതം ഉപയോഗിച്ചു കൃത്രിമമായി തയാറാക്കിയതാണ് ഈ വിഡിയോ. ഒരാളുടെ ഏതെങ്കിലും വിഡിയോ എടുത്ത് അതിന്റെ ശബ്ദം മാറ്റുകയോ തലവെട്ടിമാറ്റി വച്ചു മോർഫ് ചെയ്യുകയോ ചെയ്യുന്ന പഴയ സൂത്രമല്ല ഡീപ്ഫെയ്ക്.

ഒരാളുടെ ലഭ്യമായ വിഡിയോകളും ദൃശ്യങ്ങളുമെല്ലാം വിശദമായി പരിശോധിച്ച്, അയാളുടെ മുഖത്തെ പേശീചലനങ്ങൾ പോലും പഠിച്ച്, അയാൾ സംസാരിക്കുന്ന രീതിയിലും ശബ്ദത്തിലും അംഗവിക്ഷേപങ്ങളോടെയും വിഡിയോ തയാറാക്കുകയാണ് ഡീപ്ഫെയ്ക്കിൽ ചെയ്യുന്നത്.

നിർമിതബുദ്ധി അഥവാ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ആണ് ഇതിനു പിന്നിൽ പ്രവർത്തിക്കുന്നത്. നമ്മൾ പറയാത്ത കാര്യങ്ങൾ യഥാർഥത്തിൽ നമ്മൾ പറയുന്നതുപോലെയും പാടാത്തതു പാടിയതു പോലെയുമുള്ള വിഡിയോകൾ ഇതിലൂടെ നിർമിക്കാം. 

 രാഷ്ട്രീയക്കാരും താരങ്ങളും 

ഡീപ്‌ഫെയ്ക് പുതിയൊരു സങ്കേതമല്ല. മുൻപും ഡീപ്‌ഫെയ്ക്കുകൾ ഉണ്ടായിട്ടുണ്ട്. ഇതു സംബന്ധിച്ച അക്കാദമിക ഗവേഷണം ഏറെനാളായി നടക്കുന്നു. ഒപ്പം ഇന്റർനെറ്റിൽ വ്യക്തികൾ നടത്തുന്ന ശ്രമങ്ങളും.

സിനിമ പോലുള്ള മേഖലകളിൽ ഏറെ പ്രയോജനം ചെയ്യാവുന്ന വിദ്യയാണിത്. 

യുഎസ് പ്രസിഡന്റായിരുന്ന ബറാക് ഒബാമയുടെ, 2017ൽ വന്ന ഡീപ്‌ഫെയ്ക് വിഡിയോ ഏറെ വിവാദമായിരുന്നു. യുഎസ് പ്രസിഡന്റ് ഡോണൾഡ് ട്രംപും ജർമൻ ചാൻസലർ അംഗല മെർക്കലും അർജന്റീനയിലെ മൊറിഷ്യോ മക്രിയുമൊക്കെ രാഷ്ട്രീയത്തിൽ ഇതിന്റെ ഇരകളായവരാണ്.

പറയാത്ത കാര്യങ്ങൾ യഥാർഥത്തിൽ പറയുന്നതുപോലെ, വിശ്വസനീയമായി തോന്നിപ്പിക്കുന്ന ഈ വ്യാജനിർമിതികൾ ഉണ്ടാക്കാവുന്ന അപകടങ്ങൾ ഊഹിക്കാവുന്നതേയുള്ളൂ.

ഇതിനു പുറമേയാണ് അശ്ലീലവിഡിയോകളും മറ്റുമൊക്കെ സൃഷ്ടിക്കാൻ ഈ സാങ്കേതികവിദ്യ ഉപയോഗിക്കുന്നതിന്റെ ദുരന്തം.

2017ൽ, പ്രശസ്തരായ ചില ഹോളിവുഡ് താരങ്ങളുടെ ദൃശ്യങ്ങൾ ഇത്തരത്തിൽ പുറത്തുവന്നതോടെയാണ് ഡീപ്‌ഫെയ്ക് വ്യാപകമായി ചർച്ചയാകുന്നത്. 

പേടിയും പ്രതീക്ഷയും ഒന്നിൽ മാത്രം

ഇനിയുള്ള നാളുകളിൽ വലിയ ഭീഷണിയായി മാറിയേക്കാവുന്ന ഒന്നാണ് ഡീപ്ഫെയ്ക്. ഇത്തരം വ്യാജ വിഡിയോകൾ തിരിച്ചറിയാനുള്ള മറു സാങ്കേതികവിദ്യകൾ സംബന്ധിച്ച് ലോകത്തു പലയിടത്തും ഗവേഷണങ്ങൾ നടക്കുന്നുണ്ട്.

വിഡിയോയിലെ വ്യക്തിയുടെ കണ്ണുകളിലേക്കു സൂക്ഷിച്ചു നോക്കുക തുടങ്ങി ലളിതമായ ചില വിദ്യകളുമുണ്ട്. ഡീപ്‌ഫെയ്ക്കിലെ ആളുകൾ സാധാരണ മനുഷ്യർ ചെയ്യുന്നതുപോലെ ഇമകളടയ്ക്കില്ല, കണ്ണുകൾ കൂടുതൽ നേരം തുറന്നിരിക്കും എന്നൊക്കെയാണു ഗവേഷകർ കണ്ടെത്തിയിട്ടുള്ളത്.

എന്നാൽ, ഇതിനെയൊക്കെ മറികടക്കുന്ന രീതിയിൽ സാങ്കേതികവിദ്യ വളരുകയാണ് എന്നതാണു വെല്ലുവിളി.

അതിനൊപ്പം, കള്ളത്തരം കണ്ടെത്താനുള്ള സാങ്കേതികവിദ്യയും വളരുമെന്നതാണ് ഏക പ്രതീക്ഷ. 

തൽസമയ വാർത്തകൾക്ക് മലയാള മനോരമ മൊബൈൽ ആപ് ഡൗൺലോഡ് ചെയ്യൂ
MORE IN EDITORIAL
SHOW MORE
ഇവിടെ പോസ്റ്റു ചെയ്യുന്ന അഭിപ്രായങ്ങൾ മലയാള മനോരമയുടേതല്ല. അഭിപ്രായങ്ങളുടെ പൂർണ ഉത്തരവാദിത്തം രചയിതാവിനായിരിക്കും. കേന്ദ്ര സർക്കാരിന്റെ ഐടി നയപ്രകാരം വ്യക്തി, സമുദായം, മതം, രാജ്യം എന്നിവയ്ക്കെതിരായി അധിക്ഷേപങ്ങളും അശ്ലീല പദപ്രയോഗങ്ങളും നടത്തുന്നത് ശിക്ഷാർഹമായ കുറ്റമാണ്. ഇത്തരം അഭിപ്രായ പ്രകടനത്തിന് നിയമനടപടി കൈക്കൊള്ളുന്നതാണ്.
FROM ONMANORAMA