ADVERTISEMENT

നേർത്ത ഒരു മാസ്ക് മാറ്റുമ്പോൾ! വില്ലന്റെ വേഷം ധരിച്ചു 'അണ്ടർകവര്‍ ഓപ്പറേഷനെത്തിയ' നായകൻ, അല്ലെങ്കിൽ നായകന്റെ വേഷം ധരിച്ചു ഏവരെയും കബളിപ്പിക്കാനെത്തിയ വില്ലൻ- ഒരു കാലഘട്ടത്തിൽ 'സ്പൈ' സിനിമകളിൽ ഈ ട്വിസ്റ്റ് നാം കാണാറുണ്ട്. സിനിമയിൽ ക്ലിഷേ ആയ ഈ ട്വിസ്റ്റ് ഇപ്പോൾ സൈബർ ലോകത്തു സംഭവിക്കുകയാണ്. വില്ലൻമാർ കീബോർഡുകൾക്കു പിന്നിൽ ഒളിച്ചിരുന്നു നായകന്റെ അല്ലെങ്കിൽ നായികയുടെ അപരന്മാരെ സൃഷ്ടിക്കുന്നു. പാവകളെപ്പോലെ ഇഷ്ടമുള്ള കാര്യങ്ങളെല്ലാം ചെയ്യിക്കുന്നു. 

അന്തരിച്ച പിതാവിന്റെ ശബ്ദം എഐയുടെ സാധ്യത ഉപയോഗിച്ചു മകൻ സൃഷ്‌ടിച്ച വാർത്ത നാം അമ്പരപ്പോടെയാണ് കേട്ടത്. ഈ വാർത്തയുടെ കൗതുകത്തിനപ്പുറം ഒരു അപകടവും ഒളിഞ്ഞിരിക്കുന്നുണ്ട്. നമ്മുടെ ചിത്രങ്ങളും വിഡിയോകളും മാത്രമല്ല ശബ്ദവും  ആർക്കും സൃഷ്ടിക്കാനാകുന്ന ഡീപ് ഫെയ്ക് വില്ലന്മാരുടെ ലോകത്താണ് നാം ജീവിക്കുന്നത്. രശ്മിക മന്ദാന, കജോൾ, കത്രീന കൈഫ്, ബറാക് ഒബാമ, ഐശ്വര്യ റായ് തുടങ്ങിയ നിരവധി പ്രമുഖർ ഡീപ് ഫെയ്ക് വിഡിയോകളുടെ ഇരകളായി മാറിയ വാർത്ത നാം കേട്ടു. എന്നാൽ  നാം അറിയാതെ പോകുന്നവ എത്രയോ അധികമായിരിക്കും.

aiswarya-deep-fake
ഡീപ്ഫെയ്കിൽ സൃഷ്ടിച്ച ഐശ്വര്യ റായ് ചിത്രം

ഡീപ്ഫെയ്ക്  വിഡിയോകള്‍ ഒരു ക്ലിക്കിൽ സൃഷ്ടിക്കാനാകുന്ന ആപ്പുകളാണുള്ളതിനാൽത്തന്നെ ജാഗ്രത പാലിക്കേണ്ടതുണ്ട്. ചുരുങ്ങിയ സമയത്തിനുള്ളിൽഡീപ്ഫെയ്ക്കുകൾക്കു ഇരയാക്കി മാറ്റാന്‍ കഴിയും.  സെലബ്രിറ്റി പോണോഗ്രഫി, തെരഞ്ഞെടുപ്പിലെ കൃത്രിമങ്ങൾ, വ്യാജരേഖ ചമയ്ക്കൽ, വ്യക്തിത്വ മോഷണം, സാമ്പത്തിക തട്ടിപ്പ് തുടങ്ങി നിരവധി കുറ്റകൃത്യങ്ങളാണ് ഡീപ്ഫെയ്ക്കുമായി ബന്ധപ്പെട്ടു വർധിച്ചു വരുന്നത്.

deepfake-1
രശ്മികയുടെ ഡീപ്ഫെയ്ക് ചിത്രവും യഥാർഥ ചിത്രവും

എന്താണ് ഡീപ്ഫെയ്ക്കുകൾ?

കോടിക്കണക്കിനു ആളുകളുടെ ഡാറ്റ തന്റെ കൈവശമുണ്ടെന്നു മാർക്ക് സുക്കർബർഗ് വീമ്പിളക്കുന്നതു കണ്ടു നിങ്ങൾ അമ്പരന്നോ?, എങ്കിൽ നിങ്ങൾ ഡീപ്ഫെയ്കിൽ തെറ്റിദ്ധരിക്കപ്പെട്ട ആളാണ്.  ഡീപ് ലേണിങ്, ഫെയ്ക് എന്നീ വാക്കുകള്‍ ചേര്‍ത്തായിരുന്നു ഡീപ് ഫെയ്ക് എന്ന പേരുണ്ടായത്. ഡീപ്ഫെയ്ക്കുകൾ ഒരു തരം ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് (AI) ആണ്, അത് ആളുകൾ യഥാർത്ഥത്തിൽ പറയാത്തതോ ചെയ്യാത്തതോ ആയ കാര്യങ്ങൾ പറയുന്നതോ ചെയ്യുന്നതോ ആയ 'യാഥാർഥ്യത്തോടടുത്ത്' നിൽക്കുന്ന ചിത്രങ്ങളും വിഡിയോകളും സൃഷ്ടിക്കാൻ ഉപയോഗിക്കാം.

പ്രതീകാത്മക ചിത്രം (Photo - Tatiana Shepeleva/Shutterstock)
പ്രതീകാത്മക ചിത്രം (Photo - Tatiana Shepeleva/Shutterstock)

വ്യക്തിയുടെ ചിത്രങ്ങളുടെയും വിഡിയോകളുടെയും ഒരു വലിയ ഡാറ്റാസെറ്റുപയോഗിച്ച മെഷീൻ ലേണിങ് ഉപയോഗിച്ചാണ് ഇത് ചെയ്യുന്നത്. ഈ മോഡൽ കൃത്യമായി പരിശീലിച്ചുകഴിഞ്ഞാൽ, യഥാർത്ഥത്തിൽ നിന്ന് വേർതിരിച്ചറിയാൻ കഴിയാത്ത ചിത്രങ്ങളും വിഡിയോകളും സൃഷ്ടിക്കാൻ ഇത് ഉപയോഗിക്കാം

ഒരു ഡീപ്ഫേക്ക് സൃഷ്ടിക്കുന്ന പ്രക്രിയയിൽ സാധാരണയായി രണ്ട് പ്രധാന ഘടകങ്ങൾ ഉൾപ്പെടുന്നു:

ഓട്ടോഎൻകോഡറുകൾ:  ലക്ഷ്യമിട്ട വ്യക്തിയുടെ ചിത്രങ്ങളുടെയോ ഓഡിയോയുടെയോ ഒരു വലിയ ഡാറ്റാസെറ്റിൽ പരിശീലനം ലഭിച്ച ന്യൂറൽ നെറ്റ്‌വർക്കുകളാണ് ഇവ. എൻകോഡർ ഭാഗം ടാർഗെറ്റിന്റെ ഡാറ്റ ഒരു മറഞ്ഞിരിക്കുന്ന പ്രാതിനിധ്യത്തിലേക്ക് കംപ്രസ് ചെയ്യാൻ പഠിക്കുന്നു, അതേസമയം ഡീകോഡർ മറഞ്ഞിരിക്കുന്ന പ്രാതിനിധ്യത്തിൽ നിന്ന് ഡാറ്റ പുനഃസൃഷ്ടിക്കാൻ പഠിക്കുന്നു.

ജനറേറ്റീവ് അഡ്‌വേഴ്സേറിയൽ നെറ്റ്‌വർക്കുകൾ (GANs):  മത്സരിക്കുന്ന ന്യൂറൽ നെറ്റ്‌വർക്കുകളാണ് ഇവ, ഒരു ജനറേറ്ററും ഒരു ഡിസ്ക്രിമിനേറ്ററും. ജനറേറ്റർ റിയലിസ്റ്റിക് വ്യാജ ഉള്ളടക്കങ്ങൾ സൃഷ്ടിക്കാൻ ശ്രമിക്കുന്നു, അതേസമയം  ഡിസ്ക്രിമിനേറ്റർ വ്യാജ ഉള്ളടക്കത്തിൽ നിന്ന് യഥാർത്ഥമായത് വേർതിരിച്ചറിയാൻ ശ്രമിക്കുന്നു. രണ്ട് നെറ്റ്‌വർക്കുകളും പരസ്പരം ആവർത്തിച്ച് മെച്ചപ്പെടുത്തുന്നു, ഇത് കൂടുതൽ യാഥാർഥ്യ ബോധമുണ്ടാക്കുന്ന ഡീപ്ഫെയ്ക്കുകൾ സൃഷ്ടിക്കുന്നതിലേക്കു നയിക്കുന്നു.

Image Credit: JARIRIYAWAT/ shutterstock.com
Image Credit: JARIRIYAWAT/ shutterstock.com

എന്തിനുവേണ്ടിയാണ്?

∙പോൺ വിഡിയോകൾക്കായാണ് ഈ സാങ്കേതികവിദ്യ ഏറ്റവും കൂടുതൽ ദുരുപയോഗം ചെയ്യുന്നതെന്നതാണ് യാഥാർഥ്യം. ഡീപ്ട്രേസ് എന്ന എഐ സ്ഥാപനം 2019 സെപ്റ്റംബറിൽ ഓൺലൈനിൽ 15,000 ഡീപ്ഫെയ്ക്ക് വീഡിയോകൾ കണ്ടെത്തി, ഇത് ഒമ്പത് മാസത്തിനിടെ ഇരട്ടിയായി. 

∙ഡീപ്ഫെയ്ക്കുകൾ കണ്ടെത്തുന്നത് വെല്ലുവിളിയാകുമെങ്കിലും, ശ്രദ്ധിക്കേണ്ട ചില സൂചനകളുണ്ട്:

∙മുഖത്തെ പൊരുത്തക്കേടുകൾ: മുഖത്തിന് ചുറ്റും, പ്രത്യേകിച്ച് മുടി, ചെവികൾ, താടിയെല്ല് എന്നിവയിൽ ചെറിയ വ്യത്യാസങ്ങൾ കാണപ്പെട്ടേക്കാം. മുഖത്തിലുടനീളം ചലന വേളയിലും സംസാരിക്കുമ്പോഴും പ്രകാശവും നിഴലുകളും നിലനിർത്താൻ ഡീപ്ഫെയ്ക്കുകൾ പാടുപെട്ടേക്കാം.

∙അടയ്ക്കാത്ത കണ്ണുകൾ: യഥാർത്ഥ ആളുകൾ സ്വാഭാവികമായി ഇടയ്ക്കിടെ കണ്ണുകൾ ചിമ്മുന്നു, അതേസമയം ഡീപ്ഫെയ്ക്കുകൾക്ക് അസ്വാഭാവികമായി ദീർഘനേരം തുറന്നിരിക്കുന്ന കണ്ണുകൾ ഉണ്ടായിരിക്കാം.

∙സംശയകരമായ വിഡിയോ കണ്ടാൽ അതു സംബന്ധിച്ച എന്തെങ്കിലും വിവരങ്ങൾ ഇന്റർനെറ്റിൽ ലഭ്യമാണോ എന്നു സേർച് ചെയ്യാം.∙ അതിൽ പറയുന്ന കാര്യങ്ങളെക്കുറിച്ചുള്ള വാർത്തകളോ വിവരങ്ങളോ വിശ്വസനീയമായ മാധ്യമങ്ങളിൽ വന്നിട്ടുണ്ടോ എന്നു പരിശോധിക്കാം.

ഡീപ്ഫെയ്ക്കുകൾ എല്ലായ്പ്പോഴും അപകടകരമാണോ?

ഒരിക്കലുമില്ല. പലതും രസകരവും ചിലത് സഹായകരവുമാണ്. വോയ്‌സ് ക്ലോണിംഗ് ഡീപ്ഫെയ്ക്കുകൾ രോഗബാധിതരായി ആളുകളുടെ ശബ്ദം നഷ്‌ടപ്പെടുമ്പോൾ സഹായകരമാകും. ഡീപ്ഫെയ്ക് വിഡിയോകൾക്ക് ഗാലറികളെയും മ്യൂസിയങ്ങളെയും സജീവമാക്കാൻ കഴിയും.

ഇവിടെ പോസ്റ്റു ചെയ്യുന്ന അഭിപ്രായങ്ങൾ മലയാള മനോരമയുടേതല്ല. അഭിപ്രായങ്ങളുടെ പൂർണ ഉത്തരവാദിത്തം രചയിതാവിനായിരിക്കും. കേന്ദ്ര സർക്കാരിന്റെ ഐടി നയപ്രകാരം വ്യക്തി, സമുദായം, മതം, രാജ്യം എന്നിവയ്ക്കെതിരായി അധിക്ഷേപങ്ങളും അശ്ലീല പദപ്രയോഗങ്ങളും നടത്തുന്നത് ശിക്ഷാർഹമായ കുറ്റമാണ്. ഇത്തരം അഭിപ്രായ പ്രകടനത്തിന് നിയമനടപടി കൈക്കൊള്ളുന്നതാണ്.
തൽസമയ വാർത്തകൾക്ക് മലയാള മനോരമ മൊബൈൽ ആപ് ഡൗൺലോഡ് ചെയ്യൂ
അവശ്യസേവനങ്ങൾ കണ്ടെത്താനും ഹോം ഡെലിവറി  ലഭിക്കാനും സന്ദർശിക്കു www.quickerala.com