ADVERTISEMENT

ചെന്നൈ ∙ തെന്നിന്ത്യൻ നടി രശ്മിക മന്ദാനയുടേതെന്ന പേരിൽ സമൂഹമാധ്യമങ്ങളിൽ പ്രചരിച്ച ഡീപ്ഫെയ്ക് വിഡിയോയുമായി ബന്ധപ്പെട്ട വിവാദങ്ങൾക്കിടെ, നടിക്ക് പിന്തുണ പ്രഖ്യാപിച്ചും ഡീപ്ഫെയ്ക്കുമായി ബന്ധപ്പെട്ട് സാധാരണക്കാർ നേരിടുന്ന വെല്ലുവിളികൾ ഉയർത്തിക്കാട്ടിയും ഗായിക ചിൻമയി ശ്രീപാദ. സെലെബ്രിറ്റികളെ മാത്രമല്ല, സാധാരണക്കാരായ ആളുകളെ ഉന്നമിട്ടും ഇത്തരം തട്ടിപ്പുകൾ വ്യാപകമാണെന്ന് ചിൻമയി ചൂണ്ടിക്കാട്ടി. എക്സ് പ്ലാറ്റ്ഫോമിൽ (ട്വിറ്റർ) പങ്കുവച്ച കുറിപ്പിലാണ് ഡീപ്ഫെയ്ക് വിഷയത്തിൽ ചിൻമയി പ്രതികരിച്ചത്.

എഐ സാങ്കേതിക വിദ്യയുടെ ഇത്തരം ദുരുപയോഗങ്ങൾക്കെതിരെ ശക്തമായ നിയമ നടപടി വേണമെന്നു ചൂണ്ടിക്കാട്ടിയ ഗായിക, സ്ത്രീകളെ തട്ടിക്കൊണ്ടുപോകാനും ഭീഷണിപ്പെടുത്താനും പീഡനത്തിന് ഇരയാക്കാനുമുള്ള പുതിയ ആയുധമാണ് ഡീപ്ഫെയ്ക്ക് എന്നും മുന്നറിയിപ്പു നൽകി. 

‘‘പെൺകുട്ടികളെ തട്ടിയെടുക്കാനും ബ്ലാക്ക്‌മെയിൽ ചെയ്യാനും ബലാത്സംഗം ചെയ്യാനും ലക്ഷ്യമിട്ട് അക്രമികൾ ഉപയോഗിക്കുന്ന പുതിയ ആയുധമാണ് ഡീപ്ഫെയ്ക്. ഇത്തരം തട്ടിപ്പിന് ഇരകളാകുന്ന ചെറിയ ഗ്രാമത്തിലോ പട്ടണത്തിലോ ഉള്ള തീർത്തും സാധാരണക്കാരായ ആളുകളുടെ കുടുംബങ്ങൾക്ക് അവരുടെ മാനം എപ്പോഴാണ് നഷ്ടപ്പെടുക എന്നുപോലും തിരിച്ചറിയാനാകില്ല’ – ചിൻമയി കുറിച്ചു.

ലോൺ ആപ്പുകളിൽനിന്ന് ചെറിയ തുകകൾ കടം വാങ്ങിയിട്ടുള്ള സ്ത്രീകൾ ഇത്തരം തട്ടിപ്പുകൾക്ക് വൻതോതിൽ ഇരകളാകുന്നുണ്ടെന്ന് ചിൻമയി ചൂണ്ടിക്കാട്ടി. സ്ത്രീകളുടെ ചിത്രങ്ങൾ പോൺ ദൃശ്യങ്ങളുമായി ചേർത്ത് മോർഫ് ചെയ്ത് പണം തട്ടിയെടുക്കുന്ന സംഘങ്ങളും വ്യാപകമാണെന്ന് ചിൻമയി പറഞ്ഞു.

‘‘ഡീപ്ഫെയ്ക് അഥവാ വ്യാജ ചിത്രങ്ങളും വിഡിയോകളും സാധാരണ നിലയ്ക്ക് തിരിച്ചറിയാൻ പ്രയാസമാണ്. പെൺകുട്ടികളെ സംബന്ധിച്ച് അതീവ അപകടകരങ്ങളായ ഡീപ്െഫയ്ക്കിനെക്കുറിച്ച് ബോധവൽക്കരണം നടത്താനും, തട്ടിപ്പിന് ഇരയായാൽ അതു സ്വന്തം നിലയ്ക്കു കൈകാര്യം ചെയ്യാതെ അധികൃതരെ അറിയിക്കാനും പ്രോത്സാഹിപ്പിക്കുന്നതിന് ദേശീയ തലത്തിൽത്തന്നെ ഒരു ക്യാംപയിൻ ഉടൻ ആരംഭിക്കുമെന്നാണ് എന്റെ പ്രതീക്ഷ’ – ചിൻമയി കുറിച്ചു.

തെന്നിന്ത്യൻ നടി രശ്മിക മന്ദാനയുടെ ഡീപ്ഫെയ്ക് വിഡിയോ പ്രചരിച്ചത് ഏറെ വിവാദമായിരുന്നു. വിഡിയോയിൽ യഥാർഥത്തിലുള്ളത് സമൂഹമാധ്യമതാരം സാറ പട്ടേലാണ്. സാറയുടെ മുഖത്തിനു പകരം എഐ ഉപയോഗിച്ച് രശ്മികയുടെ മുഖം ചേർത്ത വിഡിയോയാണ് പ്രചരിച്ചത്. സംഭവത്തിൽ നിയമനടപടി സ്വീകരിക്കണമെന്ന് നടൻ അമിതാഭ് ബച്ചൻ അടക്കം ആവശ്യപ്പെട്ടിരുന്നു.

∙ ഡീപ്ഫെയ്ക്?

എഐയുടെ സഹായത്തോടെ തയാറാക്കുന്ന കൃത്രിമ വിഡിയോകളാണ് ഡീപ്ഫെയ്ക്. വിഡിയോ എടുത്ത് ശബ്ദം മാറ്റുകയോ തലമാറ്റി മോർഫ് ചെയ്യുകയോ ചെയ്യുന്ന പഴയ സൂത്രമല്ല ഡീപ്ഫെയ്ക്. ഒരാളുടെ ലഭ്യമായ വിഡിയോകളും ദൃശ്യങ്ങളുമെല്ലാം വിശദമായി പരിശോധിച്ച്, മുഖത്തെ പേശീചലനങ്ങൾ പോലും പഠിച്ച്, അയാൾ സംസാരിക്കുന്ന രീതിയിലും ശബ്ദത്തിലും അംഗവിക്ഷേപങ്ങളോടെയും വിഡിയോ തയാറാക്കുകയാണ് ചെയ്യുന്നത്.

English Summary:

Loan Apps Harass Women With Morphed Porn Pics: Singer Chinmayi

ഇവിടെ പോസ്റ്റു ചെയ്യുന്ന അഭിപ്രായങ്ങൾ മലയാള മനോരമയുടേതല്ല. അഭിപ്രായങ്ങളുടെ പൂർണ ഉത്തരവാദിത്തം രചയിതാവിനായിരിക്കും. കേന്ദ്ര സർക്കാരിന്റെ ഐടി നയപ്രകാരം വ്യക്തി, സമുദായം, മതം, രാജ്യം എന്നിവയ്ക്കെതിരായി അധിക്ഷേപങ്ങളും അശ്ലീല പദപ്രയോഗങ്ങളും നടത്തുന്നത് ശിക്ഷാർഹമായ കുറ്റമാണ്. ഇത്തരം അഭിപ്രായ പ്രകടനത്തിന് നിയമനടപടി കൈക്കൊള്ളുന്നതാണ്.
തൽസമയ വാർത്തകൾക്ക് മലയാള മനോരമ മൊബൈൽ ആപ് ഡൗൺലോഡ് ചെയ്യൂ
അവശ്യസേവനങ്ങൾ കണ്ടെത്താനും ഹോം ഡെലിവറി  ലഭിക്കാനും സന്ദർശിക്കു www.quickerala.com