നിങ്ങളുടെ സുഹൃത്തുക്കളുടെ ശബ്ദത്തിലും രൂപത്തിലും പണം ചോദിച്ചു വിളിക്കുന്നത് എഐ സാങ്കേതികവിദ്യ ഉപയോഗിച്ചാകാം.
ജാഗ്രത! വിളിക്കുന്നത് നിങ്ങളുടെ സുഹൃത്താണോ അതോ എഐ (AI) ആണോ?
സാങ്കേതികവിദ്യ വളരുന്നതിനോടൊപ്പം തട്ടിപ്പുകാരുടെ രീതികളും മാറുകയാണ്. നിങ്ങളുടെ സുഹൃത്തിന്റെയോ ബന്ധുവിന്റെയോ ശബ്ദത്തിലും രൂപത്തിലും വീഡിയോ കോൾ വരികയും, പെട്ടെന്ന് പണം ആവശ്യപ്പെടുകയും ചെയ്താൽ കണ്ണടച്ച് വിശ്വസിക്കരുത്. അത് ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് (AI) ഉപയോഗിച്ചുള്ള ഡീപ്ഫേക്ക് (Deepfake) തട്ടിപ്പാകാം.
പ്രത്യേകം ശ്രദ്ധിക്കുക: WhatsApp, Telegram തുടങ്ങിയ പ്ലാറ്റ്ഫോമുകളിലൂടെ പരിചയക്കാരുടെ രൂപത്തിൽ വീഡിയോ കോളുകൾ ചെയ്ത് പണം തട്ടുന്ന സംഘങ്ങൾ സജീവമാണ്.
എന്താണ് ഡീപ്ഫേക്ക് തട്ടിപ്പ്?
ഇന്റർനെറ്റിൽ ലഭ്യമായ ഒരാളുടെ ചിത്രങ്ങളും വീഡിയോകളും ശബ്ദവും ഉപയോഗിച്ച് എഐ സാങ്കേതികവിദ്യയിലൂടെ മറ്റൊരു വീഡിയോ നിർമ്മിക്കുന്ന രീതിയാണിത്. ഇത് കാണുമ്പോൾ ഒറിജിനൽ ആണെന്നേ തോന്നൂ. സുഹൃത്ത് അപകടത്തിൽ പെട്ടിരിക്കുകയാണെന്നോ, ആശുപത്രിയിലാണെന്നോ പറഞ്ഞ് വിശ്വസിപ്പിച്ച് നിങ്ങളിൽ നിന്ന് പണം തട്ടിയെടുക്കുകയാണ് ഇവരുടെ ലക്ഷ്യം.
എഐ ഡീപ്ഫേക്ക് വീഡിയോകൾ എങ്ങനെ തിരിച്ചറിയാം?
- കണ്ണുകൾ ശ്രദ്ധിക്കുക: ഡീപ്ഫേക്ക് വീഡിയോകളിൽ പലപ്പോഴും കണ്ണുകൾ സ്വാഭാവികമായി ചിമ്മില്ല (Blinking).
- അസ്വാഭാവിക ചലനങ്ങൾ: തല അനക്കുമ്പോഴോ സംസാരിക്കുമ്പോഴോ മുഖത്തിന്റെ അരികുകളിൽ ചെറിയ തടസ്സങ്ങൾ (Glitches) കാണാം.
- ശബ്ദവും ചുണ്ടും തമ്മിലുള്ള വ്യത്യാസം: സംസാരിക്കുന്ന വാക്കുകളും ചുണ്ടിന്റെ ചലനവും (Lip-sync) കൃത്യമായിരിക്കില്ല.
- ലൈറ്റിംഗും പശ്ചാത്തലവും: മുഖത്തെ വെളിച്ചവും വീഡിയോയിലെ പശ്ചാത്തലവും തമ്മിൽ ചെറിയ അസ്വാഭാവികത അനുഭവപ്പെടാം.
സുരക്ഷിതരായിരിക്കാൻ എന്തുചെയ്യണം?
- വാട്സാപ്പിലോ ടെലിഗ്രാമിലോ വീഡിയോ കോൾ വഴി പണം ചോദിച്ചാൽ ഉടൻ പണം അയക്കരുത്.
- ആ വ്യക്തിയെ അവരുടെ സാധാരണ ഫോൺ നമ്പറിൽ വിളിച്ച് സത്യമാണോ എന്ന് ഉറപ്പുവരുത്തുക.
- അപകടത്തിലാണെന്ന് പറഞ്ഞ് സമ്മർദ്ദത്തിലാക്കാൻ ശ്രമിച്ചാലും പരിഭ്രാന്തരാകാതെ ചിന്തിക്കുക.
- അപരിചിതമായ നമ്പറുകളിൽ നിന്നുള്ള വീഡിയോ കോളുകൾ പരമാവധി ഒഴിവാക്കുക.
ഇത്തരം തട്ടിപ്പിന് ഇരയായാൽ ഒട്ടും വൈകാതെ 1930 എന്ന നമ്പറിൽ പരാതിപ്പെടുക. കൂടുതൽ വിവരങ്ങൾക്കായി www.cybercrime.gov.in സന്ദർശിക്കുക.
നിങ്ങളുടെ ഒരു ഷെയർ വഴി ആരുടെയെങ്കിലും അധ്വാനിച്ച പണം നഷ്ടപ്പെടാതെ രക്ഷിക്കാൻ സാധിക്കും. ഈ വിവരം എല്ലാവരിലേക്കും എത്തിക്കൂ.