Deepfake Scams: கோடிக்கணக்கான ரூபாய்களை அபகரிக்கும் புதிய டிஜிட்டல் அச்சுறுத்தல்!
தீப்ஃபேக் வீடியோ மோசடிகள் பிரபலங்கள் மற்றும் அன்பானவர்களைப் போல் நடித்து கோடிக்கணக்கில் அபகரிக்கின்றன. இந்த AI-உருவாக்கிய மோசடிகள் எப்படி செயல்படுகின்றன என்பதையும் பாதுகாப்பான குறிப்புகளையும் அறியவும்.

டிஜிட்டல் மோசடியின் புதிய பரிமாணம்: தீப்ஃபேக்குகள்
சைபர் குற்றவாளிகள் இப்போது வெறும் மின்னஞ்சல்களை ஹேக் செய்வதோடு நின்றுவிடுவதில்லை; அவர்கள் மிக யதார்த்தமான டீப்ஃபேக் வீடியோக்களைப் பயன்படுத்தி மக்களை பணம், தனிப்பட்ட தரவுகள் மற்றும் அடையாளங்களைப் பகிர்ந்து கொள்ள ஏமாற்றுகிறார்கள். இந்த வார 'தி சேஃப் சைட்' (The Safe Side) பகுதியில், டீப்ஃபேக் நிதி மோசடிகள் எவ்வாறு செயல்படுகின்றன என்பதையும், பாதுகாப்பாக இருக்க நிபுணர் ஆதரவு பெற்ற உதவிக்குறிப்புகளையும் நாங்கள் உங்களுக்கு வழங்குகிறோம். செயற்கை நுண்ணறிவு (AI), மெஷின் லேர்னிங் மற்றும் முகமாற்றும் தொழில்நுட்பத்தைப் பயன்படுத்தி உருவாக்கப்பட்ட மிக யதார்த்தமான வீடியோக்கள் அல்லது ஆடியோக்கள் டீப்ஃபேக்குகள் ஆகும்.
ஜார்ஜ் க்ளூனியாக நடித்து ரூ. 11 லட்சம் மோசடி!
இதற்கு ஒரு உதாரணம்: அர்ஜென்டினாவைச் சேர்ந்த ஒரு பெண், ஃபேஸ்புக்கில் "ஜார்ஜ் க்ளூனி"யுடன் இணைந்ததாக நினைத்து, தினமும் அவரிடமிருந்து வீடியோ செய்திகளைப் பெற்றுக்கொண்டார். ஆறு வாரங்களாக, அவர் ஹாலிவுட் நட்சத்திரத்துடன் பழகி வந்தார், அவருடைய சூடான, உயிருள்ள வீடியோக்களால் ஆச்சரியப்பட்டார். பின்னர் ஒரு நாள், ஒரு கோரிக்கை வந்தது: ஒரு ரசிகர் மன்றத்தில் சேரவும், ஒரு சிறப்பு அட்டைக்கு பணம் செலுத்தவும், மற்றும் பிரத்தியேக வேலை வாய்ப்புகளைத் திறக்கவும். ஹாலிவுட் ஐகானை நம்பி, அவர் சுமார் ரூ. 11 லட்சம் வரை மாற்றினார், ஆனால் எஃப்.பி.ஐயைத் தொடர்பு கொண்ட பிறகுதான், அவர் ஒரு AI-உருவாக்கிய டீப்ஃபேக்கால் ஏமாற்றப்பட்டார் என்பதைக் கண்டுபிடித்தார். இந்த பெண்ணின் கதை ஒரு எச்சரிக்கை மணியாகும். மோசடி செய்பவர்கள் டீப்ஃபேக் தொழில்நுட்பத்தை ஆயுதமாகப் பயன்படுத்தி பிரபலங்கள், அதிகாரிகள் மற்றும் உங்கள் அன்பானவர்களைப் போல நடித்து, நம்பிக்கையை ஒரு ஆபத்தான பொறியாக மாற்றுகிறார்கள். இந்த மோசடிகள் சமூக ஊடக தளங்களில் வெடித்து வருகின்றன, யாரும் ஒரு இலக்காகலாம்.
தீப்ஃபேக் வீடியோக்கள் என்றால் என்ன, ஏன் அவை மிகவும் ஆபத்தானவை?
டீப்ஃபேக்குகள் என்பது செயற்கை நுண்ணறிவு (AI), மெஷின் லேர்னிங் மற்றும் முகமாற்று தொழில்நுட்பத்தைப் பயன்படுத்தி உருவாக்கப்பட்ட மிக யதார்த்தமான வீடியோக்கள் அல்லது ஆடியோக்கள் ஆகும். உண்மையான படங்கள், வீடியோக்கள் அல்லது குரல் மாதிரிகளை இணைப்பதன் மூலம், மோசடி செய்பவர்கள் மக்கள் நடக்காத விஷயங்களைச் சொல்வது அல்லது செய்வது போன்ற நம்பகமான போலிகளை உருவாக்குகிறார்கள். "டீப்ஃபேக்குகள் சைபர் குற்றவாளிகளுக்கு நம்பிக்கையை உருவாக்க உதவுகின்றன, இது டிஜிட்டல் கைதுகள் அல்லது அடையாளத் திருட்டு போன்ற மோசடிகளுக்கு ஒரு அடிப்படையை உருவாக்குகிறது," என்று வங்கி மற்றும் நிதிச் சேவைத் துறையைச் சேர்ந்த AI நிபுணர் டாக்டர். அசாஹர் மச்வே கூறினார். "அவர்கள் AI-மாற்றப்பட்ட ஆடியோவுடன் ஒரு உண்மையான வீடியோவைப் பயன்படுத்தலாம் அல்லது ஒரு புகைப்படம் மற்றும் குரல் மாதிரியைப் பயன்படுத்தி முற்றிலும் போலியான வீடியோவை உருவாக்கலாம். இது டீப்ஃபேக் ஒரு வாடிக்கையாளர், ஒரு சட்ட அமலாக்க அதிகாரி, அல்லது ஒரு அதிகாரப் பொறுப்பில் உள்ளவர் போல நடித்து மோசடியை தூண்ட பயன்படுத்தப்படுகிறது." லேர்னிங் ஸ்பைரல் AI இன் நிறுவனர் மனிஷ் மோத்தா கூறுகையில், “இந்த மிக யதார்த்தமான வீடியோக்கள் பெரும்பாலும் CEOக்கள், உறவினர்கள் அல்லது அரசு அதிகாரிகளைப் போல நடித்து, பாதிக்கப்பட்டவர்களை பணம் அனுப்பவோ அல்லது முக்கியமான தரவைப் பகிரவோ ஏமாற்றுகின்றன.”
KYC மோசடிகள் மற்றும் பிரபலங்களின் போலி ஒப்புதல்கள்!
அனாப்டிஸ்ஸின் CEO அன்யுஜ் குரானா மற்றொரு பயங்கரமான தந்திரத்தைப் பற்றி எச்சரித்தார்: "மோசடி செய்பவர்கள் KYC மோசடிகளுக்கு டீப்ஃபேக்குகளைப் பயன்படுத்துகிறார்கள், அடையாளச் சரிபார்ப்புகளைத் தவிர்க்க போலி வீடியோ ஐடிகளை உருவாக்குகிறார்கள். ஒருமுறை அவர்களுக்கு அணுகல் கிடைத்ததும், அவர்கள் பணமோசடி அல்லது பிற குற்றங்களுக்கு கணக்குகளைப் பயன்படுத்துகிறார்கள். போலி முதலீடுகளுக்கான போலி பிரபலங்களின் ஒப்புதல்களும் வளர்ந்து வரும் அச்சுறுத்தலாகும்." அவருக்கு According to him, பாரம்பரிய ஃபிஷிங் மின்னஞ்சல்களைப் போல வெளிப்படையான எழுத்துப்பிழைகள் அல்லது அசௌகரியமான சொற்றொடர்கள் இல்லாமல், டீப்ஃபேக்குகள் யதார்த்தத்திலிருந்து கிட்டத்தட்ட வேறுபடுத்த முடியாதவை. "மோசடி செய்பவர்கள் டீப்ஃபேக்குகளின் கேள்விக்கிடமற்ற நம்பகத்தன்மையை மனித நம்பிக்கையை சுரண்டவும், முக சரிபார்ப்பு மற்றும் குரல் அங்கீகாரம் உள்ளிட்ட பாதுகாப்பு நெறிமுறைகளை ஏமாற்றவும் நிதி மோசடி செய்ய பயன்படுத்திகிறார்கள்," என்று குரானா கூறினார்.
ஃபிஷிங் மின்னஞ்சல்கள்
"ஃபிஷிங் மின்னஞ்சல்கள் உரை அடிப்படையிலான ஏமாற்றத்தை நம்பியிருக்கும்போது, டீப்ஃபேக் வீடியோக்கள் மூளையின் முகபாவங்கள், குரல் தொனி மற்றும் உடல் மொழி மீதான உள்ளுணர்வு நம்பிக்கையை சுரண்டுகின்றன," என்று Arche இன் சைபர் பாதுகாப்பு இயக்குனர் வெங்கடேசன் சடையப்பன் கூறினார். ஜூம் அல்லது வாட்ஸ்அப் போன்ற நம்பகமான தளங்கள் மூலம் உள்ளடக்கம் வருவதால், வழக்கமான மின்னஞ்சல் வடிகட்டிகள் அல்லது சைபர் பாதுகாப்பு கருவிகளைப் பயன்படுத்தி டீப்ஃபேக்குகளைக் கண்டறிவது கடினம் என்றும் அவர் கூறினார், இது பாரம்பரிய பாதுகாப்பு கட்டமைப்புகளில் ஒரு ஆபத்தான மறைமுக இடத்தை உருவாக்குகிறது.
மோசடி செய்பவர்கள் டீப்ஃபேக்குகளை எப்படி உருவாக்குகிறார்கள்?
மோசடி செய்பவர்கள் நம்பகமான டீப்ஃபேக்கை உருவாக்க அதிகம் தேவையில்லை. மூலப் பொருட்களை அவர்கள் எவ்வாறு சேகரிக்கிறார்கள் என்பது இங்கே:
பொதுவில் கிடைக்கும் உள்ளடக்கம்: சமூக ஊடக சுயவிவரங்கள், கார்ப்பரேட் வலைத்தளங்கள், செய்தி துணுக்குகள் மற்றும் ஆன்லைன் நேர்காணல்கள் ஏராளமான புகைப்படங்கள் மற்றும் வீடியோக்களை வழங்குகின்றன.
தொழில்முறை தோற்றங்கள்: நிர்வாகிகள் பெரும்பாலும் வெபினர்கள், நேர்காணல்கள் மற்றும் விளக்கக்காட்சிகளில் இடம்பெறுவார்கள், இது மோசடி செய்பவர்களுக்கு தெளிவான காட்சிகள் மற்றும் பேச்சு வடிவங்களை வழங்குகிறது.
குரல் மாதிரிகள்: போட்காஸ்ட்கள், பதிவுசெய்யப்பட்ட சந்திப்புகள் அல்லது சமூக ஊடகங்களில் இருந்து குறுகிய ஆடியோ கிளிப்புகள் கூட குரல்களைப் பிரதிபலிக்க போதுமானவை.
குறைந்தபட்ச உள்ளீடு: AI 5-10 வினாடிகள் வீடியோ அல்லது ஆடியோவுடன் ஒரு டீப்ஃபேக்கை உருவாக்க முடியும், இது கிட்டத்தட்ட யாரையும் ஒரு சாத்தியமான இலக்காக மாற்றுகிறது.
டீப்ஃபேக்குகளைக் கண்டறிவது எப்படி: கவனிக்க வேண்டிய சிவப்பு கொடிகள்
டாக்டர் மச்வே, டீப்ஃபேக்கை மிகத் தாமதமாகிவிடும் முன் அடையாளம் காண சில முக்கிய அறிகுறிகளைப் பகிர்ந்துள்ளார்:
சிறு முக அம்சங்களை உன்னிப்பாகப் பாருங்கள்: முடி இழைகள், காதுகள், உதடுகள் மற்றும் கண் அசைவுகள் போன்றவற்றை AI துல்லியமாகப் பிரதிபலிப்பது கடினம், குறிப்பாக ஒருவர் பேசும்போது.
மங்கலைக் கவனியுங்கள்: முகத்தின் சில பகுதிகள் மங்கலாகவோ அல்லது "உருகுவது" போலவோ தோன்றினால், குறிப்பாக அந்த மெல்லிய அம்சங்களைச் சுற்றி, அது வீடியோ போலி என்பதற்கான அறிகுறியாக இருக்கலாம்.
ஒட்டுமொத்த வீடியோ தரம்: திடீர் தெளிவு குறைதல், அல்லது முழு விஷயமும் இயற்கைக்கு மாறாக மங்கலாகத் தெரிந்தால், அது AI-உருவாக்கப்பட்டது ஆக இருக்கலாம்.
குரலைக் கேளுங்கள்: AI குரல்கள் பெரும்பாலும் சற்றே சலிப்பானதாகவோ அல்லது உணர்ச்சியற்றதாகவோ இருக்கும். மேலும், உதடு அசைவுகள் ஆடியோவுடன் சரியாக ஒத்திசைக்காமல் இருக்கலாம்.
கோரிக்கைகளை சரிபார்க்கவும்: வீடியோவில் கூறப்படும் கோரிக்கைகளை சரிபார்க்க நம்பகமான ஆதாரங்கள் மற்றும் ஆன்லைன் கருவிகளைப் பயன்படுத்தவும்.
உங்கள் உள்ளுணர்வை நம்புங்கள்: ஏதேனும் "வித்தியாசமாக" அல்லது உண்மைக்கு மிக நன்றாக இருப்பதாகத் தோன்றினால், அது பெரும்பாலும் அப்படித்தான் இருக்கும்.
டீப்ஃபேக்
நீங்கள் பாதிக்கப்பட்டவர் என்பதை நினைவில் கொள்ளுங்கள். மிக மோசமாக, ஒரு டீப்ஃபேக் சங்கடத்தை ஏற்படுத்தலாம், ஆனால் அதைப் உருவாக்குபவர்கள் அல்லது பகிர்பவர்கள் மீது முழுப் பழியும் விழுகிறது, நீங்கள் அல்ல. தகவலறிந்து, விழிப்புடன், மற்றும் செயல்படுவது டீப்ஃபேக் வீடியோ நிதி மோசடிகளின் வளர்ந்து வரும் அச்சுறுத்தலுக்கு எதிரான உங்கள் சிறந்த பாதுகாப்பு.