கோலாலம்பூர்:
மோசடி செய்பவர்கள் செயற்கை நுண்ணறிவு (AI) தொழில்நுட்பத்தைப் பயன்படுத்தி பாதிக்கப்பட்டவரின் குரலைப் பிரதிபலித்து குடும்ப உறுப்பினர்களை ஏமாற்றி பணத்தை மாற்றுகிறார்கள் என்ற புதிய வகை மோசடி குறித்து காவல்துறை எச்சரிக்கை விடுத்துள்ளது.
வைரலாகும் வீடியோ பயனரான இசுல் இஸ்லாமில், எவ்வாறு மோசடி அழைப்பை ம்பேர்கொள்கிறார்கள் எவ்வாறு பெறுகிறார்கள் என்பதை இரண்டு காவல்துறை அதிகாரிகள் விளக்கினர்.
அதாவது தொலைபேசி அழைப்புக்கு பாதிக்கப்பட்டவர் மீண்டும் மீண்டும் “ஹலோ” என்று பதிலளிக்கும் போது அல்லது பல வினாடிகள் பேசும்போது, மோசடி செய்பவர்கள் அவரின் குரல் மாதிரியைப் பதிவு செய்ய ஒரு சாதனத்தைப் பயன்படுத்துவதாக நம்பப்படுகிறது.
அதிகாரிகளின் கூற்றுப்படி, ஒரு நபரின் குரலை நம்பத்தகுந்த வகையில் நகலெடுக்க AI தொழில்நுட்பத்திற்கு மூன்று முதல் ஐந்து வினாடிகள் ஆடியோ போதுமானது.
“குரல் மாதிரியைப் பெற்றவுடன், மோசடி செய்பவர்கள் பாதிக்கப்பட்டவரின் குரலைப் பயன்படுத்தி செய்திகள் அல்லது அழைப்புகளை உருவாக்க முடியும். பின்னர் அவர்கள் பாதிக்கப்பட்டவருக்கு அவசரமாக பணம் தேவைப்படுவதாகக் கூறி, பெற்றோர் போன்ற குடும்ப உறுப்பினரைத் தொடர்பு கொள்ளலாம்,” என்று ஒரு அதிகாரி கூறினார்.
இதுபோன்ற சந்தர்ப்பங்களில், மோசடி செய்பவர் பாதிக்கப்பட்டவரின் தொனி மற்றும் பேச்சு முறைகளைப் பின்பற்றி அவசரத்தை ஏற்படுத்துகிறார், பெரும்பாலும் குடும்ப உறுப்பினரை மூன்றாம் தரப்பு கணக்கிற்கு விரைவாக நிதியை மாற்றும்படி வழிநடத்துகிறார்.
“பெற்றோர்கள் தங்கள் பிள்ளையின் குரல் போல கேட்டதும், பீதி ஏற்படுகிறது. அவர்கள் அது உண்மையானது என்று நம்புகிறார்கள், உடனடியாக பணத்தை அனுப்புகிறார்கள்,” என்று அதிகாரி கூறினார்.
இந்த தந்திரோபாயம் வணிக குற்ற வழக்குகளின் பரிணாம வளர்ச்சியைக் குறிக்கிறது என்று போலீசார் தெரிவித்தனர், ஆள்மாறாட்ட மோசடிகளின் நம்பகத்தன்மையை அதிகரிக்க AI இப்போது பயன்படுத்தப்படுகிறது.
இலக்கு வைக்கப்படும் அபாயத்தைக் குறைக்க, தெரியாத அழைப்புகளுக்கு பதிலளிக்கும்போது முதலில் பேசுவதைத் தவிர்க்குமாறு போலீசார் பொதுமக்களுக்கு அறிவுறுத்தினர்.