เทคโนโลยี

“AI Deepfake” เมื่อสแกมเมอร์ ลวงเราด้วยเสียงของคนใกล้ตัว

แชร์ข่าว

ในปัจจุบัน เทคโนโลยีเข้ามาเป็นส่วนหนึ่งของชีวิตประจำวันของเรามากกว่าที่คิดไม่ว่าจะเป็น ภาพ วิดีโอ หรือเสียง ที่เราเห็นและได้ยินผ่านโลกออนไลน์เทคโนโลยีเหล่านี้มีประโยชน์มากแต่ในอีกด้านหนึ่ง ก็ถูกนำมาใช้เป็นเครื่องมือของมิจฉาชีพเช่นกัน วันนี้ เทคโนโลยี AI Deepfake สามารถเลียนแบบ เสียง และ ภาพ ของคนใกล้ตัว ไม่ว่าจะเป็นคนในครอบครัว คนรัก หรือคนที่เราคุ้นเคยจนแทบแยกไม่ออกว่า…สิ่งที่ได้ยินหรือเห็นนั้น เป็นเรื่องจริงหรือเรื่องปลอมมิจฉาชีพอาศัยความไว้ใจและความห่วงใยหลอกให้เราเชื่อ และตัดสินใจอย่างเร่งด่วน เช่น ขอให้โอนเงิน อ้างว่าเกิดเหตุฉุกเฉิน หรือมีปัญหาด่วน กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม โดยศูนย์ปฏิบัติการเพื่อป้องกันและปราบปรามอาชญากรรมทางเทคโนโลยี หรือ AOC 1441 ขอเตือนให้ประชาชนเพิ่มความระมัดระวัง และสร้างเกราะป้องกันให้กับตนเอง

แน่ใจได้จริงหรือ… ว่าเสียงที่คุณกำลังได้ยินอยู่ คือ คนรักของคุณจริง ๆ

วันนี้ มิจฉาชีพปรับกลโกงให้แนบเนียนยิ่งขึ้นโดยใช้เทคโนโลยี ปัญญาประดิษฐ์ หรือ AI เลียนแบบเสียงของคนที่คุณรู้จักอาจเป็น พ่อ แม่ ลูก หลาน คนรัก หรือแม้แต่ เจ้าหน้าที่ของหน่วยงานรัฐ มิจฉาชีพจะนำเสียงตัวอย่างของบุคคลเหล่านั้น ไปให้ AI เรียนรู้และลอกเลียนจนได้เสียงที่ใกล้เคียงกับต้นฉบับมาก จากนั้นจะสร้างสถานการณ์เร่งด่วน เช่น เกิดอุบัติเหตุ ถูกจับ หรือมีปัญหาทางกฎหมาย แล้วโทรมาขอให้โอนเงินทันที กลโกงรูปแบบนี้ อันตรายมาก เพราะเหยื่อจำนวนมากหลงเชื่อเสียงที่ฟังดูเหมือนคนใกล้ตัวจริง ๆ จึงตัดสินใจโอนเงิน โดยไม่มีเวลาไตร่ตรองหรือ ตรวจสอบให้แน่ชัดเพียงแค่ “เสียงที่คุ้นเคย” ก็อาจทำให้คุณสูญเสียเงินได้ในไม่กี่นาที

ลักษณะการหลอกลวงด้วย AI Deepfake

มิจฉาชีพมักเริ่มจากการโทรเข้ามาแล้วแอบอ้างว่าเป็นคนที่เรารู้จักเสียงที่ได้ยิน อาจเป็นเสียงของญาติสนิท คนรัก เพื่อนใกล้ตัว ผู้ใหญ่ที่เคารพ หรือแม้แต่ คนดัง เบื้องหลังเสียงเหล่านั้นคือการใช้เทคโนโลยี เลียนแบบเสียง หรือ Voice Clone ซึ่งสามารถทำให้เสียงใกล้เคียงกับเจ้าของเสียงจริงมากจนแทบแยกไม่ออกว่าเป็นของจริงหรือของปลอมจากนั้น มิจฉาชีพจะสร้างสถานการณ์เร่งด่วน เช่น เกิดเหตุฉุกเฉิน ต้องใช้เงินทันทีเพื่อทำให้เหยื่อตกใจ สับสน และรีบตัดสินใจเมื่อความรัก ความห่วงใย และความกังวลเข้ามาแทนที่การไตร่ตรองเหยื่อจำนวนมากจึงตัดสินใจ โอนเงินทันที โดยไม่ได้ตรวจสอบให้แน่ชัดและเมื่อรู้ตัวอีกครั้งก็โอนเงินไปให้มิจฉาชีพแล้ว

ในวันที่ AI กลายเป็นดาบสองคม ถ้าเราไม่ระวังให้มากพอ

ความไว้ใจ…อาจกลายเป็นช่องโหว่ให้มิจฉาชีพ ศูนย์ปฏิบัติการเพื่อป้องกันและปราบปรามอาชญากรรมทางเทคโนโลยี หรือ AOC 1441 ได้รับแจ้งคดีหลอกลวงในรูปแบบ แอบอ้างเป็นบุคคลใกล้ชิด ในกรณีตัวอย่างนี้ผู้เสียหายได้รับโทรศัพท์จากบุคคลที่อ้างว่าเป็น “ลูกสาว” ที่กำลังศึกษาอยู่ในมหาวิทยาลัย ปลายสายขอให้โอนเงินอ้างว่าเป็นค่าใช้จ่ายเกี่ยวกับกิจกรรมของมหาวิทยาลัย เสียงที่ได้ยิน เหมือนลูกสาวจริง ๆ ทำให้ผู้เสียหายหลงเชื่อและโอนเงินไปกว่า 100,000 บาท ต่อมา เมื่อได้ติดต่อพูดคุยกับลูกสาวตัวจริงและสอบถามถึงกิจกรรมดังกล่าวจึงพบว่า ไม่เคยมีเรื่องนี้เกิดขึ้น ในขณะนั้นเองผู้เสียหายจึงรู้ตัวว่าเสียงที่โทรมาขอเงินก่อนหน้าคือเสียงที่ถูก ปลอมขึ้นด้วย AI

กรณีตัวอย่างที่เกิดขึ้นอาจเป็นเพียงส่วนหนึ่งของกลโกงที่มิจฉาชีพนำเทคโนโลยี AI Deepfake มาใช้หลอกลวง แต่สิ่งที่ช่วยป้องกันเราได้ดีที่สุดไม่ใช่เทคโนโลยีที่ซับซ้อนคือ สติ และการรู้เท่าทันกลโกง เพราะมิจฉาชีพมักอาศัยการสร้างสถานการณ์เร่งด่วนให้เราตกใจ ในยุคนี้ อย่าเชื่อเพียงเพราะเห็น อย่าโอนเพียงเพราะได้ยินเสียงที่คุ้นเคย ตรวจสอบให้แน่ใจทุกครั้ง ก่อนตัดสินใจ จำไว้ให้ขึ้นใจ ไม่กดลิงก์ ไม่เชื่อ ไม่รีบ ไม่โอน เพียงหยุดคิดสักนิดก็ช่วยเป็นเกราะป้องกันไม่ให้ตกเป็นเหยื่อของมิจฉาชีพได้

ข่าวแนะนำ