"ดีอีเอส" เตือนภัยระวังปลอมเสียง ปลอมแชต ปลอมคลิป สร้างจาก AI อย่าง Deepfake, Social Maker และ Fake voice หลังมีผู้เสียหายแจ้งความหลายราย

วันที่ 30 ก.ย.65 จากกรณีที่ผู้เสียหายถูกแอบอ้างโดยการเลียนเสียงโทรศัพท์ไปหลอกยืมเงินเพื่อนเข้าแจ้งความ ร.ต.อ.สันติชาติ ปัญญาน๊ะ รอง สว.(สอบสวน) สน.โชคชัย   เมื่อ 25 ก.ย. ว่า “มีผู้ใช้โทรศัพท์หมายเลขXXXXXXXXXX แอบอ้างเป็นตน โทร.ไปหาเพื่อนคนหนึ่งบอกว่าได้เปลี่ยนเบอร์มือถือใหม่ ก่อนจะขอยืมเงิน 
โดยให้โอนเงินไปบัญชีธนคารทหารไทยธนชาต เลขบัญชี…++++++ ชื่อบัญชี น.ส.ธัญวรัตน์ (สงวนนามสกุล)  ซึ่งผู้แจ้งไม่เคยกระทำการดังกล่าวจึงมาลงประจำวันไว้เป็นหลักฐาน”

ต่อมาวันที่ 26 ก.ย.65 นายสุทธิชัย (ขอสงวนนามสกุล) เพื่อนคนที่ถูกยืมเงินได้โพสต์เฟซบุ๊ก มีคนกดไลท์ แสดงความคิดเห็นจำนวนมาก และแชร์ต่อไปนับพันแชร์ ว่า… “ผมเคยเขียนเรื่องมิจฉาชีพในต่างประเทศที่ใช้ AI ปลอมตัวเป็นคนคุ้นเคยมาหลอกโอนเงินแล้วหลายครั้ง ในที่สุดมันก็เกิดขึ้นในประเทศไทย และเป็นประสบการณ์ที่เกิดกับผมโดยตรง!!!

เมื่อวันเสาร์ที่ 24 ก.ย. มีโทรศัพท์เบอร์ที่ไม่คุ้นเคยโทร.เข้ามาหา แต่พอรับสายแล้วจำได้แม่นว่าเป็นเสียงของเพื่อนที่รู้จักกันมานานกว่าสามสิบปีชื่อ “ตุ๋ย” 
“ตุ๋ย” บอกว่าเปลี่ยนเบอร์มือถือแล้ว ให้เมมเบอร์ใหม่ไว้ แล้วลบเบอร์เก่าออกด้วย
ผมลบเบอร์เก่าของ “ตุ๋ย” ที่บันทึกไว้ และบันทึกเบอร์โทรใหม่ของ “ตุ๋ย” ทันที 

วันอาทิตย์ที่ 25 ก.ย. เวลา 10.53 น. “ตุ๋ย” ได้โทรมาหาอีกครั้ง เบอร์ใหม่ของ “ตุ๋ย” ที่โทรเข้ามาบอกว่า ออกมาซื้อของ แต่เงินสดไม่พอ ขอยืมเงิน 15,000 บาท เดี๋ยวเย็นๆจะโอนใช้คืนให้ 
ผมมั่นใจว่าเป็นเสียงของ “ตุ๋ย” แน่ๆ และตอบรับว่า จะโอนเงินที่ต้องการไปให้ ขอให้แจ้งเบอร์บัญชีมาด้วย
ข้อความตามรูปในโพสต์ คัดลอกมาจาก SMS ที่ได้รับทางมือถือ 
“ตุ๋ย” บอกว่าหาไลน์ไม่เจอเลยส่งมาทางนี้ ให้เบอร์บัญชีมาชัดเจน แล้วกำชับให้โทร.มาบอกเมื่อโอนแล้ว 
ตอนได้ยินเสียงขอยืมเงินจาก “ตุ๋ย” ผมเชื่ออย่างสนิทใจว่าเป็น “ตุ๋ย” ที่ผมรู้จักดีแน่ๆ แต่เมื่อเห็นข้อความนี้เลยเริ่มสงสัย!?!
ทำไมไม่ส่งเลขบัญชีมาทางไลน์? แล้วชื่อบัญชีที่ให้โอนเป็นชื่อใครก็ไม่รู้จัก ไม่ใช่ชื่อจริงของ “ตุ๋ย”
ผมไม่มีเบอร์โทรเก่าของ “ตุ๋ย” เพราะลบออกไปแล้ว 
ผมโทรกลับไปหา “ตุ๋ย” ทางไลน์ เพื่อยืนยันว่า ใช่ “ตุ๋ย” จริงหรือไม่?
“ตุ๋ย” ยืนยันว่า ไม่ได้โทร.มาขอยืมเงิน!!! และไม่ได้เปลี่ยนเบอร์มือถือ!!!
“ตุ๋ย” ที่โทรมาหาผม คือ Deepfake AI ที่สร้างเสียงสังเคราะห์เหมือนเสียง “ตุ๋ย” ตัวจริง!!!ผมส่งข้อมูลทั้งหมดให้ “ตุ๋ย” ตัวจริง มีข้อมูลเบอร์โทรและเลขที่บัญชีครบถ้วน เพื่อนำข้อมูลทั้งหมดไปแจ้งความ ตำรวจจะได้ไปสืบหาตัวคนร้าย และให้ธนาคารอายัดบัญชีดังกล่าว 
ตำรวจที่รับแจ้งความบอกว่า ช่วงนี้มีเหตุการณ์ทำนองนี้หลายครั้ง มีเหยื่อในประเทศไทยโดนหลอกโอนเงินไปแล้วหลายราย!!!
ที่เอาเรื่องนี้มาเล่า เพราะอยากให้ทุกคนได้ระวังตัวกันไว้ด้วย
เสียงเหมือนคนคุ้นเคยที่รู้จัก อาจไม่ใช่คนที่คุณรู้จักจริงๆ แต่คุณอาจเป็นเหยื่อของเทคโนโลยี

รายที่สอง นายมานิตย์ (ขอสงวนนามสกุล) อายุ 68 ปี อาชีพทนายความ เปิดเผยว่า…
“เมื่อต้นเดือนมีโทร.มา โชว์หมายเลขไม่รู้จักว่าเป็นใคร พอรับสายมีเสียงผู้ชายทักว่าจำได้ป่าวว่าใคร เราหลวมตัวตอบไปว่า "ไอ้ชัชเหรอ."  (เพื่อนเก่าไม่เจอกันนาน) ปลายสายตอบสวนมาทันทีเลยว่า ใช่.. 
ตอนนี้เปลี่ยนเบอร์ใหม่แล้วนะพร้อมขอให้ลบเบอร์เก่าทิ้ง  ก่อนจะบอกว่ามีสายเข้าพอดีแล้วจะโทร.มาหาใหม่ โดยยังไม่ได้คุยอะไรกันมาก 
วันรุ่งขึ้นโทร.ดังโชว์ชื่อชัช ตามที่เจ้าตัวบอกให้เมมฯ เบอร์ใหม่ เป็นเสียงเดิมโทรมา บอกว่ากำลังออกของที่ท่าเรือ ทำเช็คจ่ายค่าออกของไม่พอ ขอยืม 12,000.- แล้วจะรีบโอนคืนให้ตอนเย็นให้เราบอกเลขบัญชีให้มันแล้ววางหูไป
เราเริ่มสงสัย ก็เขายังไม่บอกเลข บัญชีธนาคารที่จะให้เราโอนเลย แล้วปกติเพื่อนคนนี้โทร.มาหาทีไรมีแต่จะชวนดื่มเบียร์ ไม่เคยยืมเงินเลย แต่ครั้งนี้กลับไม่ชวน 
สักพักโทรกลับมาถามเลขบัญชีธนาคารอีก เราเลยตอบไปไม่ต้องโอนกลับมาหรอก ทำธุระเสร็จแล้วให้มาดื่มเบียร์กัน ปลายสายบอกไม่ว่าง  จะโอนให้ท่าเดียว…
คราวนี้ มันคงกลัวว่าความจะแตกเลยบอกว่าไม่เป็นไร แล้วจะโทรมาใหม่ จากนั้นหายจ้อยไปไม่โทร.มาอีก
เจอชัช เพื่อนคนที่ถูกเลียนเสียงตัวจริงแวะมาดื่มเบียร์ เราเล่าให้ฟังเขายืนยันใช้เบอร์เดิม ไม่เคยเปลี่ยนเบอร์ใหม่ ไม่ได้แจ้งความเพราะยังไม่เสียท่าโอนเงินให้คนร้าย

รายที่สาม เป็นคุณแม่ของ น.ส.ณภัทร (สงวนนามสกุล) บอกว่า เมื่อวันที่ 8 ก.ย.ที่ผ่านมาคุณแม่รับโทรศัพท์มือถือ แม่บอกเป็นเสียงพี่สาว โทร.มาขอยืมเงินก่อน 30,000 บาท เดี๋ยวเย็นจะคืน
คุณแม่ยืนยันว่าเป็นเสียงเหมือนพี่สาวเธอจริงๆ จึงโอนเงินให้ไปตามบัญชีธนาคารที่บอกมาเป็นชื่อ น.ส.พรประภา(สงวนนามสกุล) ธนาคารกรุงเทพ เลขบัญชี 9804342XXX
หลังจากนั้นตอนเย็นพี่สาวติดต่อคุณแม่มาจึงทวงเงินไหนบอกจะคืน พี่สาวงงบอกไม่รู้เรื่อง น่าจะถูกหลอก  วันรุ่งขึ้นจึงพาคุณแม่ไปแจ้งความ ร.ต.อ.กฤธเนศ รอง สว.(สอบสวน) สน.ประเวศ แนะนำให้แจ้งความ thaipoliceonline.com ก่อนทำการอายัดบัญชีคนร้าย

พี่ ”มิ้ง คอมทูเดย์” บก.นิตสาร ไอที.อันดับ 1 ของเมืองไทย ระบุในรายการ Comtoday ทางวิทยุ FM 89.5 MHz สถานีวิทยุราชมงคลธัญบุรีเมื่อ 25 ก.ย. ที่ผ่านมาหัวข้อ “เทคนิคให้ voice filters ฝึก AI ให้ปลอมเสียง” ว่าเทคโนโลยี Deepfake เดิมเน้นปลอมหน้าใครก็ได้โดยใส่ไปในวีดิโอ ซึ่งได้รับความนิยมในวงการหนัง AV สำหรับผู้ใหญ่มาก

ล่าสุดได้มีการคิดค้น voice filter ที่ให้เราสามารถใช้เลียนแบบเสียงใครก็ได้ทั้งน้ำเสียง และสำเนียง ซึ่งคนที่สร้างขึ้นมาบอกว่าจะเป็นประโยชน์อย่างมาก แต่สังคมส่วนใหญ่กลับมีความกังวลว่ามันจะสร้างความเสียหายร้ายแรงต่อสังคมเช่นกัน ประโยชน์ที่ผู้สร้างอ้างถึงคือลดอคติต่างๆ เช่น คอลเซ็นเตอร์ในประเทศแถบยุโรปปัจจุบันมีคนแถบเอเชียเข้าไปทำงานเยอะมาก แม้จะพูดภาษาอังกฤษแต่สำเนียงก็ยังคงเป็นแบบเอเชีย หากมีการโทร.เข้ามาแล้วคอลเซ็นเตอร์รับโดยไม่ใช่สำเนียงแบบอเมริกันหรือสำเนียงยุโรปที่คุ้นหูก็อาจเกิดอคติแต่เริ่มก็ได้…

แน่นอนเทคโนโลยี่เหมือนเหรียญที่มีสองด้าน สแกมเมอร์หรือมิจฉาชีพที่ขโมยข้อมูลอาจใช้ในการฉ้อโกงได้มากขึ้น เช่น สแกมเมอร์อาจจะใช้แปลงเสียงเราเพื่อไปโทร.หาแม่เพื่อขอยืมเงิน ซึ่งเมื่อเป็นเสียงของเราคุณแม่ก็อาจจะไม่สงสัยอะไร หรือเสียงหัวหน้าโทร.มาหาลูกน้องสั่งการให้ลูกน้องทำอะไรสักอย่างที่อาจจะมีผลเสียกับบริษัท แม้กระทั่งใช้เลียนเสียเจ้าของบ้านเพื่อปลดล็อคประตูในกรณีที่บ้านนั้นใช้สั่งการเปิด-ปิดประตูด้วยเสียงแล้วเข้าไปขโมยของในบ้านได้

วิธีการใช้งานเปลี่ยนเสียงคือเราต้องเปิดเสียงจริงๆ ให้ AI บันทึกเป็นระยะเวลา 15-30 วินาที เพียงเท่านี้ AIก็จะเปลี่ยนเสียงเราให้เป็นเสียงคนๆ นั้นได้เลย
ขั้นต้น voice.AI จะเริ่มใช้งานผ่านโปรแกม discort และ zoom ซึ่งเวลานี้ยังไม่ระบุเวลาเปิดให้บริการที่แน่ชัด”

ด้าน ดร.ปานระพี  รพิพันธุ์ พิธีกร-ผู้ผลิตรายการ ไอที 24 ชั่วโมง และ เจ้าของเว็บไซด์ it24 Hrs. Com ตอบในประเด็นการใช้ AIปลอมเสียง ว่า…“อยากฟังเสียงที่ผู้เสียหายโดนมิจฉาชีพโทร.มาคุยด้วย จะได้วิเคราะห์ถูกว่าเขาทำด้วยวิธีไหน ตอนนี้เลยตอบยากว่าใช่หรือไม่ใช่ เพราะยังไม่ทราบว่าเสียงออกมาเป็นแบบไหนไม่กล้าฟันธงเพราะบางทีคนร้ายอาจจะเป็นเพียงแค่การเอาเสียงมาตัดต่อก็ได้ หรือแค่บิดเสียงนิดๆ หน่อยๆ ไม่ถึงขนาดกับใช้ AI ก็ได้…

เรื่องนี้น่าสนใจ อาจจะไม่สำคัญว่าปลอมเสียงได้ด้วยวิธีไหนจะเป็น AI หรือไม่ AI ก็แล้วแต่  ความสำคัญคือปลอมแล้วมันเหมือนก็น่าจะต้องเตือนประชาชน แก๊งคอลเซ็นเตอร์เปลี่ยนรูปแบบไปเรื่อยๆ นายทุนใหญ่เป็นจีน เป็นกิจการใหญ่โตไม่เลิกง่ายๆแล้วก็ยังมีคนไปร่วมทำงานอยู่ด้วยเรื่อยๆ ที่บอกว่าโดนหลอกไปทำ ไม่น่าเชื่อแล้ว ส่วนใหญ่ก็เต็มใจไปกันทั้งนั้น รับสมัครกันโจ๋งครึ่มผ่านอินเตอร์เน็ตเลย

น.ส.นพวรรณ หัวใจมั่น โฆษกกระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคมฝ่ายการเมือง (ดีอีเอส) กล่าวในเรื่องนี้ ว่า ขณะนี้มีเทคโนโลยีปลอมเสียง ปลอมแชต ปลอมคลิป ( Deepfake,Social Maker และ Fake voice) ซึ่งเป็นการปลอมแปลงข้อมูล การตัดต่อภาพ ตัดต่อข้อความ ตกแต่งเสียงพูด หรือแม้แต่การตัดต่อวิดีโอคลิปให้เหมือนเป็นเรื่องที่เกิดขึ้นจริง ซึ่งประชาชนควรรู้ เพื่อให้เข้าใจ รู้เท่าทัน และป้องกันการถูกใช้เป็นเครื่องมือของมิจฉาชีพ หรือพฤติกรรมที่ส่งผลกระทบต่อการดำเนินชีวิต และทรัพย์สินของผู้อื่น

“จากเทคโนโลยีดังกล่าว ทำให้กลุ่มมิจฉาชีพนำมาใช้ในการแชตปลอม โพสต์ปลอม ผ่าน”Social Maker” ที่สร้างโพสต์ปลอม,ข้อความปลอม,ความคิดเห็นปลอม และสร้างโปรไฟล์ปลอม ใน 3 แพลตฟอร์ม ในโซเชียลมีเดีย คือ Facebook, Instagram และ Twitter รวมถึงโปรแกรมแชท Messenger, Message ต่างๆ สร้างความเข้าใจผิดและหลอกลวง เป็นภัยสังคมอยู่ในขณะนี้”

โดยการปลอมภาพคลิปด้วย Deepfake สร้างภาพความคมชัดสูง และท่าทางที่เสมือนจริงมากขึ้นการแปลงเสียง Voice changer / Jokesphone ปลอมเสียงได้ง่ายๆ ผ่านแอปพลิเคชั่นต่างๆ ที่เปลี่ยนน้ำเสียง เช่น ชายเป็นหญิง หญิงเป็นชาย ผู้ใหญ่เป็นเด็กซึ่งการแชตปลอม,โพสต์ปลอม,ปลอมภาพคลิป,การเลียนเสียงและแปลงเสียง ที่ผู้ไม่ประสงค์ดี ใช้เป็นเครื่องมือในการแอบอ้างเป็นบุคคลอื่นเพื่อประโยชน์บางอย่าง หลอกลวงให้โอนเงิน ดังนั้นขอให้ประชาชนควรตรวจสอบข้อมูลทุกครั้งก่อนที่จะเชื่อ หรือแชร์ต่อ เพื่อให้มั่นใจว่า สิ่งที่คุณเห็นเป็นเรื่องจริง

สำหรับเทคโนโลยีในการปลอมแปลง อย่างเช่น ‘Deepfake’ ‘Social Maker’ และ ‘Fake voice’ เป็นที่นิยมของคนไทยนำมาใช้ รวมทั้งแอปพลิเคชั่นแชทต่างๆ มักนำมาใช้กันจนเป็นปกติ ซึ่งเทคโนโลยีดังกล่าว สามารถ ‘ปลอมเสียง ปลอมแชต ปลอมคลิป’ เปลี่ยนเรื่องปลอมๆ ให้สมจริงยิ่งขึ้น นับเป็นการพัฒนาเทคโนโลยีที่ก้าวล้ำ เลียนแบบสิ่งที่มีอยู่จริง หรือเข้าใกล้ความจริงมากขึ้น เป็นวิวัฒนาการของเทคโนโลยี ที่ช่วยผลักดันให้สะดวกสบายขึ้น ในขณะเดียวกันมีการนำเทคโนโลยีไปใช้ในทางที่ผิดหรือความไม่รู้ จะถูกใช้เป็นเครื่องมือที่ทำให้ความก้าวล้ำทางเทคโนโลยีเหล่านี้ ส่งผลกระทบในทางลบได้ในวงกว้างด้วยเช่นกัน

หากพบส่งต่อคลิปเสียง คลิปปลอม ที่สร้างเรื่องเพื่อหลอกลวง ประชาชนสามารถร้องเรียนผ่านกระทรวงดิจิทัลฯ และหลายหน่วยงานต่างๆได้ โดยแจ้งทาง โทร.1212 OCC ศูนย์ช่วยเหลือและจัดการปัญหาออนไลน์ ของสำนักงานพัฒนาธุรกรรมอิเล็กทรอนิกส์ (ETDA) ในสังกัดดีอีเอส เพจอาสาจับตาออนไลน์ facebook.com/DESMonitor/ แจ้งความออนไลน์ได้ตลอด 24 ชั่วโมงผ่านเว็บไซต์ thaipoliceonline.com สายด่วน บช.สอท.1441