ข่าวคุณภาพชีวิต

"ภาพลวง" จาก AI กำลังกัดกร่อน "ภาพความจริง"

แชร์ข่าว

ภาพสุนัขคาบลูกแมวหนีน้ำท่วมซึ่งแพร่สะพัดไปทั่วโซเชียลมีเดียเมื่อวันที่ 23 พฤศจิกายน 2568 ในพื้นที่จังหวัดสงขลา อาจดูเป็นภาพสะเทือนใจที่เรียกยอดไลก์และแชร์ได้อย่างรวดเร็ว แต่เมื่อเพจ NBT Connext ของกรมประชาสัมพันธ์โพสต์เตือนและหน่วยงานที่เกี่ยวข้องรายงานการตรวจสอบว่าเป็น “ภาพที่สร้างด้วยปัญญาประดิษฐ์ (AI)” เรื่องนี้จึงกลายเป็นสัญญาณเตือนของยุคข้อมูลปั่นป่วนที่อาจส่งผลต่อการปฏิบัติงานฉุกเฉิน

ผลกระทบที่น่ากังวลคือภาระซ้ำซ้อนที่เกิดขึ้นในสนามปฏิบัติการ เมื่อเจ้าหน้าที่กู้ภัยและอาสาสมัครต้องใช้เวลาในการตรวจสอบความถูกต้องของภาพและรายงาน ทำให้การประสานงานและการตอบสนองต่อเหตุฉุกเฉินอาจล่าช้า

ปัญหานี้ไม่ใช่เรื่องเฉพาะถิ่น แต่ได้เคยเกิดขึ้นในต่างประเทศ โดยภาพ AI ที่อ้างว่าเป็น “การระเบิดที่เพนตากอน” เมื่อเดือนพฤษภาคม 2023 แพร่กระจายอย่างรวดเร็วบนแพลตฟอร์มสังคมออนไลน์ โดยบัญชีที่ดูเหมือนเป็นแหล่งข่าวซึ่งต่อมาพบว่าเป็นข้อมูลเท็จ ภาพดังกล่าวถูกระบุว่าเป็นภาพปลอมและสร้างความตื่นตระหนกจนตลาดหุ้นสหรัฐฯ เกิดการปรับตัวลงชั่วคราว ก่อนที่หน่วยงานที่เกี่ยวข้องจะยืนยันว่าไม่มีเหตุการณ์เกิดขึ้นจริง เหตุการณ์นี้เป็นตัวอย่างว่าภาพสังเคราะห์โดย AI สามารถสร้างผลกระทบทางเศรษฐกิจและสังคมได้ในเวลาอันสั้น

ในระดับมนุษยธรรม ความเสี่ยงยังรวมถึงการถูกล่อลวงโดยมิจฉาชีพที่ใช้ภาพสังเคราะห์หาประโยชน์จากความเมตตา เช่นกรณีหลังแผ่นดินไหวในตุรกี–ซีเรีย ปี 2023 ที่มีรายงานว่าผู้ไม่หวังดีใช้ภาพที่สร้างด้วย AI เพื่อนำไปใช้ในแคมเปญระดมทุนปลอมบนแพลตฟอร์มต่าง ๆ ซึ่งไม่เพียงฉ้อโกงเงินของผู้บริจาค แต่ยังดึงทรัพยากรและความสนใจออกจากผู้ประสบภัยจริง ทำให้การช่วยเหลือถูกบิดเบือนและลดประสิทธิภาพของความพยายามด้านมนุษยธรรม

ความเสี่ยงเชิงระบบของปรากฏการณ์นี้ได้รับการยืนยันโดยการประเมินในระดับโลก โดยรายงาน Global Risks Report 2024 ของ World Economic Forum ชี้ว่า “misinformation และ disinformation ที่ขับเคลื่อนด้วย AI” (ข้อมูลผิดพลาดและข้อมูลเท็จที่จงใจบิดเบือน) เป็นหนึ่งในความเสี่ยงระยะสั้นที่รุนแรงที่สุด ที่อาจทำลายความเชื่อมั่นของสังคมและกระตุ้นความวุ่นวายทางสังคม เศรษฐกิจ และการเมืองในวงกว้าง สร้างแรงกดดันให้ทั้งภาครัฐ ภาคเอกชน และองค์กรระหว่างประเทศต้องร่วมมือกันหามาตรการรับมือ

ทางออกเชิงนโยบายและเทคนิคมีปรากฏในแนวทางของหลายองค์กรระดับนานาชาติ โดยสหภาพยุโรปผ่านกฎหมาย EU AI Act ที่กำหนดภาระผูกพันด้านความโปร่งใสและการเปิดเผยเมื่อระบบ AI สร้างคอนเทนต์ ในขณะเดียวกันภาคเอกชนกับกลุ่มอุตสาหกรรมได้ร่วมกันพัฒนาแนวทางเชิงเทคนิคอย่าง C2PA (Coalition for Content Provenance and Authenticity) เพื่อกำหนดมาตรฐานการฝังข้อมูลต้นกำเนิด (content provenance/content credentials) ลงในสื่อดิจิทัล เพื่อให้สามารถตรวจสอบที่มาและการแก้ไขของภาพหรือวิดีโอได้อย่างมีหลักฐานเชิงเทคนิค แต่ทั้งสองแนวทางยังต้องอาศัยการบังคับใช้จริงจากแพลตฟอร์ม และการยอมรับจากผู้ผลิตคอนเทนต์เพื่อให้เกิดผลในวงกว้าง

ขณะที่จีนได้แก้ไขกฎระเบียบด้านความปลอดภัยอินเทอร์เน็ต ให้ครอบคลุมการจัดการความเสี่ยงจาก AI และเนื้อหา Generative AI โดยมีข้อกำหนดให้แพลตฟอร์มต้องติดฉลาก (label) เนื้อหาที่สร้างโดย AI และตรวจสอบ/ลบเนื้อหาปลอม เพื่อป้องกันผลกระทบในมิติต่าง ๆ

สำหรับประเทศไทย เหตุการณ์ภาพไวรัลในช่วงน้ำท่วมภาคใต้ อาจเป็นสัญญาณเตือนถึงการสร้าง “ภูมิคุ้มกันดิจิทัล” ทั้งในระดับประชาชนและหน่วยงาน รวมถึงการเพิ่มกระบวนการตรวจสอบที่เข้มข้น โดยเฉพาะในภาวะฉุกเฉิน ภาครัฐอาจมีการพัฒนาช่องทางตรวจสอบอย่างเป็นทางการและเผยแพร่ผลการตรวจสอบอย่างโปร่งใส เพื่อให้ประชาชนและหน่วยงานในสนามสามารถอ้างอิงได้ทันที ขณะที่ประชาชนควรยึดหลัก “เช็กก่อนแชร์” อย่างเคร่งครัด

ข่าวแนะนำ