คณะนิติศาสตร์ปรีดี พนมยงค์ DPU ก้าวไปอีกขั้นกับประเด็นร่วมสมัย เชิญกูรูจากต่างประเทศแชร์ประสบการณ์เรื่อง “Artificial Intelligence and the Law” เปิดเวทีถกบทบาททั้งบวกและลบของ AI และผลกระทบต่อประเด็นสิทธิมนุษยชน ภายใต้บรรยากาศแห่งการแลกเปลี่ยนอย่างเปิดกว้าง คณะนิติศาสตร์ปรีดี พนมยงค์ มหาวิทยาลัยธุรกิจบัณฑิตย์ (DPU) ได้จัดการบรรยายพิเศษในหัวข้อ “Artificial Intelligence and the Law” เมื่อวันที่ 22 สิงหาคม 2568 ณ ห้องสัจจา 1 โดยได้รับเกียรติจาก Dr. Niteesh Kumar Upadhyay Associate Professor of Law จาก Dhirubhai Ambani University School of Law และ Research Advisor แห่ง South Ural State University พร้อมด้วย Dr. Arti Aneja Senior Assistant Professor แห่ง Campus Law Centre, Faculty of Law, University of Delhi มาร่วมถ่ายทอดมุมมองเชิงลึกต่อบทบาทของเทคโนโลยีปัญญาประดิษฐ์ (AI) โดยมี อาจารย์ ดร.สุทธิพล ทวีชัยการ คณบดีคณะนิติศาสตร์ฯ ให้การต้อนรับอย่างอบอุ่น

การบรรยายเริ่มต้นด้วย Dr. Arti Aneja ตั้งคำถามเพื่อเปิดพื้นที่ให้ผู้เข้าร่วมร่วมกันนิยามความหมายของ AI ก่อนจะชี้ให้เห็นถึง “บทบาทคู่” ของเทคโนโลยีนี้ที่สามารถเป็นได้ทั้งภัยคุกคามและผู้พิทักษ์สิทธิมนุษยชน ด้านหนึ่ง AI มีศักยภาพในการเปลี่ยนโฉมสังคมผ่านระบบอัตโนมัติ การวิเคราะห์ข้อมูล และการตัดสินใจที่รวดเร็ว แต่ในอีกด้านหนึ่งกลับก่อให้เกิดคำถามสำคัญเกี่ยวกับความเป็นส่วนตัว การเลือกปฏิบัติ และเสรีภาพขั้นพื้นฐานของมนุษย์ 

 

Dr. Arti อธิบายว่า AI ประกอบด้วยส่วนย่อยคือ Machine Learning และ Deep Learning โดย “ปัญญาประดิษฐ์คือวิทยาศาสตร์ที่ทุ่มเทให้กับการทำให้เครื่องจักรคิดและทำหน้าที่เหมือนมนุษย์” และเน้นย้ำว่า “เรากำลังบริหารจัดการ AI ไม่ใช่ AI บริหารจัดการเรา” 

 

Dr. Arti กล่าวถึง 2 ประเด็นหลักที่ AI อาจเป็นภัยคุกคามต่อสิทธิมนุษยชนคือ “การกัดกร่อนความเป็นส่วนตัว” และ “การเลือกปฏิบัติและความไม่เท่าเทียมกัน” โดยได้ยกตัวอย่างกรณีที่เคยเกิดขึ้นจริง เมื่อมีผู้เขียนคำว่า “ต้องการรูปภาพผู้หญิงแอฟริกันสองคน” แต่ Google กลับตอบกลับด้วยรูปภาพลิงกอริลลาสองตัว

“นี่เป็นเหตุการณ์ที่ใหญ่มากในแอฟริกาใต้ และเป็นเรื่องเกี่ยวกับสิทธิมนุษยชน เพราะระบบ AI ชนิดนี้ไม่สามารถทำงานได้อย่างเป็นธรรมชาติ มันเป็นเพียงเครื่องจักร การเลือกปฏิบัติและความไม่เท่าเทียมกันนี้อาจเป็นภัยคุกคามใหญ่ต่อสิทธิมนุษยชน และบางแห่งสิ่งเหล่านี้กำลังบั่นทอนศักดิ์ศรีความเป็นมนุษย์และเกี่ยวข้องกับการเหยียดเชื้อชาติ” Dr. Arti ระบุ

 

การบรรยายยังกล่าวถึงกรณีศึกษาที่แสดงให้เห็นถึงภัยคุกคามดังกล่าวอย่างเป็นรูปธรรม เช่น การใช้เทคโนโลยีจดจำใบหน้า (Facial Recognition Technology – FRT) ซึ่งแม้จะถูกนำมาใช้เพื่อความปลอดภัย แต่กลับสร้างความกังวลต่อการละเมิดสิทธิส่วนบุคคล  

 

อีกประเด็นที่น่าตระหนักและขบคิดไม่แพ้กันคือ กรณีอัลกอริทึมการสรรหาบุคลากรของ Amazon ที่ถูกวิจารณ์ว่ามีความเอนเอียงทางเพศ เนื่องจากระบบเรียนรู้จากข้อมูลอดีตซึ่งสะท้อนโครงสร้างแรงงานที่ผู้ชายครอบงำ ส่งผลให้ผู้สมัครเพศหญิงถูกจัดอันดับด้อยกว่า ทั้งที่หลักการสิทธิมนุษยชนยืนยันถึง “โอกาสที่เท่าเทียม” ในการจ้างงาน

ขณะเดียวกัน การใช้ระบบ COMPAS ในศาลสหรัฐอเมริกาเพื่อตัดสินความเสี่ยงในการกระทำผิดซ้ำของจำเลย ก็ถูกตั้งคำถามและวิพากษ์วิจารณ์ว่าให้ค่าความเสี่ยงสูงเกินจริงกับผู้ต้องหาผิวสี เมื่อเทียบกับจำเลยผิวขาวในคดีที่คล้ายกัน ซึ่งสะท้อนปัญหาความเอนเอียงเชิงโครงสร้างของอัลกอริทึม และความท้าทายในการออกแบบอัลกอริทึมที่เป็นธรรม

 

อย่างไรก็ดี การบรรยายยังได้ชี้ให้เห็นถึงด้านบวกของ AI ที่สามารถเป็น “ผู้พิทักษ์สิทธิมนุษยชน” โดยมีตัวอย่างเช่น การพัฒนา “Negobot” หรือ “Lolita Chatbot” ที่ใช้ AI ปลอมตัวเป็นวัยรุ่นออนไลน์เพื่อดึงดูดและเปิดโปงผู้ล่าทางเพศบนโลกอินเทอร์เน็ต รวมถึงการใช้หุ่นยนต์ดูแลผู้ป่วย (Care Bots), ระบบตรวจจับเหตุฉุกเฉินอย่าง Apple Watch, และการวิเคราะห์ข้อมูลเชิงคาดการณ์เพื่อติดตามการละเมิดสิทธิในพื้นที่ความขัดแย้ง ซึ่งล้วนสะท้อนถึงศักยภาพของ AI ในการปกป้องชีวิตและศักดิ์ศรีของมนุษย์

ขณะที่ Dr. Niteesh ได้เสนอแนะแนวทางกำกับดูแล AI อย่างมีความรับผิดชอบ โดยเสนอให้บูรณาการหลักสิทธิมนุษยชนเข้าในทุกขั้นตอน ตั้งแต่การออกแบบ การพัฒนา ไปจนถึงการนำไปใช้จริง พร้อมวางมาตรการด้านความโปร่งใส การประเมินความเสี่ยงอย่างต่อเนื่อง และการมีส่วนร่วมของทุกภาคส่วน ทั้งรัฐบาล ภาคประชาสังคม บริษัทเทคโนโลยี และชุมชนที่ได้รับผลกระทบ

 

“การบรรยายพิเศษครั้งนี้เป็นส่วนหนึ่งของความร่วมมือระหว่างคณะนิติศาสตร์ปรีดี พนมยงค์ กับสถาบันการศึกษาในต่างประเทศ โดยหยิบยกประเด็นเกี่ยวกับบทบาทของ AI ซึ่งมีทั้งประโยชน์และผลกระทบที่ตามมา โดยเฉพาะที่เกี่ยวข้องกับเรื่องสิทธิมนุษยชนที่ไม่สามารถมองข้ามไปได้ และจำเป็นต้องมีกฎเกณฑ์ในการกำกับดูแล (AI Governance) เพื่อให้เกิดความมั่นใจว่า AI จะถูกนำไปใช้อย่างปลอดภัย ภายใต้ความรับผิดชอบ โปร่งใส และมีจริยธรรม ซึ่งสอดคล้องกับนโยบายของรัฐในขณะนี้ ที่กำลังศึกษาแนวทางการยกร่างกฎหมาย AI ทั้งนี้ข้อมูลและมุมมองที่ได้รับในวันนี้เป็นประโยชน์อย่างยิ่ง และเชื่อว่าจะนำไปสู่การศึกษาวิจัยในประเด็นดังกล่าวในเชิงลึกต่อไป” ดร.สุทธิพล ทวีชัยการ คณบดีคณะนิติศาสตร์ปรีดี พนมยงค์ DPU กล่าวตอนท้าย