โลกเทคโนโลยีสั่นสะเทือนอีกครั้ง! เมื่อผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ (AI) และผู้นำด้านนวัตกรรม กว่า 850 คนทั่วโลก รวมพลังออกแถลงการณ์ครั้งประวัติศาสตร์ เรียกร้องให้ “ยุติการพัฒนา AI ซูเปอร์อินเทลลิเจนซ์ (Superintelligence)” ปัญญาประดิษฐ์ที่อาจฉลาดและทรงอำนาจเหนือมนุษย์ทุกด้าน
ผู้นำการเคลื่อนไหวครั้งนี้คือสองตำนานแห่งวงการเทคโนโลยี "สตีฟ วอซเนียก" (Steve Wozniak) ผู้ร่วมก่อตั้งแอปเปิ้ล (Apple) และ "เซอร์ ริชาร์ด แบรนสัน" (Richard Branson) ผู้ก่อตั้งเวอร์จิน กรุ๊ป (Virgin Group) พร้อมด้วยรายชื่อผู้ร่วมลงนามระดับโลก เช่น โยชัว เบนจิโอ (Yoshua Bengio) และ เจฟฟ์ ฮินตัน (Geoffrey Hinton) สอง “บิดาแห่ง AI ยุคใหม่” รวมถึง ศาสตราจารย์สจวร์ต รัสเซล (Stuart Russell) จากมหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์
ในแถลงการณ์ระบุชัดว่า “การพัฒนา AI ที่มีความฉลาดเหนือมนุษย์อาจสร้างหายนะได้จริง” ตั้งแต่การทำให้แรงงานมนุษย์ตกงานจำนวนมหาศาล การสูญเสียเสรีภาพทางข้อมูลและศักดิ์ศรีของมนุษย์ ไปจนถึง ภัยคุกคามต่อความมั่นคงของชาติ และความอยู่รอดของเผ่าพันธุ์มนุษย์เอง
ผู้เชี่ยวชาญย้ำว่า โลกควร “ระงับการพัฒนา AI ระดับซูเปอร์อินเทลลิเจนซ์” จนกว่าจะมีฉันทามติจากสาธารณชนและนักวิทยาศาสตร์ทั่วโลก ว่าระบบเหล่านี้ “ปลอดภัยและสามารถควบคุมได้จริง” ก่อนจะเดินหน้าต่อไป
ผู้ร่วมลงนามยังมาจากหลากหลายวงการ ตั้งแต่นักวิชาการ ผู้นำศาสนา นักข่าว จนถึงอดีตนักการเมืองชั้นนำของสหรัฐฯ เช่น พลเอกมาร์ก มิลลีย์ (Mark Milley) อดีตประธานคณะเสนาธิการร่วม และ ซูซาน ไรซ์ (Susan Rice) อดีตที่ปรึกษาความมั่นคงแห่งชาติ
นอกจากนี้ยังมีชื่อของ เจ้าชายแฮร์รี และ เมแกน มาร์เคิล ดัชเชสแห่งซัสเซกซ์ เข้าร่วมลงนามด้วย โดยรายงานระบุว่า จำนวนผู้สนับสนุนยังคงเพิ่มขึ้นอย่างต่อเนื่อง หลังแถลงการณ์ถูกเผยแพร่ไปทั่วโลก
ตลอดช่วงไม่กี่ปีที่ผ่านมา แนวคิดเรื่อง “ซูเปอร์อินเทลลิเจนซ์ (Superintelligence)” กลายเป็นประเด็นร้อนในวงการเทคโนโลยีระดับโลก ขณะที่บริษัทเทคยักษ์ใหญ่หลายแห่ง เช่น เอ็กซ์เอไอ (xAI), โอเพนเอไอ (OpenAI) และ เมตา (Meta) ต่างเร่งแข่งกันสร้าง โมเดลภาษาขนาดใหญ่ (LLM) ที่ทรงพลังและเรียนรู้ได้ใกล้เคียงกับสมองมนุษย์
โดยเฉพาะ Meta Superintelligence Labs ที่เพิ่งตั้งขึ้นเพื่อมุ่งวิจัยระบบ AI ขั้นสูงระดับเหนือมนุษย์โดยเฉพาะ ท่ามกลางความกังวลจากนักวิทยาศาสตร์ทั่วโลกว่า “เราอาจกำลังสร้างสิ่งมีชีวิตที่มนุษย์ไม่สามารถควบคุมได้อีกต่อไป”
#AIซูเปอร์อินเทลลิเจนซ์ #AIอันตราย #SteveWozniak #RichardBranson #ปัญญาประดิษฐ์ #เทคโนโลยีAI #ข่าวAI #Superintelligence #หยุดAIเหนือมนุษย์ #วิทยาศาสตร์อนาคต #AI