นักวิทยาสาสตร์ที่เป็นผู้นำด้าน AI และนักวิจัยจากมหาวิทยาลัย Oxford เรียกร้องให้มีการดำเนินการอย่างเข้มแข็งจริงจังในด้านความเสี่ยงและภัยจาก AI จากเหล่าผู้นำของโลก โดยให้ความเห็นว่ากระบวนการที่มีในปัจจุบันขาดประสิทธิภาพ และอาจนำไปสู่ปัญหาที่ไม่แตกต่างจากหนังวันสิ้นโลกที่เราเคยดูกัน
จากงานประชุม AI Safety Summit ครั้งที่ 2 ณ กรุงโซล เหล่านักวิทยาศาสตร์ชั้นนำด้าน AI ของโลกกว่า 25 คนกล่าวว่าสิ่งที่กำลังทำกันอยู่นั้นไม่เพียงพอในการปกป้องมนุษย์จากความเสี่ยงของเทคโนโลยีที่จะเกิดขึ้นได้ ซึ่งหนึ่งในเอกสารที่ถูกเผยผ่านแพร่วารสาร Science ชี้ให้เห็นถึงนโยบายที่มีความเร่งด่วนที่เหล่าผู้นำของโลกควรรีบปรับใช้เพื่อแก้ไขภัยที่จะเกิดขึ้นจากเทคโนโลยี AI
ปัจจุบันโลกของ AI นั้นให้ความสำคัญกับการผลักดันความสามารถของ AI ไปข้างหน้ามากขึ้นเรื่อย ๆ ในขณะที่เรื่องของความปลอดภัยและจริยธรรมนั้นค่อยมาคิดกันทีหลัง ถ้าจะเอา AI มาใช้ให้เกิดประโยชน์จริง ๆ เราต้องปรับทิศทางใหม่ การผลักดันแค่ความสามารถนั้นไม่เพียงพออย่างแน่นอน Dr. Jan Brauner, Department of Computer Science, University of Oxford ผู้ร่วมศึกษาวิจัย
แม้ว่าตัวแทนของทั้งโลกจะลงความเห็นตรงกันสำหรับการต้องดำเนินการด้านความปลอดภัย แต่ ณ เวลานี้ต้องเปลี่ยนข้อเสนอเหล่านั้นให้กลายเป็นคำสัญญาที่มีน้ำหนักกว่าเดิม ซึ่งในเอกสารที่ถูกเผยแพร่นั้นมีคำแนะนำว่าบริษัทและภาครัฐควรจะดำเนินการประเด็นใดบ้าง
สิ่งที่ผู้นำควรกังวล คือ ความเป็นไปได้ที่ระบบ Generalist AI ที่มีศักยภาพสูงจะชนะทักษะมนุษย์ในแต่ละแง่มุมที่มีความสำคัญอ่อนไหว ซึ่งสิ่งเหล่านี้จะถูกพัฒนาขึ้นมาในยุคนี้หรือยุคต่อไป แม้ว่ารัฐบาลทั่วโลกจะมีการถกเถียงกันเรื่องของ AI ที่มีความก้าวหน้าสูงและมีความพยายามที่จะให้แนวทางสำคัญในการดำเนินการ ซึ่งในความเป็นจริงแล้วมันไม่สอดคล้องกับความเป็นไปได้ที่เกิดขึ้นอย่างรวดเร็ว ซึ่งปัจจุบันงานวิจัยเกี่ยวกับความปลอดภัย AI นั้นคลาดแคลนเป็นอย่างมาก คาดว่ามีอยู่เพียง 1-3% ของงานวิจัยด้าน AI เท่านั้น
เอกสารดังกล่าวยังชี้ให้เห็นลำดับความเร่งรีบของธรรมาภิบาลด้าน AI โดยมีคำแนะนำดังนี้
- ต้องมีการดำเนินการที่รวดเร็วสำหรับสถาบันที่มีความเชี่ยวชาญในการตรวจสอบ AI และต้องมีการสนับสนุนด้านงบประมาณที่มากกว่าในปัจจุบันอีกมาก เนื่องจากงบประมาณในปัจจุบันเป็นงบที่ขึ้นกับแผน ยกตัวอย่างเปรียบเทียบ AI Safety Institute ของสหรัฐอเมริกามีงบประมาณเพียงปีละ 10 ล้านดอลลาร์สหรัฐฯ ในขณะที่ FDA ของสหรัฐอเมริกาได้งบประมาณ 6.7 พันล้านดอลลาร์สหรัฐฯ
- ต้องบังคับให้มีการประเมินความเสี่ยงที่เข้มข้นมากขึ้น และมีข้อบังคับสำหรับผลกระทบที่จะตามมามากกว่าการให้แนวทางสมัครใจหรืออยู่ภายใต้การประเมินผ่านโมเดลที่ไม่ระบุรายละเอียดที่ชัดเจนมากพอ
- กำหนดให้บริษัทด้าน AI ให้ความสำคัญด้านความปลอดภัย และต้องมีการสาธิตให้เห็นว่าระบบไม่สามารถก่อให้เกิดภัยใด ๆ ได้ ซึ่งรวมถึงการใช้ ‘Safety Cases’ (มักใช้ในเทคโนโลยีที่ต้องการความปลอดภัยในระดับสูงมาก เช่น อากาศยานการบิน) ซึ่งจะเปลี่ยนภาระสำหรับการสาธิตความปลอดภัยไปยังผู้พัฒนา AI
- บูรณาการมาตรฐานการบรรเทาผลกระทบที่เกิดขึ้นให้เหมาะสมกับระดับของความเสี่ยงที่จะเกิดขึ้นหรือสัมผัสได้จากระบบ AI ความสำคัญเร่งด่วน คือ การวางรากฐานสำหรับนโยบายที่จะทำงานอัตโนมัติเมื่อ AI ก้าวเข้าไปถึงความสามารถที่ถูกตั้งเป็นความก้าวหน้าที่สำคัญเอาไว้ หาก AI มีความก้าวหน้าอย่างรวดเร็ว ความต้องการหรือเงื่อนไขที่รัดกุมจะต้องเกิดผลบังคับใช้ทันที แต่หากเป็นไปอย่างเชื่องช้า ความต้องการเหล่านั้นอาจผ่อนคลายลงตามสถานการณ์ได้
ต้องพึงคิดไว้เสมอว่าผลกระทบจาก AI อาจเป็นหายนะได้ตลอดเวลา อย่าลืมว่า AI ได้สร้างความก้าวหน้าอย่างรวดเร็วในภาคส่วนที่มีความอ่อนไหวแล้ว ไม่ว่าจะเป็นการเจาะระบบ (Hacking), การควบคุมสังคม (Social Manipulation) และการวางแผนยุทธศาสตร์ ซึ่งอีกไม่นานอาจควบคุมความท้าทายได้อย่างที่ไม่เคยเป็นมาก่อนอีกด้วย
เพื่อที่จะก้าวไปสู่เป้าหมายที่ไม่เป็นที่ต้องการนั้น AI ต้องได้รับความไว้ใจจากมนุษย์, มีการเข้าถึงทรัพยากร และมีอิทธิพลต่อผู้ตัดสินใจหลัก เพื่อหลีกเลี่ยงการเข้ามาก่อกวนของมนุษย์ ระบบต้องสามารถลอกเลียนแบบ Algorithm จากเครือข่าย Server ทั่วโลก การก่อวินาศกรรมไซเบอร์, การควบคุมชักใยสังคม และภัยอื่น ๆ อาจเกิดขึ้นได้อย่างรวดเร็ว เมื่อเกิดความขัดแย้งขึ้น AI สามารถเตรียมพร้อมอาวุธอันหลากหลายได้อัตโนมัติรวมทั้งอาวุธชีวภาพด้วย ผลลัพธ์นั้นอาจเกิดขึ้นได้จริงหากไม่มีการตรวจสอบความก้าวหน้าของ AI ซึ่งอาจกลายเป็นการสูญเสียชีวิตจำนวนมหาศาลและความเป็นอยู่ทางชีวภาพ จนมนุษย์กลายเป็นปัจจัยส่วนน้อยหรือถึงขั้นสูญพันธ์ุได้
นักวิทยาศาสตร์ยังกล่าวอีกว่า เทคโนโลยีอย่างยานอวกาศ, อาวุธนิวเคลียร์ และอินเทอร์เน็ตเปลี่ยนจากนิยายวิทยาศาสตร์มาเป็นเรื่องจริงได้ในเวลาไม่กี่ปี AI ก็ไม่ต่างกัน ต้องมีการเตรียมตัวรับความเสี่ยงที่อาจดูเหมือนนิยายวิทยาศาสตร์นับตั้งแต่ตอนนี้ เช่น ระบบ AI ทำการเจาะระบบเครือข่ายที่มีความสำคัญและโครงสร้างพื้นฐาน, AI ด้านการเมืองทำการควบคุมสังคมในระดับใหญ่, หุ่นยนต์ทหาร AI และพวกนักฆ่าอัตโนมัติเต็มระบบอย่างโดรน และแม้แต่ AI ที่พยายามจะเอาชนะคนทั้งยังหลบเลี่ยงความพยายามในการปิดระบบมันลง เป็นต้น
ที่มา:
ox.ac.uk