นักพัฒนา AI ของ OpenAI และ Google DeepMind ออกโรงเตือน ความเสี่ยงร้ายแรงจากเทคโนโลยีเหล่านี้ อาจทำ 'มนุษย์สูญพันธุ์'

เมื่อวันที่ (4 มิ.ย.67) สำนักข่าวต่างประเทศรายงานว่า กลุ่มอดีตและพนักงานปัจจุบันของบริษัท AI ชั้นนำอย่าง OpenAI และ Google DeepMind ได้ออกจดหมายเตือนถึงอันตรายของปัญญาประดิษฐ์ หรือ AI ขั้นสูง อาจนำไปสู่การสูญพันธุ์ของมนุษยชาติพนักงาน 13 คน ซึ่ง 11 คนเป็นอดีตหรือพนักงานปัจจุบันของ OpenAI บริษัทผู้สร้าง ChatGPT ได้ลงนามในจดหมายชื่อว่า 'สิทธิในการเตือนเกี่ยวกับปัญญาประดิษฐ์ขั้นสูง' (A Right to Warn about Advanced Artificial Intelligence) ส่วนอีก 2 คนเป็นอดีตและพนักงานปัจจุบันของ Google DeepMind โดยมี 6 คนไม่เปิดเผยตัวตน

รายละเอียดของจดหมายเตือนฉบับดังกล่าวระบุว่า เราเป็นทั้งพนักงานปัจจุบันและอดีตพนักงานของบริษัท AI ชั้นนำ และเราเชื่อมั่นในศักยภาพของเทคโนโลยี AI ที่จะมอบประโยชน์ที่ไม่เคยมีมาก่อนให้แก่มนุษยชาติ

อย่างไรก็ตาม เราก็ตระหนักถึงความเสี่ยงร้ายแรงที่เกิดจากเทคโนโลยีเหล่านี้ ความเสี่ยงเหล่านี้มีตั้งแต่การซ้ำเติมความไม่เท่าเทียมที่มีอยู่เดิม การบิดเบือนข้อมูลและข่าวสาร ไปจนถึงการสูญเสียการควบคุมระบบ AI อิสระ ซึ่งอาจนำไปสู่การสูญพันธุ์ของมนุษย์ บริษัท AI เองก็ได้ยอมรับถึงความเสี่ยงเหล่านี้ เช่นเดียวกับรัฐบาลทั่วโลก และผู้เชี่ยวชาญด้าน AI อื่น ๆ

เราหวังว่าความเสี่ยงเหล่านี้จะสามารถบรรเทาได้อย่างเหมาะสมด้วยคำแนะนำที่เพียงพอจากชุมชนวิทยาศาสตร์ ผู้กำหนดนโยบาย และประชาชน อย่างไรก็ตาม บริษัท AI มีแรงจูงใจทางการเงินที่แข็งแกร่งที่จะหลีกเลี่ยงการกำกับดูแลที่มีประสิทธิภาพ และเราไม่เชื่อว่าโครงสร้างการกำกับดูแลกิจการขององค์กรเพียงอย่างเดียวจะเพียงพอที่จะเปลี่ยนแปลงสิ่งนี้ได้

บริษัท AI มีข้อมูลที่ไม่เปิดเผยต่อสาธารณะจำนวนมากเกี่ยวกับความสามารถและข้อจำกัดของระบบ มาตรการป้องกันที่เพียงพอ และระดับความเสี่ยงของอันตรายประเภทต่าง ๆ อย่างไรก็ตาม ปัจจุบันพวกเขามีภาระผูกพันเพียงเล็กน้อยที่จะแบ่งปันข้อมูลบางส่วนนี้กับรัฐบาล และไม่มีเลยกับภาคประชาสังคม เราไม่คิดว่าพวกเขาจะสามารถพึ่งพาให้แบ่งปันข้อมูลเหล่านี้โดยสมัครใจได้

ตราบใดที่ยังไม่มีการกำกับดูแลที่มีประสิทธิภาพของรัฐบาลต่อบริษัทเหล่านี้ พนักงานปัจจุบันและอดีตพนักงานจึงเป็นหนึ่งในคนไม่กี่คนที่สามารถทำให้พวกเขารับผิดชอบต่อสาธารณชนได้ แต่ข้อตกลงการรักษาความลับที่กว้างขวางขัดขวางไม่ให้เราแสดงความกังวล ยกเว้นกับบริษัทที่อาจล้มเหลวในการแก้ไขปัญหาเหล่านี้ การคุ้มครองผู้แจ้งเบาะแสทั่วไปไม่เพียงพอ เพราะมุ่งเน้นไปที่กิจกรรมที่ผิดกฎหมาย ในขณะที่ความเสี่ยงหลายประการที่เราเกี่ยวข้องยังไม่ได้รับการควบคุม บางคนกลัวการตอบโต้ในรูปแบบต่าง ๆ อย่างสมเหตุสมผล เนื่องจากประวัติของคดีดังกล่าวในอุตสาหกรรม เราไม่ใช่คนแรกที่พบหรือพูดถึงปัญหาเหล่านี้
 
ดังนั้น เราจึงขอเรียกร้องให้บริษัท AI ขั้นสูงให้คำมั่นสัญญากับหลักการเหล่านี้

1. บริษัทจะไม่เข้าร่วมหรือบังคับใช้ข้อตกลงใด ๆ ที่ห้าม 'การดูหมิ่น' หรือวิพากษ์วิจารณ์บริษัทสำหรับข้อกังวลที่เกี่ยวข้องกับความเสี่ยง หรือตอบโต้การวิพากษ์วิจารณ์ที่เกี่ยวข้องกับความเสี่ยงโดยขัดขวางผลประโยชน์ทางเศรษฐกิจใด ๆ

2. บริษัทจะอำนวยความสะดวกในกระบวนการที่ไม่เปิดเผยตัวตนที่สามารถตรวจสอบได้สำหรับพนักงานปัจจุบันและอดีตพนักงาน เพื่อแจ้งข้อกังวลที่เกี่ยวข้องกับความเสี่ยงต่อคณะกรรมการของบริษัท ต่อหน่วยงานกำกับดูแล และต่อองค์กรอิสระที่เหมาะสมที่มีความเชี่ยวชาญที่เกี่ยวข้อง

3. บริษัทจะสนับสนุนวัฒนธรรมของการวิจารณ์อย่างเปิดเผย และอนุญาตให้พนักงานปัจจุบันและอดีตพนักงานแสดงความกังวลเกี่ยวกับความเสี่ยงเกี่ยวกับเทคโนโลยีของบริษัทต่อสาธารณะ ต่อคณะกรรมการของบริษัท ต่อหน่วยงานกำกับดูแล หรือต่อองค์กรอิสระที่เหมาะสมที่มีความเชี่ยวชาญที่เกี่ยวข้อง ตราบใดที่ความลับทางการค้าและทรัพย์สินทางปัญญาอื่น ๆ ได้รับการคุ้มครองอย่างเหมาะสม

4. บริษัทจะไม่ตอบโต้พนักงานปัจจุบันและอดีตพนักงานที่เปิดเผยข้อมูลลับที่เกี่ยวข้องกับความเสี่ยงต่อสาธารณะหลังจากกระบวนการอื่นล้มเหลว เรายอมรับว่าความพยายามใด ๆ ในการรายงานข้อกังวลที่เกี่ยวข้องกับความเสี่ยงควรหลีกเลี่ยงการเปิดเผยข้อมูลลับโดยไม่จำเป็น ดังนั้น เมื่อมีกระบวนการที่เพียงพอสำหรับการแจ้งข้อกังวลต่อคณะกรรมการของบริษัท ต่อหน่วยงานกำกับดูแล และต่อองค์กรอิสระที่เหมาะสมที่มีความเชี่ยวชาญที่เกี่ยวข้องแล้ว เรายอมรับว่าควรแจ้งข้อกังวลผ่านกระบวนการดังกล่าวก่อน อย่างไรก็ตาม ตราบใดที่ยังไม่มีกระบวนการดังกล่าว พนักงานปัจจุบันและอดีตพนักงานควรคงไว้ซึ่งเสรีภาพในการรายงานข้อกังวลของตนต่อสาธารณะ