‘ดร.สุชัชวีร์’ ยกความมหัศจรรย์ AI พลิกโลกของ DeepSeek ชี้ เป็นความมุ่งมั่นของ "คนจีน" ที่ไม่ยอมแพ้ต่อทุกข้อจำกัด
(3 ก.พ. 68) ศาสตราจารย์ ดร.สุชัชวีร์ สุวรรณสวัสดิ์ รองหัวหน้าพรรคประชาธิปัตย์ นายกสภามหาวิทยาลัย CMKL มหาวิทยาลัย AI แห่งแรกของไทย โพสต์เฟซบุ๊กว่า "DeepSeek AI กระบี่อยู่ที่ใจ" ทำไม AI จีนถึงเก่งได้ แล้วไทยจะอยู่อย่างไร
"ความมหัศจรรย์" และ "ความน่าสงสัย" ของ "แฟลตฟอร์ม AI" สะท้านโลก "DeepSeek" จากแดนมังกร คืออะไร ผมมีคำตอบ พยายามอธิบายเรื่อง "ยากมาก" แบบง่ายๆครับ
การพัฒนา AI ระดับสูง จำเป็นต้องใช้ปัจจัย 3 ด้าน และทำไม "DeepSeek" ถึง "มหัศจรรย์" ปนความ "น่าสงสัย"
1. "พลังการคำนวน" จาก "ฮาร์ดแวร์" เครื่องซุปเปอร์คอมพิวเตอร์ AI ซึ่ง "Nvidia" คือ ผู้นำในการผลิต "GPU" หรือ หน่วยประมวลผลข้อมูล ยิ่งมี GPU เยอะ ก็ยิ่งมี "ประสิทธิภาพ" หรือ "ความเร็ว" ในการคำนวนมากยิ่งขึ้นตาม
มักใช้หน่วย "ความเร็ว PetaFLOPS (PFLOPS)" ซึ่งเป็นหน่วยวัดประสิทธิภาพของการคำนวณ โดย 1 PFLOPS = 1,000 ล้านล้าน (10¹⁵) เลขทศนิยมต่อวินาที
ปัจจุบัน "อีลอน มัสก์" กำลังจะติดตั้งซุปเปอร์คอมพิวเตอร์ AI ของบริษัท xAI ที่รัฐเทนเนสซี โดยซื้อ GPU รุ่นล่าสุด "ทันสมัยสุด" B200 จาก Nvidia ของ "เจนเซ่น หวง" ถึง 200,000 ชุด มากที่สุดในโลก โดยมีความเร็วในการคำนวน หลายแสน PetaFLOPS คือ "โคตรเร็ว"
แต่ "DeepSeek" ใช้ "ฮาร์ดแวร์" GPU รุ่นเก่า H800 ของ Nvidia เพียง 2,000 ชุด แถมยัง "ถูกลดสเปค" เพราะโดนกีดกันจากรัฐบาลสหรัฐ ความเร็วน้อยกว่าเครื่องของ "อีลอน มัสก์" เป็นร้อยๆเท่า
นี่จึงเป็น "ความมหัศจรรย์เรื่องแรก" ที่ "ค่าย AI จีน" ใช้ทรัพยากรน้อยกว่านับร้อยเท่า เมื่อเปรียบเทียบกับ "ค่าย AI อเมริกัน"
2. "โมเดล" หรือ "ซอฟต์แวร์" ที่ใช้เป็นชุดคำสั่งการคำนวน AI มีความสำคัญมาก เพราะยิ่งมีอัลกอริทึมที่มี "ตัวแปร" เยอะก็ครอบคลุมการคำนวณข้อมูลที่ "ละเอียด" ได้มากกว่า
โมเดลที่นิยมสำหรับการคำนวณ Generative AI ที่เราใช้กันอยู่หรือที่เรียกกันว่า LLM (Large Language Model) หรือ GPT (Generative Pre-trained Transformer) คือ โมเดลปัญญาประดิษฐ์ขนาดใหญ่มาก ที่ได้รับการฝึกฝนบนข้อมูลข้อความจำนวนมหาศาล เพื่อตอบสนองข้อความ ได้อย่างซับซ้อนและเป็นธรรมชาติ
"DeepSeek" เป็น LLM ที่มีตัวแปรมากถึง "685,000 ล้าน!" ตัวแปร ซึ่งมากกว่าตัวแปรของ LLM Opensource ตัวอื่น แต่ที่แตกต่างคือ DeepSeek เป็นโมเดลรุ่นแรกที่ฝึกด้วย 8-bit floating point (FP8) ที่ช่วยลดปริมาณการใช้ GPU แต่ยังสามารถมีตัวแปรจำนวนมาก ในขณะที่โมเดลก่อนหน้านี้ใช้ FP16 ซึ่งทำให้ต้องใช้ GPU ที่มีหน่วยความจำสูงกว่า DeepSeek กว่า 2 เท่า
นี่คือ "ความมหัศจรรย์เรื่องที่สอง" ที่ทำให้ "DeepSeek" มีประสิทธิภาพสูงในต้นทุนที่ต่ำกว่าค่ายอื่น
3. "ข้อมูลขนาดมหึมา" หรือ Big Data ให้อัลกอรึทึม AI ได้ "เรียนรู้" เพื่อสร้างความฉลาดล้ำเมื่อถูกใช้งาน ซึ่งการได้มาของข้อมูลขนาดมหึมานี้ เป็นความ "น่าสงสัย" ในตัว "DeepSeek" และ แพลตฟอร์ม AI แทบทุกสำนัก เพราะแหล่งข้อมูลมีทั้งจากข้อมูลสาธารณะ ข้อมูลเฉพาะ ข้อมูลบุคคคล ข้อมูลธุรกิจ ข้อมูลมีลิขสิทธิ์ และข้อมูลที่ AI สร้างเอง ซึ่งมีผลต่อประสิทธิภาพการคำนวนทั้งสิ้น
นี่คือ "ความมหัศจรรย์เรื่องที่สาม" ว่า "DeepSeek" ได้ข้อมูลขนาดมหึมานี้ ในเวลาสั้นๆ จากแหล่งใด
ดังนั้น "การไขความลับ" แห่งความสำเร็จของ "DeepSeek" จึงยังคงเป็นปริศนา และยังมีเรื่อง "งบประมาณ" ที่ใช้ซึ่งน้อยมากจนเหลือเชื่อ
กระนั้นต้อง "ยอมรับ" ชื่นชมในความสามารถและความมุ่งมั่นของ "คนจีน" ที่ไม่ยอมแพ้ต่อข้อจำกัด #จะทำก็ทำได้ แล้ว "คนไทย" เราจะศิโรราบต่อ "ชะตา" เชียวหรือ ทิ้งท้ายไว้ให้คิดนะครับ