‘Nvidia’ พัฒนา ‘H200’ ชิป AI รุ่นใหม่เร็วแรงกว่าเดิม เด่นด้านการประมวลผล ‘Google-Microsoft’ จ่อใช้ปีหน้า

(14 พ.ย. 66) สำนักข่าวรอยเตอร์ (Reuters) รายงานว่า ยักษ์ผู้ผลิตการ์ดจอในสหรัฐฯ ‘เอ็นวิเดีย’ (Nvidia) ได้เพิ่มคุณสมบัติใหม่ให้กับชิปรุ่นล่าสุดที่ใช้สำหรับการพัฒนา AI

ทั้งนี้ ชิปดังกล่าวมีชื่อเรียกว่า ‘H200’ ซึ่งจะมีคุณสมบัติแซงหน้า ‘H100’ ที่เป็นชิปเรือธงรุ่นปัจจุบันของ Nvidia โดยส่วนที่ได้รับการอัปเกรดเป็นหลัก คือหน่วยความจำที่มีแบนด์วิธสูงขึ้น ถือเป็นหนึ่งในส่วนที่แพงที่สุดของชิป เพราะมีผลต่อความเร็วในการประมวลผลข้อมูล

ชิป H200 มีหน่วยความจำแบนด์วิธสูงถึง 141 กิกะไบต์ เพิ่มขึ้นจาก 80 กิกะไบต์ในชิป H100 รุ่นก่อน ซึ่ง Nvidia ไม่ได้เปิดเผยรายชื่อซัพพลายเออร์สำหรับการพัฒนาชิปตัวใหม่ แต่รายงานข่าวจาก Micron Technology ระบุว่าบริษัทกำลังดำเนินการเพื่อเป็นซัพพลายเออร์ของ Nvidia รวมถึง Nvidia ยังซื้อหน่วยความจำจาก SK Hynix ผู้จัดจำหน่ายชิปในเกาหลีใต้ด้วย

นอกจากนี้ รายงานข่าวระบุด้วยว่า ชิป H200 จะเริ่มใช้กับผู้ให้บริการคลาวด์ เช่น Amazon Web Services, Google Cloud, Microsoft Azure และ Oracle Cloud เป็นรายแรก ๆ ในปีหน้า นอกเหนือจาก CoreWeave, Lambda และ Vultr ที่เป็นผู้ให้บริการคลาวด์ AI โดยเฉพาะ

อย่างไรก็ตาม Nvidia ยังคงครองตลาดชิปสำหรับการพัฒนา AI ซึ่งผลิตภัณฑ์ของ Nvidia เป็นส่วนสำคัญในการขับเคลื่อนบริการของ ChatGPT และโมเดล AI อื่น ๆ โดยการเพิ่มหน่วยความจำให้มีแบนด์วิธสูงขึ้น จะช่วยให้การประมวลผลของชิปเร็วขึ้นด้วย