การวิเคราะห์สถาปัตยกรรมเครือข่ายของ Mellanox เพื่อสนับสนุนการฝึกอบรม AI Large Model

September 20, 2025

ข่าว บริษัท ล่าสุดเกี่ยวกับ การวิเคราะห์สถาปัตยกรรมเครือข่ายของ Mellanox เพื่อสนับสนุนการฝึกอบรม AI Large Model
การเปิดเผยโครงสร้างพื้นฐานเครือข่าย: วิธีการที่ Mellanox InfiniBand ช่วยเพิ่มประสิทธิภาพการฝึกอบรมโมเดล AI

บทสรุป:เนื่องจากความต้องการด้านการคำนวณของปัญญาประดิษฐ์เพิ่มขึ้นอย่างมาก เครือข่ายจึงกลายเป็นคอขวดที่สำคัญ การวิเคราะห์นี้เจาะลึกถึงวิธีการที่เทคโนโลยี GPU networking ขั้นสูงของ Mellanox InfiniBand กำลังสร้างสถาปัตยกรรมประสิทธิภาพสูงและเวลาแฝงต่ำ ซึ่งจำเป็นสำหรับการ การฝึกอบรมโมเดล AI ที่มีประสิทธิภาพและปรับขนาดได้ของแบบจำลองภาษาขนาดใหญ่และเครือข่ายประสาทเทียมที่ซับซ้อนอื่นๆ

คอขวดของเครือข่ายในการฝึกอบรมโมเดล AI สมัยใหม่

กระบวนทัศน์ของ การฝึกอบรมโมเดล AI ได้เปลี่ยนจากการตั้งค่าเซิร์ฟเวอร์เดียวไปเป็นการคำนวณแบบขนานจำนวนมากใน GPU หลายพันตัว ในคลัสเตอร์แบบกระจายเหล่านี้ เวลาที่ใช้ในการถ่ายโอนข้อมูลระหว่าง GPU มักจะเกินเวลาที่ใช้ในการคำนวณจริง การวิเคราะห์อุตสาหกรรมชี้ให้เห็นว่าสำหรับคลัสเตอร์ขนาดใหญ่ คอขวดของเครือข่ายอาจทำให้การใช้ GPU ลดลงต่ำกว่า 50% ซึ่งแสดงถึงการสูญเสียทรัพยากรการคำนวณและการลงทุนด้านทุนอย่างมาก GPU networking ที่มีประสิทธิภาพไม่ใช่เรื่องหรูหราอีกต่อไป แต่เป็นแกนหลักพื้นฐานสำหรับการบรรลุประสิทธิภาพสูงและผลตอบแทนจากการลงทุน

Mellanox InfiniBand: ข้อได้เปรียบทางสถาปัตยกรรมสำหรับคลัสเตอร์ GPU

เทคโนโลยี Mellanox (ปัจจุบันเป็นส่วนหนึ่งของ NVIDIA) InfiniBand ได้รับการออกแบบมาตั้งแต่เริ่มต้นเพื่อตอบสนองความต้องการที่เข้มงวดของการประมวลผลประสิทธิภาพสูงและ AI สถาปัตยกรรมของมันให้ข้อได้เปรียบที่สำคัญหลายประการเหนือ Ethernet แบบดั้งเดิมสำหรับการเชื่อมต่อ GPU:

  • เวลาแฝงต่ำพิเศษ: เวลาแฝงแบบ End-to-end น้อยกว่า 600 นาโนวินาที ซึ่งช่วยลดเวลาในการรอการสื่อสารระหว่างโหนดอย่างมาก
  • แบนด์วิดท์สูง: รองรับความเร็ว 200Gb/s (HDR) และ 400Gb/s (NDR) ต่อพอร์ต ทำให้มั่นใจได้ว่าข้อมูลจะไหลไปยัง GPU โดยไม่หยุดชะงัก
  • Remote Direct Memory Access (RDMA): อนุญาตให้ GPU ในเซิร์ฟเวอร์ต่างๆ อ่านและเขียนไปยังหน่วยความจำของกันและกันโดยตรง โดยข้าม CPU และเคอร์เนลระบบปฏิบัติการ การ "ข้ามเคอร์เนล" นี้ช่วยลดค่าใช้จ่ายและเวลาแฝงได้อย่างมาก
เทคโนโลยีหลักที่ขับเคลื่อนเวิร์กโหลด AI ที่ปรับขนาดได้

นอกเหนือจากความเร็วดิบแล้ว Mellanox InfiniBand ยังรวมเอาเทคโนโลยีที่ซับซ้อนซึ่งมีความสำคัญสำหรับ การฝึกอบรมโมเดล AI ขนาดใหญ่

Sharable Data Queue (SHARP)

SHARP เป็นเทคโนโลยีการคำนวณในเครือข่ายที่ปฏิวัติวงการ แทนที่จะส่งข้อมูลทั้งหมดกลับไปยังโหนดการคำนวณเพื่อรวบรวม (เช่น ในการดำเนินการแบบ all-reduce ทั่วไปในการฝึกอบรม) SHARP จะดำเนินการรวบรวมภายในสวิตช์เครือข่ายเอง ซึ่งช่วยลดปริมาณข้อมูลที่วิ่งผ่านเครือข่ายอย่างมาก และลดเวลาในการสื่อสารโดยรวมลงได้ถึง 50% ซึ่งช่วยเร่งไทม์ไลน์การฝึกอบรมโดยตรง

การกำหนดเส้นทางแบบปรับได้และการควบคุมความแออัด

โครงสร้างพื้นฐานของ InfiniBand ใช้การกำหนดเส้นทางแบบปรับได้เพื่อกระจายปริมาณการใช้งานแบบไดนามิกในหลายเส้นทาง ป้องกันจุดร้อนและความแออัดของลิงก์ เมื่อรวมกับกลไกการควบคุมความแออัดขั้นสูง สิ่งนี้ทำให้มั่นใจได้ถึงการส่งข้อมูลที่คาดการณ์ได้และมีประสิทธิภาพแม้ในรูปแบบการสื่อสารที่ไม่สม่ำเสมอทั่วไปของเวิร์กโหลด AI

ผลกระทบเชิงปริมาณต่อประสิทธิภาพและประสิทธิภาพการฝึกอบรม

ประโยชน์ของโครงสร้างพื้นฐาน InfiniBand แปลเป็นผลลัพธ์ที่สำคัญโดยตรงสำหรับโครงการ AI ตารางต่อไปนี้แสดงให้เห็นถึงการปรับปรุงประสิทธิภาพทั่วไปที่สังเกตได้ในสภาพแวดล้อมการฝึกอบรมขนาดใหญ่:

ตัวชี้วัด Ethernet แบบดั้งเดิม Mellanox InfiniBand HDR การปรับปรุง
เวลาแฝง All-Reduce (256 โหนด) ~850 µs ~220 µs ~74%
การใช้ GPU (โดยเฉลี่ย) 40-60% 85-95% ~40%+
เวลาในการฝึกอบรม (โมเดล 100-epoch) 7 วัน ~4.2 วัน 40%
บทสรุปและคุณค่าเชิงกลยุทธ์

สำหรับองค์กรและสถาบันวิจัยที่จริงจังกับการผลักดันขอบเขตของ AI การลงทุนในเครือข่ายประสิทธิภาพสูงมีความสำคัญพอๆ กับการลงทุนใน GPU ที่ทรงพลัง Mellanox InfiniBand มอบสถาปัตยกรรมที่พิสูจน์แล้วและปรับขนาดได้ ซึ่งช่วยขจัดคอขวดของเครือข่าย เพิ่มการลงทุน GPU ให้สูงสุด และลดวงจรการพัฒนาสำหรับโมเดล AI ใหม่ได้อย่างมาก ด้วยการเปิดใช้งานการทำซ้ำที่เร็วขึ้นและการทดลองที่ซับซ้อนมากขึ้น มันให้ข้อได้เปรียบทางการแข่งขันที่จับต้องได้ในการแข่งขันเพื่อสร้างสรรค์นวัตกรรม AI

ขั้นตอนต่อไปสำหรับโครงสร้างพื้นฐาน AI ของคุณ

หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับวิธีการที่โซลูชัน GPU networking ของ Mellanox InfiniBand สามารถปรับโครงสร้างพื้นฐาน การฝึกอบรมโมเดล AI ของคุณให้เหมาะสมได้ เราขอแนะนำให้ปรึกษากับพันธมิตรเครือข่าย NVIDIA ที่ได้รับการรับรอง ขอการตรวจสอบสถาปัตยกรรมส่วนบุคคลเพื่อจำลองประสิทธิภาพและประสิทธิภาพที่คุณได้รับจากเวิร์กโหลดเฉพาะของคุณ