อีเธอร์เน็ตสองพอร์ต HDR 200GbE การ์ดเครือข่าย Mellanox อะแดปเตอร์ VPI MCX653106A-HDAT ConnectX 6 QSFP56
รายละเอียดสินค้า:
| ชื่อแบรนด์: | Mellanox |
| หมายเลขรุ่น: | MCX653106A-HDAT |
| เอกสาร: | connectx-6-infiniband.pdf |
การชำระเงิน:
| จำนวนสั่งซื้อขั้นต่ำ: | 1 ชิ้น |
|---|---|
| ราคา: | Negotiate |
| รายละเอียดการบรรจุ: | กล่องด้านนอก |
| เวลาการส่งมอบ: | ขึ้นอยู่กับสินค้าคงคลัง |
| เงื่อนไขการชำระเงิน: | t/t |
| สามารถในการผลิต: | จัดหาโดย Project/Batch |
|
ข้อมูลรายละเอียด |
|||
| สถานะผลิตภัณฑ์: | คลังสินค้า | แอปพลิเคชัน: | เซิร์ฟเวอร์ |
|---|---|---|---|
| ประเภทอินเตอร์เฟส:: | Infiniband | พอร์ต: | คู่ |
| ความเร็วสูงสุด: | 200GBE | ประเภทตัวเชื่อมต่อ: | QSFP56 |
| พิมพ์: | มีสาย | เงื่อนไข: | ใหม่และเป็นต้นฉบับ |
| แบบอย่าง: | MCX653106A-HDAT | ||
| เน้น: | การ์ดเครือข่าย HDR 200GbE Mellanox,การ์ดเครือข่าย Mellanox อะแดปเตอร์ VPI,การ์ดอีเธอร์เน็ตคู่ HDR 200GbE |
||
รายละเอียดสินค้า
NVIDIA ConnectX-6 InfiniBand Adapter: โซลูชันเครือข่ายประสิทธิภาพสูง
NVIDIA ConnectX-6 InfiniBand Smart Host Channel Adapter แสดงถึงความก้าวหน้าครั้งสำคัญในเทคโนโลยีเครือข่ายศูนย์ข้อมูล อุปกรณ์นี้เป็น การ์ดเชื่อมต่อเครือข่าย มอบแบนด์วิธที่ยอดเยี่ยม, ค่าความหน่วงต่ำเป็นพิเศษ, และความสามารถในการประมวลผลในเครือข่ายที่เป็นนวัตกรรมใหม่ ทำให้เหมาะสำหรับสภาพแวดล้อม HPC, AI และคลาวด์ที่ต้องการประสิทธิภาพสูง ด้วยการเชื่อมต่อแบบ dual-port 200Gb/s และการ offload ฮาร์ดแวร์ที่ครอบคลุม อะแดปเตอร์ ConnectX-6 ช่วยเพิ่มประสิทธิภาพของแอปพลิเคชันอย่างมากในขณะที่ลดภาระของเซิร์ฟเวอร์
ลักษณะเด่น
- การเชื่อมต่อ InfiniBand และ Ethernet แบบ dual-port 200Gb/s
- การเข้ารหัสแบบเร่งด้วยฮาร์ดแวร์พร้อมความปลอดภัยระดับบล็อก XTS-AES 256/512 บิต
- เทคโนโลยี NVIDIA In-Network Computing เพื่อเพิ่มความสามารถในการปรับขนาด
- การ offload โปรโตคอลที่ครอบคลุม รวมถึง RDMA, NVMe over Fabrics และ TCP/UDP/IP
- รองรับการจำลองเสมือนขั้นสูงด้วยเทคโนโลยี SR-IOV และ NVIDIA ASAP²
กรอบการทำงานทางเทคโนโลยีขั้นสูง
อะแดปเตอร์เครือข่าย ConnectX-6 ผสานรวมเทคโนโลยีที่ก้าวล้ำหลายอย่าง รวมถึงการควบคุมความแออัดแบบ end-to-end, การกำหนดจังหวะแพ็กเก็ตบนฮาร์ดแวร์ด้วยความแม่นยำระดับ sub-nanosecond และการจัดการหน่วยความจำที่เป็นนวัตกรรมใหม่ รองรับทั้งโปรโตคอล InfiniBand และ Ethernet พร้อมกัน โดยมีฮาร์ดแวร์ offloads สำหรับเครือข่าย overlay (VXLAN, NVGRE, Geneve) และโปรโตคอลการจัดเก็บข้อมูล (NVMe-oF, iSER, SRP)
วิธีการดำเนินงาน
การ์ด NIC ประสิทธิภาพสูงนี้ ทำงานโดยการ offload ฟังก์ชันการประมวลผลเครือข่ายจาก CPU โฮสต์ไปยังเครื่องมือฮาร์ดแวร์เฉพาะ มันใช้เทคโนโลยี Remote Direct Memory Access (RDMA) สำหรับการถ่ายโอนข้อมูลแบบ direct memory-to-memory ระหว่างระบบ โดยข้ามระบบปฏิบัติการและลดความหน่วงอย่างมาก สถาปัตยกรรม In-Network Computing ที่เป็นนวัตกรรมใหม่ของอะแดปเตอร์ช่วยให้สามารถคำนวณภายในโครงสร้างเครือข่าย ซึ่งช่วยเพิ่มประสิทธิภาพการเคลื่อนย้ายและการประมวลผลข้อมูล
สภาพแวดล้อมการใช้งาน
- คลัสเตอร์การประมวลผลประสิทธิภาพสูงสำหรับการวิจัยทางวิทยาศาสตร์และการจำลองวิศวกรรม
- โครงสร้างพื้นฐานการฝึกอบรมปัญญาประดิษฐ์และการเรียนรู้เชิงลึก
- ศูนย์ข้อมูลคลาวด์แบบ Hyperscale และเครือข่ายพื้นที่จัดเก็บข้อมูล
- สภาพแวดล้อมการจำลองเสมือนฟังก์ชันเครือข่าย (NFV) และเครือข่ายที่กำหนดโดยซอฟต์แวร์ (SDN)
- ระบบการซื้อขายความถี่สูงและการสร้างแบบจำลองทางการเงิน
ข้อมูลจำเพาะทางเทคนิค
| หมวดหมู่ข้อมูลจำเพาะ | พารามิเตอร์โดยละเอียด |
|---|---|
| รุ่นผลิตภัณฑ์ | MCX653106A-HDAT |
| อัตราข้อมูล | 200/100/50/40/25/10/1 Gb/s ต่อพอร์ต |
| อินเทอร์เฟซโฮสต์ | PCIe 4.0 x16 (เข้ากันได้กับ PCIe 3.0) |
| พอร์ตทางกายภาพ | 2 x QSFP56 cages |
| การรองรับโปรโตคอล | InfiniBand, Ethernet, RoCE v2, iWARP |
| คุณสมบัติความปลอดภัย | การเข้ารหัส XTS-AES 256/512 บนฮาร์ดแวร์, สอดคล้องกับ FIPS |
| การจำลองเสมือน | SR-IOV พร้อมฟังก์ชันเสมือนสูงสุด 1000 ฟังก์ชัน |
| การใช้พลังงาน | โดยทั่วไปต่ำกว่า 25W สูงสุด |
| ฟอร์มแฟกเตอร์ | การ์ด PCIe โปรไฟล์มาตรฐานพร้อมขายึด |
| ระบบปฏิบัติการ | Linux, Windows Server, VMware, FreeBSD |
ข้อได้เปรียบในการแข่งขัน
- อัตราข้อความชั้นนำของอุตสาหกรรมที่ 215 ล้านข้อความต่อวินาที
- การเข้ารหัสระดับบล็อกบนฮาร์ดแวร์โดยไม่ทำให้ประสิทธิภาพลดลง
- การ offloads ที่ครอบคลุมสำหรับฟังก์ชันเครือข่าย, การจัดเก็บข้อมูล และความปลอดภัย
- รองรับทั้งสภาพแวดล้อม InfiniBand และ Ethernet บนฮาร์ดแวร์เดียวกัน
- เทคโนโลยี NVIDIA Socket Direct เพื่อประสิทธิภาพเซิร์ฟเวอร์แบบ multi-socket ที่เหมาะสม
การสนับสนุนและบริการ
เราให้การสนับสนุนด้านเทคนิคที่ครอบคลุม รวมถึงการให้คำปรึกษาแก่ลูกค้าตลอด 24 ชั่วโมงทุกวัน, การอัปเดตเฟิร์มแวร์ และความช่วยเหลือในการผสานรวม ผลิตภัณฑ์ทั้งหมดมาพร้อมกับการรับประกันจากผู้ผลิตมาตรฐาน บริการกำหนดค่าแบบกำหนดเองสำหรับใช้งานในวงกว้าง พร้อมตัวเลือกห่วงโซ่อุปทานที่ยืดหยุ่นเพื่อตอบสนองความต้องการเร่งด่วน
คำถามที่พบบ่อย
ถาม: อะไรคือความแตกต่างระหว่าง ConnectX-6 และรุ่นก่อนหน้า
ตอบ: ConnectX-6 ให้แบนด์วิธเป็นสองเท่า (200Gb/s เทียบกับ 100Gb/s), ความสามารถในการประมวลผลในเครือข่ายที่ได้รับการปรับปรุง และการเข้ารหัสระดับบล็อกบนฮาร์ดแวร์ที่ไม่มีในรุ่นก่อนหน้า
ถาม: อะแดปเตอร์นี้สามารถใช้ในสภาพแวดล้อม Ethernet เท่านั้นได้หรือไม่
ตอบ: ได้ ConnectX-6 รองรับทั้งโปรโตคอล InfiniBand และ Ethernet ทำให้มีความยืดหยุ่นในสภาพแวดล้อมเครือข่ายต่างๆ
ถาม: การ์ดนี้ต้องการการระบายความร้อนอย่างไร
ตอบ: อะแดปเตอร์ต้องการการไหลเวียนของอากาศที่เพียงพอสำหรับการจัดการความร้อนที่เหมาะสม สำหรับการใช้งานที่มีความหนาแน่นสูง ให้พิจารณาเวอร์ชันเสริมพร้อมโซลูชันการระบายความร้อนที่ได้รับการปรับปรุง
ข้อควรพิจารณาในการติดตั้ง
- ตรวจสอบให้แน่ใจว่ามีการจัดตำแหน่งสล็อต PCIe ที่เหมาะสมและการติดตั้งที่ปลอดภัย
- ตรวจสอบประเภทสายเคเบิลที่เข้ากันได้ (QSFP56/OSFP สำหรับการเชื่อมต่อ 200Gb/s)
- ติดตั้งเฟิร์มแวร์และไดรเวอร์ล่าสุดเพื่อให้สามารถใช้งานคุณสมบัติได้อย่างเต็มที่
- รักษาการไหลเวียนของอากาศที่เพียงพอสำหรับการจัดการความร้อน
- ปฏิบัติตามขั้นตอนการป้องกันการคายประจุไฟฟ้าสถิต (ESD) ในระหว่างการจัดการ
ข้อมูลบริษัท
ด้วยประสบการณ์ในอุตสาหกรรมกว่าสิบปี เรามีความสามารถในการผลิตที่กว้างขวางและองค์กรสนับสนุนด้านเทคนิคที่แข็งแกร่ง กลุ่มผลิตภัณฑ์ของเราประกอบด้วยอุปกรณ์ดั้งเดิมจากแบรนด์ชั้นนำ เช่น Mellanox (ปัจจุบันคือ NVIDIA Networking), Ruckus, Aruba และ Extreme Networks เรามีอุปกรณ์เครือข่ายมากกว่า 10 ล้านหน่วย รวมถึงสวิตช์, การ์ดเชื่อมต่อเครือข่าย, โซลูชันไร้สาย และส่วนประกอบการเชื่อมต่อ ทีมงานขายและวิศวกรรมมืออาชีพของเราให้คำปรึกษาและการสนับสนุนด้านเทคนิคตลอด 24 ชั่วโมงทุกวัน เพื่อให้มั่นใจในบริการที่เชื่อถือได้สำหรับลูกค้าทั่วโลก







