ตอบโจทย์ระบบ AI ด้วย Supermicro GPU Server รองรับ 4x NVIDIA Tesla V100 แรง 500 TFLOPS ใน 1U

เมื่อ AI ได้เริ่มกลายมาเป็นหนึ่งในหัวใจสำคัญของหลาย Application และบริการในภาคธุรกิจ Server Hardware แรงๆ เพื่อประมวลผล AI ได้อย่างเต็มประสิทธิภาพและควบคุมค่าใช้จ่ายได้จึงกลายมาเป็นส่วนประกอบสำคัญของ Data Center และ Supermicro ก็ได้ทำการเปิดตัว Server รุ่นสำหรับ AI Application โดยเฉพาะ ที่รองรับการติดตั้ง NVIDIA Tesla V100 ได้มากถึง 4 ชุดในขนาดแค่ 1U และมีประสิทธิภาพสูงถึง 500 teraFLOPS (TFLOPS) เลยทีเดียว

ลงทุน Server สำหรับระบบ AI เอง: ควบคุมค่าใช้จ่ายได้, ไม่ต้องย้ายข้อมูลออกนอกองค์กร

ที่ผ่านมาถึงแม้กระแสของการพัฒนาบริการ AI บน Cloud นั้นจะได้รับความนิยมค่อนข้างสูงด้วยความยืดหยุ่นในการเริ่มต้นจากการทดสอบขนาดเล็กๆ ก่อนได้ ทำให้ไม่ต้องลงทุนเป็นเงินก้อนใหญ่เองตั้งแต่แรกในช่วงพัฒนาและทดสอบบริการ แต่เมื่อธุรกิจองค์กรเริ่มนำ AI ไปใช้จริงในธุรกิจด้วยการวิเคราะห์ข้อมูลขนาดใหญ่มากขึ้นเรื่อยๆ การเช่าใช้บริการ Cloud เองก็อาจกลายเป็นทางเลือกที่มีประเด็นต้องขบคิด ดังต่อไปนี้

  • การย้ายข้อมูลของธุรกิจขึ้นไปยังบริการ Cloud ให้มั่นคงปลอดภัย ข้อมูลไม่รั่วไหล
  • การย้ายข้อมูลปริมาณมหาศาลขึ้นไปยังบริการ Cloud เพื่อนำไปประมวลผล ต้องพิจารณาทั้งประเด็นด้านความปลอดภัย, ค่าใช้จ่ายในการรับส่งข้อมูล และค่าใช้จ่ายในการจัดเก็บข้อมูลในระยะยาว
  • ค่าใช้จ่ายในการเช่าใช้ GPU Server บน Cloud ซึ่งค่าเช่าเพียง 6-12 เดือนก็สามารถลงทุนซื้อ GPU Server ประสิทธิภาพระดับเดียวกันเพื่อใช้งานเองได้แล้ว ทำให้หากมีแผนการใช้งานยาว 2-3 ปีนั้น การเช่าใช้ GPU Server บน Cloud ก็เริ่มที่จะไม่คุ้มค่าต่อการลงทุน
  • การที่ไม่สามารถประเมินค่าใช้จ่ายในการลงทุนล่วงหน้าได้ของบริการ Cloud เนื่องจากค่าใช้จ่ายทั้งหมดเกิดขึ้นตามระยะเวลาในการเช่าใช้งาน และประสิทธิภาพที่ต้องการ ในโครงการใหม่ๆ อย่าง AI ที่มักไม่ค่อยมีองค์กรใดมีประสบการณ์มาก่อนนัก การประเมินค่าใช้จ่ายด้านการเช่าใช้ทรัพยากรล่วงหน้าจึงถือเป็นเรื่องยาก

ด้วยปัจจัยเหล่านี้ การลงทุนซื้อ GPU Server มาสำหรับประมวลผล AI ภายในองค์กรเองจึงกลายเป็นทางเลือกที่ได้รับความนิยมสูงขึ้นเรื่อยๆ ด้วยความยืดหยุ่นในแง่ที่องค์กรไม่ต้องมีปัญหากับการย้ายข้อมูลใดๆ ออกไปนอกองค์กรเลย ทำให้การลองผิดลองถูกกับข้อมูลต่างๆ เป็นไปได้ง่าย อีกทั้งยังสามารถแบ่งสถาปัตยกรรมการทำงานโดยการให้ GPU Server ภายในองค์กรรับหน้าที่ในการ Training เพียงอย่างเดียว จากนั้นจึงส่ง Model ที่ได้รับไปทำการ Execute บนบริการ Cloud แทน เพื่อลดค่าใช้จ่ายได้ในระยะยาว และยังคงให้บริการ AI บน Cloud Application ต่อไปได้อย่างต่อเนื่องและคุ้มค่าสูงสุด

 

Supermicro SuperServer 1029GQ-TVRT: 1U Server ที่แรงระดับ 500 TFLOPS ด้วย NVIDIA Tesla V100

Supermicro SuperServer 1029GQ-TVRT Credit: Supermicro

โดยปกติ Supermicro นั้นเป็นผู้ผลิต Server ที่มีการออกแบบ Motherboard และ Server Chassis สำหรับตอบโจทย์เฉพาะทางหลากหลายอยู่แล้ว และเมื่อ NVIDIA ประกาศเปิดตัว NVIDIA Tesla V100 ออกมา ทาง Supermicro ก็ไม่รอช้าที่จะออกแบบ 1U Server ประสิทธิภาพสูงเพื่อรองรับการติดตั้ง NVIDIA รุ่นนี้เฉพาะ สำหรับเจาะตลาดการประมวลผลทางด้าน AI อย่าง Machine Learning หรือ Deep Learning สำหรับองค์กรและผู้ให้บริการ Cloud ที่ต้องการ Hardware ประสิทธิภาพสูงพร้อมใช้งานได้ทันที

Server รุ่นนี้มีชื่อรุ่นว่า Supermicro SuperServer 1029GQ-TVRT โดยเป็นระบบ Complete System สำเร็จรูปมาจากโรงงานของ Supermicro โดยประกอบตัว Motherboard, Chassis และ GPU เข้าด้วยกันพร้อมผ่านการทดสอบการทำงานมาเรียบร้อย โดยมีคุณสมบัติโดดเด่นที่น่าสนใจดังนี้

ออกแบบมาให้ระบายความร้อนอย่างเต็มที่ ใช้พลังงานอย่างคุ้มค่าระดับ 80 PLUS Titanium Level

Server รุ่นนี้ถูกออกแบบมาโดยถูกบังคับว่าต้องติดตั้งใช้งาน 4 GPU เท่านั้นเพื่อให้ระบบระบายความร้อนสามารถทำงานได้อย่างเต็มประสิทธิภาพ อีกทั้งยังติดตั้ง Redundant Power Supply ขนาด 2000W ที่ได้รับมาตรฐาน 80 PLUS Titanium Level ซึ่งมี Efficiency ในการใช้พลังงานไฟฟ้าสูงถึง 96.14% ที่การใช้งาน 50% Load

สำหรับส่วนประกอบอื่นๆ นั้น Server รุ่นนี้รองรับ Intel Xeon Scalable 2 ชุด รองรับ RAM สูงสุด 1.5TB DDR4-2666, ติดตั้ง 2.5″ SSD/HDD ได้ 4 ชุดพร้อม M.2 SATA/NVMe อีก 1 ชุด, เชื่อมต่อเครือข่ายด้วย 2x 10GbE และสามารถบริหารจัดการจากระยะไกลได้ผ่าน IPMI

ประสิทธิภาพ 500 TFLOPS ด้วย 2,560 Tensor Core และ 20,480 CUDA Core

วยการติดตั้ง NVIDIA Tesla V100 SXM2 GPU จำนวน 4 ชุด ก็ทำให้ระบบนี้มีประสิทธิภาพสำหรับการประมวลผล Deep Learning สูงถึงระดับ 500 TFLOPS ด้วยการทำงานของ Tensor Core จำนวน 2,560 ชุดและ CUDA Core จำนวน 20,480 ชุด เหนือกว่าการติดตั้งการ์ดจอแบบเดียวกันในรุ่น PCIe อยู่ประมาณ 10% และรองรับการใาช้งาน API ของ CUDA, DirectCompute, OpenCL และ OpenACC ได้ในระบบหนึ่งเดียว

ในแง่ของการรองรับ Deep Learning Framework นั้น Server รุ่นนี้ก็รองรับได้หลากหลาย เช่น

  • Caffe2
  • Microsoft Cognitive Tookit
  • Mxnet
  • Pytorch
  • TensorFlow
  • Theano

ในขณะเดียวกัน การรองรับ Application ที่สามารถเพิ่มประสิทธิภาพด้วย GPU นั้นก็รองรับได้หลากหลายเช่นกัน ไม่ว่าจะเป็น

  • AMBER
  • ANSYS Fluent
  • GAUSSIAN
  • GROMACS
  • LS-DYNA
  • NAMD
  • OpenFOAM
  • Simulia Abaqus
  • VASP
  • WRF

โดยสรุปแล้ว Server รุ่นนี้สามารถรองรับ Application ได้หลากหลายเกินกว่า 550 Application เลยทีเดียว

Bandwidth ระหว่างการ์ดจอขนาด 300GB/s ด้วย NVIDIA NVLink

ด้วยความที่ Server รุ่นนี้ถูกออกแบบมาสำหรับการใช้งานกับ NVIDIA โดยเฉพาะ จึงสามารถรองรับการใช้งานเทคโนโลยี NVIDIA NVLink ล่าสุดที่จะช่วยให้การรับส่งข้อมูลระหว่าง GPU เกิดขึ้นได้ด้วยความเร็วระดับ 300GB/s สูงกว่าการใช้ PCIe ที่มีความเร็วเพียง 32GB/s เป็นอย่างมาก ในขณะที่ความเร็วในการเข้าถึงข้อมูลของหน่วยความจำแบบ HBM2 บน GPU ก็มีความเร็วสูงถึง 900GB/s ทำให้มั่นใจได้ว่าจะไม่เกิดคอขวดในการเข้าถึงข้อมูลในส่วนของ GPU อย่างแน่นอน

แรงไม่พอ? 8 GPU ใน 1 เครื่อง Supermicro ก็มีขาย แรงระดับ 1,000 TFLOPS ใน 4U

Supermicro SuperServer 4029GP-TVRT Credit: Supermicro

สำหรับคนที่แสวงหาความแรงในการประมวลผล AI มากยิ่งขึ้นไปอีก ทาง Supermicro ก็มีการออกแบบ Server รุ่น Supermicro SuperServer 4029GP-TVRT ที่มีขนาด 4U แต่รองรับ NVIDIA Tesla V100 จำนวนมากถึง 8 การ์ดในเครื่องเดียว และมีสเป็คอื่นๆ ที่เทียบเท่ากัน แต่เพิ่มการรองรับ SSD/HDD ในเครื่องมากขึ้น และเพิ่มขนาดของ Power Supply ให้สูงขึ้น โดยรวมแล้วก็จะรองรับประสิทธิภาพสูงถึง 1,000 TFLOPS สำหรับงาน AI เลยทีเดียว

ดังนั้นด้วย Server 2 รุ่นนี้ ก็ทำให้เหล่าองค์กรสามารถเลือกได้ว่าจะเริ่มต้นที่ 4 GPU หรือ 8GPU ในช่วงแรกเริ่ม และจะเพิ่มขยายแบบ Scale-Out ด้วยการเติมเครื่องรุ่นใดเข้าไปในระบบก็ได้ตามต้องการ

ยังแรงไม่พออีก? อีกไม่นานพบกับเครื่อง 16 GPU ได้จาก Supermicro

Supermicro NVIDIA HGX-2 Server Credit: Throughwave Thailand

ในงาน Computex 2018 ที่ผ่านมา ทาง Supermicro เองได้นำเครื่อง Server ที่ออกแบบตามสถาปัตยกรรมของ NVIDIA HGX-2 ซึ่งเป็น Server ที่มี 16 GPU ภายในเครื่องเดียวมาจัดแสดง เพื่อตอบโจทย์ตลาดของ AI Application ที่กำลังเติบโตอย่างรวดเร็วในแต่ละวัน ดังนั้นหากในอนาคตนั้นองค์กรเองก็จะมีทางเลือกเพิ่มสำหรับการลงทุนระบบ Server Hardware เพื่อรองรับ AI มากขึ้นยิ่งกว่าปัจจุบัน

 

เกี่ยวกับ Throughwave Thailand

Throughwave Thailand เป็นตัวแทนจำหน่าย (Distributor) สำหรับผลิตภัณฑ์ Enterprise IT ครบวงจรทั้ง Server, Storage, Network และ Security พร้อมโซลูชัน VMware และ Microsoft ที่มีลูกค้าเป็นองค์กรชั้นนำระดับหลายหมื่นผู้ใช้งานมากมาย โดยทีมงาน Throughwave Thailand ได้รับความไว้วางใจจากลูกค้าจากทีมงาน Engineer มากประสบการณ์ ที่คอยสนับสนุนการใช้งานของลูกค้าตลอด 24×7 ร่วมกับ Partner ต่างๆ ทั่วประเทศไทยนั่นเอง https://www.throughwave.co.th