อินสแตนซ์ P4 ของ Amazon EC2

ประสิทธิภาพสูงสำหรับการฝึกอบรม ML และแอปพลิเคชัน HPC บนคลาวด์

เหตุใดจึงควรเลือกใช้อินสแตนซ์ Amazon EC2 P4

อินสแตนซ์ P4d ของ Amazon Elastic Compute Cloud (Amazon EC2) มอบประสิทธิภาพสูงสำหรับการฝึกแมชชีนเลิร์นนิง (ML) และแอปพลิเคชันการประมวลผลประสิทธิภาพสูง (HPC) ในระบบคลาวด์ อินสแตนซ์ P4d ขับเคลื่อนโดย GPU NVIDIA A100 Tensor Core และส่งมอบปริมาณงานสูงชั้นนำของอุตสาหกรรมและเครือข่ายล่าช้าต่ำ อินสแตนซ์เหล่านี้รองรับเครือข่ายอินสแตนซ์ 400 Gbps อินสแตนซ์ P4d ช่วยลดต้นทุนในการฝึกโมเดล ML ได้ถึง 60% รวมถึงประสิทธิภาพที่ดีขึ้นโดยเฉลี่ย 2.5 เท่าสำหรับโมเดลดีปเลิร์นนิงเมื่อเปรียบเทียบกับอินสแตนซ์ P3 และ P3dn รุ่นก่อนหน้า

อินสแตนซ์ P4d ถูกปรับใช้ในคลัสเตอร์ไฮเปอร์สเกลที่เรียกว่า Amazon EC2 UltraClusters ซึ่งประกอบด้วยการประมวลผลประสิทธิภาพสูง เครือข่าย และพื้นที่เก็บข้อมูลในระบบคลาวด์ EC2 UltraCluster แต่ละเครื่องถือเป็นซูเปอร์คอมพิวเตอร์ที่มีประสิทธิภาพสูงสุดเครื่องหนึ่งในโลก ช่วยให้คุณสามารถรันการฝึกอบรม ML แบบมัลติโหนดที่ซับซ้อนที่สุดและเวิร์กโหลด HPC แบบกระจายได้ คุณสามารถปรับขนาดได้อย่างง่ายดายตั้งแต่ไม่กี่ตัวไปจนถึงหลายพัน GPU NVIDIA A100 ใน EC2 UltraClusters ตามความต้องการของโครงการ ML หรือ HPC ของคุณ

นักวิจัย นักวิทยาศาสตร์ข้อมูล และนักพัฒนาสามารถใช้อินสแตนซ์ P4d เพื่อฝึกโมเดล ML สำหรับกรณีการใช้งานเช่นการประมวลผลภาษาธรรมชาติ การตรวจจับและการจำแนกวัตถุ และกลไกการแนะนำ นอกจากนี้ยังสามารถใช้เพื่อรันแอปพลิเคชัน HPC เช่น การค้นพบยา การวิเคราะห์แผ่นดินไหว และการสร้างแบบจำลองทางการเงิน ต่างจากระบบภายในสถานที่ คุณสามารถเข้าถึงการประมวลผลและความจุจัดเก็บข้อมูลที่แทบไม่มีขีดจำกัด ปรับขนาดโครงสร้างพื้นฐานของคุณตามความต้องการทางธุรกิจ และสร้างงานฝึกอบรม ML แบบหลายโหนดหรือแอปพลิเคชัน HPC แบบกระจายที่เชื่อมโยงกันอย่างแน่นหนาได้ในเวลาไม่กี่นาที โดยไม่ต้องมีค่าใช้จ่ายในการตั้งค่าหรือบำรุงรักษาใดๆ

ประกาศเปิดตัวอินสแตนซ์ Amazon EC2 P4d ใหม่

ประโยชน์

ด้วย GPU NVIDIA A100 Tensor Core รุ่นล่าสุด อินสแตนซ์ P4d แต่ละอินสแตนซ์ ให้ประสิทธิภาพ DL ที่ดีขึ้นโดยเฉลี่ย 2.5 เท่าเมื่อเทียบกับอินสแตนซ์ P3 รุ่นก่อนหน้า EC2 UltraClusters ของอินสแตนซ์ P4d ช่วยให้นักพัฒนา นักวิทยาศาสตร์ข้อมูล และนักวิจัยทั่วไปสามารถรันเวิร์กโหลด ML และ HPC ที่ซับซ้อนที่สุดได้ โดยให้สิทธิ์เข้าถึงประสิทธิภาพระดับซูเปอร์คอมพิวเตอร์โดยไม่ต้องมีค่าใช้จ่ายล่วงหน้าหรือภาระผูกพันในระยะยาว เวลาในการฝึกอบรมที่ลดลงด้วยอินสแตนซ์ P4d ช่วยเพิ่มประสิทธิภาพการทำงาน ช่วยให้นักพัฒนามุ่งเน้นไปที่ภารกิจหลักในการสร้างอัจฉริยะ ML ลงในแอปพลิเคชันทางธุรกิจ

นักพัฒนาสามารถปรับขนาดได้ถึง GPU มากถึงหลายพันรายการได้อย่างราบรื่นด้วยอินสแตนซ์ EC2 UltraClusters ของ P4d เครือข่ายความเร็วสูงและหน่วงแฝงต่ำพร้อมรองรับเครือข่ายอินสแตนซ์ 400 Gbps, Elastic Fabric Adapter (EFA) และเทคโนโลยี GPUDirect RDMA ช่วยฝึกโมเดล ML อย่างรวดเร็วโดยใช้เทคนิคการสเกลเอาต์/กระจาย EFA ใช้ NVIDIA Collective Communications Library (NCCL) เพื่อปรับขนาดเป็น GPU หลายพันตัว และเทคโนโลยี GPUDirect RDMA ช่วยให้การสื่อสาร GPU-to-GPU ความหน่วงต่ำระหว่างอินสแตนซ์ P4d

อินสแตนซ์ P4d ให้ต้นทุนในการฝึกโมเดล ML ลดลงถึง 60% เมื่อเทียบกับอินสแตนซ์ P3 นอกจากนี้ อินสแตนซ์ P4d ยังสามารถซื้อเป็น Spot Instance ได้ Spot Instance ใช้ประโยชน์จากความจุอินสแตนซ์ EC2 ที่ไม่ได้ใช้งาน และสามารถลดต้นทุน EC2 ของคุณได้อย่างมาก โดยมีส่วนลดมากถึง 90% จากราคาแบบตามความต้องการ ด้วยต้นทุนที่ลดลงของการฝึกอบรม ML ด้วยอินสแตนซ์ P4d จึงสามารถจัดสรรงบประมาณเพื่อสร้างระบบอัจฉริยะ ML ให้มากขึ้นในแอปพลิเคชันทางธุรกิจ

AWS Deep Learning AMI (DLAMI) และ Amazon Deep Learning Containers ช่วยให้ปรับใช้สภาพแวดล้อม P4d DL ได้ง่ายขึ้นในไม่กี่นาทีเนื่องจากมีไลบรารีและเครื่องมือเฟรมเวิร์ก DL ที่จำเป็น คุณยังสามารถเพิ่มไลบรารีและเครื่องมือของคุณเองลงในภาพเหล่านี้ได้ง่ายขึ้น อินสแตนซ์ P4d รองรับเฟรมเวิร์ก ML ยอดนิยม เช่น TensorFlow, PyTorch และ MXnet นอกจากนี้ อินสแตนซ์ P4d ยังได้รับการสนับสนุนโดยบริการ AWS หลักสำหรับ ML การจัดการ และการจัดระเบียบ เช่น Amazon SageMaker, Amazon Elastic Kubernetes Service (Amazon EKS), Amazon Elastic Container Service (Amazon ECS), AWS Batch และ AWS ParallelCluster

คุณสมบัติ

NVIDIA A100 Tensor Core GPU ให้การเร่งความเร็วที่ไม่เคยมีมาก่อนในระดับสำหรับ ML และ HPC Tensor Cores รุ่นที่สามของ NVIDIA A100 ช่วยเร่งเวิร์กโหลดที่แม่นยำทุกครั้ง เร่งเวลาในการสร้างข้อมูลเชิงลึกและเวลาในการวางตลาด GPU A100 แต่ละตัวมีประสิทธิภาพในการคำนวณมากกว่า 2.5 เท่าเมื่อเทียบกับ GPU V100 รุ่นก่อนหน้าและมาพร้อมกับหน่วยความจำ GPU ที่มีประสิทธิภาพสูง 40 GB HBM2 (ในอินสแตนซ์ P4d) หรือ 80 GB HBM2e (ในอินสแตนซ์ P4de) หน่วยความจำ GPU ที่สูงขึ้นเป็นประโยชน์โดยเฉพาะอย่างยิ่งสำหรับการฝึกอบรมเวิร์กโหลดบนชุดข้อมูลขนาดใหญ่ของข้อมูลความละเอียดสูง GPU NVIDIA A100 ใช้ปริมาณการเชื่อมต่อระหว่างกัน NVSwitch GPU เพื่อให้ GPU แต่ละตัวสามารถสื่อสารกับ GPU อื่นๆ ในอินสแตนซ์เดียวกันที่ปริมาณงานสองทิศทางเดียวกัน 600 Gb/s และด้วยความล่าช้าแบบฮอปแบบเดียว

อินสแตนซ์ P4d ให้บริการเครือข่าย 400 Gbps เพื่อช่วยให้ลูกค้าปรับขนาดเวิร์กโหลดแบบกระจายได้ดีขึ้น เช่น การฝึกอบรมมัลติโนดอย่างมีประสิทธิภาพมากขึ้นด้วยเครือข่ายปริมาณสูงระหว่างอินสแตนซ์ P4d รวมถึงระหว่างอินสแตนซ์ P4d และบริการจัดเก็บข้อมูล เช่น Amazon Simple Storage Service (Amazon S3) และ FSx for Lustre EFA เป็นอินเทอร์เฟซเครือข่ายที่กำหนดเองที่ออกแบบโดย AWS เพื่อช่วยปรับขนาดแอปพลิเคชัน ML และ HPC ไปยัง GPU หลายพันตัว เพื่อลดเวลาแฝงเพิ่มเติม EFA ยังทำงานร่วมกับ NVIDIA GPUDirect RDMA เพื่อเปิดใช้งานการสื่อสารระหว่าง GPU กับ GPU ที่มีค่าหน่วงเวลาต่ำระหว่างเซิร์ฟเวอร์โดยมีการบายพาสระบบปฏิบัติการ

เข้าถึงพื้นที่จัดเก็บข้อมูลสูงขนาดเพตาไบต์และหน่วงเวลาต่ำด้วย FSx for Lustre หรือพื้นที่จัดเก็บข้อมูลที่คุ้มค่าแทบไม่ จำกัด ด้วย Amazon S3 ที่ความเร็ว 400 Gbps สำหรับเวิร์กโหลดที่ต้องการเข้าถึงชุดข้อมูลขนาดใหญ่ได้อย่างรวดเร็ว อินสแตนซ์ P4d แต่ละอินสแตนซ์ยังรวมถึงพื้นที่จัดเก็บ SSD ที่ใช้ NVME ขนาด 8 TB พร้อมปริมาณการอ่าน 16 GB/s

อินสแตนซ์ P4d สร้างขึ้นบน AWS Nitro System ซึ่งเป็นคอลเลกชันบล็อกการสร้างที่ครบถ้วนซึ่งถ่ายโอนฟังก์ชันการจำลองระบบเสมือนแบบดั้งเดิมจำนวนมากไปยังฮาร์ดแวร์และซอฟต์แวร์เฉพาะเพื่อมอบประสิทธิภาพสูง ความพร้อมใช้งานสูง และความปลอดภัยสูง ในขณะที่ลดค่าโสหุ้ยในการจำลองระบบเสมือน

คำชมเชยจากลูกค้า

นี่คือตัวอย่างบางส่วนของวิธีที่ลูกค้าและพันธมิตรบรรลุเป้าหมายทางธุรกิจด้วยอินสแตนซ์ Amazon EC2 P4

  • Toyota Research Institute (TRI)

    สถาบันวิจัยโตโยต้า (TRI) ก่อตั้งในปี 2015 โดยทำงานเพื่อพัฒนาระบบขับขี่อัตโนมัติ หุ่นยนต์ และเทคโนโลยีขยายเสียงของมนุษย์อื่นๆ สำหรับโตโยต้า

    ที่ TRI เรากำลังทำงานเพื่อสร้างอนาคตที่ทุกคนมีอิสระในการเดินทาง อินสแตนซ์ P3 รุ่นก่อนหน้าช่วยให้เราลดเวลาในการฝึกโมเดล ML จากหลายวันเหลือเพียงไม่กี่ชั่วโมง และเรามุ่งหวังที่จะใช้อินสแตนซ์ P4d เนื่องจากหน่วยความจำ GPU เพิ่มเติมและรูปแบบลอยตัวที่มีประสิทธิภาพยิ่งขึ้นจะช่วยให้ทีมแมชชีนเลิร์นนิงของเราสามารถฝึกด้วยโมเดลที่ซับซ้อนมากขึ้นด้วยความเร็วที่เร็วยิ่งขึ้น

    Mike Garrison หัวหน้าฝ่ายเทคนิค วิศวกรรมโครงสร้างพื้นฐาน TRI
  • TRI-AD

    ที่ TRI-AD เรากำลังทำงานเพื่อสร้างอนาคตที่ทุกคนมีอิสระในการสัญจรและสำรวจ โดยเน้นที่การลดการบาดเจ็บและเสียชีวิตจากยานพาหนะโดยใช้การขับขี่แบบปรับตัวและเมืองอัจฉริยะ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดเวลาการฝึกอบรมสำหรับการจดจำวัตถุลงได้ 40% เมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้าโดยไม่ต้องปรับเปลี่ยนโค้ดที่มีอยู่แต่อย่างใด

    Junya Inada ผู้อำนวยการฝ่ายการขับขี่อัตโนมัติ (การรับรู้) TRI-AD
  • TRI-AD

    ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดต้นทุนในการฝึกอบรมได้ทันทีเมื่อเปรียบเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้า ทำให้เราเพิ่มจำนวนทีมงานที่ดำเนินการฝึกโมเดลได้ การปรับปรุงการทำงานเครือข่ายใน P4d ทำให้เราปรับขนาดให้เหมาะสมกับอินสแตนซ์ต่างๆ ได้อย่างมีประสิทธิภาพถึงหลายสิบอินสแตนซ์ ซึ่งทำให้เรามีความคล่องตัวอย่างมากในการเพิ่มประสิทธิภาพ ฝึกอบรมใหม่ และปรับใช้โมเดลต่างๆ ในรถทดสอบหรือสภาพแวดล้อมจำลองสำหรับการทดสอบเพิ่มเติมได้อย่างรวดเร็ว

    Jack Yan ผู้อำนวยการอาวุโสฝ่ายวิศวกรรมโครงสร้างพื้นฐาน TRI-AD
  • GE Healthcare

    GE Healthcare เป็นผู้นำด้านเทคโนโลยีทางการแพทย์และผู้คิดค้นโซลูชันดิจิทัลระดับโลก GE Healthcare ช่วยให้แพทย์สามารถตัดสินใจได้อย่างรวดเร็วและมีข้อมูลมากขึ้นผ่านอุปกรณ์อัจฉริยะ การวิเคราะห์ข้อมูล แอปพลิเคชัน และบริการ ซึ่งได้รับการสนับสนุนจากแพลตฟอร์มอัจฉริยะ Edison Intelligence

    ที่ GE Healthcare เรามอบเครื่องมือต่างๆ ให้กับแพทย์เพื่อช่วยรวบรวมข้อมูล นำ AI และการวิเคราะห์ไปใช้กับข้อมูลเหล่านั้น และค้นพบข้อมูลเชิงลึกที่จะช่วยปรับปรุงผลลัพธ์สำหรับผู้ป่วย ขับเคลื่อนประสิทธิภาพ และขจัดข้อผิดพลาด อุปกรณ์ถ่ายภาพทางการแพทย์ของเราสร้างข้อมูลจำนวนมากที่นักวิทยาศาสตร์ข้อมูลของเราต้องประมวลผล หากใช้คลัสเตอร์ GPU ก่อนหน้านี้ จะต้องใช้เวลาหลายวันในการฝึกโมเดล AI ที่ซับซ้อน เช่น Progressive GAN สำหรับการจำลองและดูผลลัพธ์ การใช้อินสแตนซ์ P4d ใหม่ช่วยลดเวลาในการประมวลผลจากวันเป็นชั่วโมง เราพบว่าความเร็วเพิ่มขึ้นสองถึงสามเท่าในการฝึกโมเดลด้วยขนาดภาพต่างๆ ในขณะที่บรรลุประสิทธิภาพที่ดียิ่งขึ้นด้วยขนาดชุดที่เพิ่มขึ้นและผลผลิตที่สูงขึ้นด้วยรอบการพัฒนาโมเดลที่เร็วขึ้น

    Karley Yoder รองประธานและผู้จัดการทั่วไป ฝ่ายปัญญาประดิษฐ์ GM Healthcare
  • HEAVY.AI

    HEAVY.AI เป็นผู้บุกเบิกในการวิเคราะห์แบบเร่งด่วน แพลตฟอร์ม HEAVY.AI ใช้ในธุรกิจและรัฐบาลเพื่อค้นหาข้อมูลเชิงลึกที่เกินขีดจำกัดของเครื่องมือวิเคราะห์หลัก

    ที่ HEAVY.AI เรากำลังทำงานเพื่อสร้างอนาคตที่วิทยาศาสตร์ข้อมูลและการวิเคราะห์มาบรรจบกันเพื่อทำลายและรวมไซโลข้อมูลเข้าด้วยกัน ลูกค้าใช้ประโยชน์จากข้อมูลจำนวนมากซึ่งอาจรวมถึงตำแหน่งและเวลาเพื่อสร้างภาพเต็มไม่เพียง แต่สิ่งที่เกิดขึ้น แต่เมื่อใดและที่ไหนผ่านการสร้างภาพเชิงละเอียดของข้อมูลชั่วคราวเชิงพื้นที่ เทคโนโลยีของเราทำให้สามารถมองเห็นทั้งป่าและต้นไม้ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดต้นทุนในการปรับใช้แพลตฟอร์มของเราได้อย่างมีนัยสำคัญเมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้า ทำให้เราสามารถปรับขนาดชุดข้อมูลขนาดใหญ่ได้อย่างคุ้มค่า การปรับปรุงเครือข่ายใน A100 ได้เพิ่มประสิทธิภาพของเราในการปรับขนาดข้อมูลหลายพันล้านแถว และช่วยให้ลูกค้าของเราสามารถรวบรวมข้อมูลเชิงลึกได้เร็วขึ้น

    Ray Falcione, รองประธานฝ่ายภาครัฐของสหรัฐอเมริกา HEAVY.AI
  • Zenotech Ltd.

    Zenotech Ltd. กำลังกำหนดวิศวกรรมออนไลน์ใหม่ผ่านการใช้ HPC Clouds ที่ส่งมอบโมเดลใบอนุญาตตามความต้องการพร้อมประโยชน์ด้านประสิทธิภาพสูงสุดโดยการใช้ประโยชน์จากGPU

    ที่ Zenotech เรากำลังพัฒนาเครื่องมือเพื่อให้นักออกแบบสามารถสร้างผลิตภัณฑ์ที่มีประสิทธิภาพและเป็นมิตรต่อสิ่งแวดล้อมมากขึ้น เราทำงานในทุกอุตสาหกรรม และเครื่องมือของเราให้ข้อมูลเชิงลึกเกี่ยวกับประสิทธิภาพของผลิตภัณฑ์ที่ดียิ่งขึ้นผ่านการใช้การจำลองขนาดใหญ่ การใช้อินสแตนซ์ AWS P4d ช่วยให้เราสามารถเรียกใช้การจำลองของเราได้เร็วขึ้น 3.5 เท่าเมื่อเทียบกับ GPU รุ่นก่อนหน้า การเพิ่มความเร็วนี้ช่วยลดเวลาของเราในการแก้ปัญหาอย่างมีนัยสำคัญ ทำให้ลูกค้าของเราสามารถนำการออกแบบมาสู่ตลาดได้เร็วขึ้นหรือทำการจำลองความเที่ยงตรงสูงกว่าที่เคยเป็นไปได้

    Jamil Appa ผู้อำนวยการและผู้ร่วมก่อตั้ง Zenotech
  • Aon

    Aon เป็นบริษัทให้บริการระดับมืออาชีพชั้นนำระดับโลกที่ให้บริการโซลูชันด้านความเสี่ยง การเกษียณอายุและสุขภาพที่หลากหลาย Aon PathWise เป็นโซลูชันการจัดการความเสี่ยง HPC ที่ใช้ GPU และปรับขนาดได้ซึ่งผู้ประกันภัยและผู้ประกันภัย ธนาคาร และกองทุนบำเหน็จบำนาญสามารถใช้เพื่อจัดการกับความท้าทายที่สำคัญในปัจจุบัน เช่น การทดสอบกลยุทธ์การป้องกันความเสี่ยง การคาดการณ์ทางกฎระเบียบและเศรษฐกิจ และการจัดทำงบประมาณ 

    ที่ PathWise Solutions Group LLC ผลิตภัณฑ์ของเราช่วยให้บริษัทประกันภัย ผู้ประกันภัย และกองทุนบำเหน็จบำนาญสามารถเข้าถึงเทคโนโลยีรุ่นต่อไปเพื่อแก้ปัญหาความท้าทายด้านการประกันภัยที่สำคัญในปัจจุบันได้อย่างรวดเร็ว เช่น แมชชีนเลิร์นนิง การทดสอบกลยุทธ์การป้องกันความเสี่ยง การรายงานด้านกฎระเบียบและการเงิน การวางแผนธุรกิจ และการคาดการณ์ทางเศรษฐกิจ และการพัฒนาผลิตภัณฑ์ใหม่ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถนำเสนอการปรับปรุงความเร็วที่น่าทึ่งสำหรับการคำนวณที่มีความแม่นยำเดียวและสองเท่าเมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้าสำหรับการคำนวณที่ต้องการมากที่สุด ทำให้ลูกค้าสามารถทำการคำนวณและการคาดการณ์ช่วงใหม่ได้เป็นครั้งแรก ความเร็วมีความสำคัญ และเรายังคงส่งมอบคุณค่าที่มีความหมายและเทคโนโลยีล่าสุดให้กับลูกค้าของเราด้วยอินสแตนซ์ใหม่จาก AWS

    Van Beach หัวหน้าแผนกโซลูชันด้านประกันชีวิตระดับสากลของ Aon Pathwise Strategy and Technology Group
  • Rad AI

    Rad AI ประกอบด้วยผู้เชี่ยวชาญด้านรังสีวิทยาและ AI สร้างผลิตภัณฑ์ที่เพิ่มประสิทธิภาพสูงสุดของนักรังสีวิทยา ทำให้การดูแลสุขภาพสามารถเข้าถึงได้อย่างกว้างขวางและปรับปรุงผลลัพธ์ของผู้ป่วย อ่านกรณีศึกษาเพื่อเรียนรู้เพิ่มเติม

    ที่ Rad AI ภารกิจของเราคือการเพิ่มการเข้าถึงและคุณภาพของการดูแลสุขภาพสำหรับทุกคน Rad AI เน้นที่เวิร์กโฟลว์การถ่ายภาพทางการแพทย์ ช่วยให้แพทย์ด้านรังสีวิทยาประหยัดเวลา ลดภาวะหมดไฟ และเพิ่มความแม่นยำ เราใช้ AI เพื่อทำงานรังสีวิทยาโดยอัตโนมัติและช่วยปรับปรุงการรายงานรังสีวิทยา ด้วยอินสแตนซ์ EC2 P4d ใหม่ เราได้เห็นการอนุมานที่เร็วขึ้นและความสามารถในการฝึกโมเดลเร็วกว่า 2.4 เท่า ด้วยความแม่นยำสูงกว่าอินสแตนซ์ P3 รุ่นก่อนหน้า สิ่งนี้ช่วยให้การวินิจฉัยที่รวดเร็วและแม่นยำยิ่งขึ้น และเข้าถึงบริการรังสีวิทยาคุณภาพสูงที่ให้บริการโดยลูกค้าของเราทั่วสหรัฐอเมริกาได้มากขึ้น

    Doktor Gurson, ผู้ร่วมก่อตั้ง Rad AI

รายละเอียดผลิตภัณฑ์

ขนาดของอินสแตนซ์ vCPU หน่วยความจำของอินสแตนซ์ (GiB) GPU – A100 หน่วยความจำ GPU แบนวิดท์เครือข่าย (Gbps) GPUDirect RDMA GPU แบบ Peer to Peer พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์ EBS (Gbps) ค่าบริการตามความต้องการ/ชม. การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 1 ปี * การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 3 ปี *
p4d.24xlarge 96 1152 8 320 GB
HBM2
400 ENA และ EFA ใช่ NVSwitch 600 GB/วินาที 8 x 1000 NVMe SSD 19 32.77 USD 19.22 USD 11.57 USD
p4de.24xlarge (ตัวอย่าง) 96 1152 8 640 GB
HBM2e
400 ENA และ EFA ใช่ NVSwitch 600 GB/วินาที 8 x 1000 NVMe SSD 19 40.96 USD 24.01 USD 14.46 USD
* ค่าบริการที่แสดงนี้สำหรับ Linux/Unix ใน AWS Region สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือ) และปัดเศษเป็นเซนต์ สำหรับรายละเอียดค่าบริการทั้งหมด โปรดดู หน้าค่าบริการ Amazon EC2

อินสแตนซ์ P4d สามารถใช้งานได้ในรีเจี้ยนสหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือและโอไฮโอ) สหรัฐอเมริกาฝั่งตะวันตก (ออริกอน) เอเชียแปซิฟิก (โซลและโตเกียว) และยุโรป (แฟรงก์เฟิร์ตและไอร์แลนด์) อินสแตนซ์ P4de สามารถใช้งานได้ในรีเจี้ยนสหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือ) และสหรัฐอเมริกาฝั่งตะวันตก (ออริกอน)

ลูกค้าสามารถซื้ออินสแตนซ์ P4d และ P4de มาใช้เป็น On-Demand Instance, Reserved Instance, Spot Instance, Dedicated Host หรือใช้เป็นส่วนหนึ่งของ Savings Plan ก็ได้

การเริ่มต้นใช้งานอินสแตนซ์ P4d สําหรับ ML

Amazon SageMaker คือบริการที่มีการจัดการเต็มรูปแบบซึ่งใช้ในการสร้าง การฝึก และการนำโมเดล ML ไปใช้จริง เมื่อใช้งานร่วมกับอินสแตนซ์ P4d ลูกค้าจะสามารถปรับขนาด GPU นับสิบ ร้อย และพันหน่วย เพื่อฝึกฝนโมเดลในทุกขนาดได้อย่างรวดเร็วโดยไม่ต้องเป็นกังวลเกี่ยวกับการตั้งค่าคลัสเตอร์และไปป์ไลน์ของข้อมูล

DLAMI มอบโครงสร้างพื้นฐานและเครื่องมือต่าง ๆ ให้กับผู้ปฏิบัติงานและนักวิจัย ML เพื่อเร่ง DL ในระบบคลาวด์ในทุกขนาด ดีปเลิร์นนิงคอนเทนเนอร์ เป็น Docker Images ที่มีการติดตั้งเฟรมเวิร์ก DL ไว้ล่วงหน้าเพื่อให้ปรับใช้สภาพแวดล้อม ML แบบกำหนดเองได้รวดเร็วยิ่งขึ้น โดยช่วยให้คุณข้ามขั้นตอนอันยุ่งยากในการสร้างและเพิ่มประสิทธิภาพสภาพแวดล้อมของคุณตั้งแต่ต้น

หากคุณต้องการจัดการเวิร์กโหลดที่ใช้กับคอนเทนเนอร์ของคุณเองผ่านบริการควบคุมระบบคอนเทนเนอร์ คุณสามารถนำอินสแตนซ์ P4d ไปใช้จริงกับ Amazon EKS หรือ Amazon ECS

การเริ่มต้นใช้งานอินสแตนซ์ P4d สําหรับ HPC

อินสแตนซ์ P4d เหมาะอย่างยิ่งสำหรับการรันการจำลองทางวิศวกรรม การเงินเชิงคำนวณ การวิเคราะห์แผ่นดินไหว การสร้างแบบจำลองโมเลกุล จีโนมิกส์ การเรนเดอร์ และเวิร์กโหลด HPC ที่ใช้ GPU อื่นๆ การใช้งาน HPC มักต้องการเครือข่ายที่มีประสิทธิภาพสูง การจัดเก็บที่รวดเร็ว หน่วยความจำปริมาณมาก ความสามารถในการประมวลผลสูง หรือทั้งหมดที่กล่าวมา อินสแตนซ์ P4d รองรับ EFA ที่ทำให้แอปพลิเคชัน HPC ที่ใช้ Message Passing Interface (MPI) สามารถปรับขนาดให้รองรับ GPU หลายพันตัวได้ AWS Batch และ AWS ParallelCluster ช่วยให้นักพัฒนา HPC สร้างและปรับขนาดแอปพลิเคชัน HPC แบบกระจายได้อย่างรวดเร็ว

เรียนรู้เพิ่มเติม