ما سبب أهمية EC2 Capacity Blocks for ML؟
باستخدام كتل سعة Amazon Elastic Compute Cloud (Amazon EC2) لتعلم الآلة (ML)، يمكنك بسهولة حجز مثيلات الحوسبة المسرّعة لتاريخ بدء مستقبلي. تدعم كتل السعة مثيلات Amazon EC2 P5en وP5e وP5 وP4d المدعومة بأحدث وحدات معالجة الرسومات NVIDIA A100 Tensor Core GPUs ووحدات معالجة الرسومات NVIDIA H200 Tensor Core GPUs ووحدات معالجة الرسومات NVIDIA H100 Tensor Core GPUs على الترتيب، بالإضافة إلى مثيلات Trn2 وTrn1 المدعومة من AWS Trainium. يتم تجميع كتل سعة EC2 Capacity Blocks في مجموعات Amazon EC2 UltraClusters المصممة لأحمال عمل تعلم الآلة عالية الأداء (ML). يمكنك حجز مثيلات الحوسبة المسرّعة لمدة تصل إلى ستة أشهر بأحجام مجموعات من واحد إلى 64 مثيلاً (512 وحدة معالجة رسومات «GPUs» أو 1024 رقائق Trainium)، مما يمنحك المرونة لتشغيل مجموعة واسعة من أحمال عمل تعلم الآلة (ML). يمكن حجز كتل سعة EC2 Capacity Blocks حتى ثمانية أسابيع مقدمًا.
الفوائد
حالات الاستخدام
-
NVIDIA
يزداد الطلب على الحوسبة المتسارعة بشكل كبير حيث تتبنى الشركات في جميع أنحاء العالم الذكاء الاصطناعي المولّد لإعادة تشكيل أعمالها. باستخدام وحدات سعة EC2 Capacity Blocks for ML من AWS، يمكن لشركات الذكاء الاصطناعي في العالم الآن استئجار H100، ليس فقط خادمًا واحدًا في كل مرة ولكن على نطاق مخصص متاح بشكل فريد على AWS - مما يتيح لها تدريب نماذج اللغات الكبيرة بسرعة وفعالية من حيث التكلفة وتشغيل الاستدلال في السحابة عندما يحتاجون إليه بالضبط.
Ian Buck، نائب رئيس الحوسبة الفائقة والحوسبة عالية الأداء (Vice President of Hyperscale and HPC Computing)، شركة NVIDIA -
Arcee
توفر Arcee منصة ذكاء اصطناعي تتيح تطوير وتطوير ما نصنفه باسم SLMs- نماذج لغوية صغيرة ومتخصصة وآمنة وقابلة للتوسُّع. تعد كُتَل سعة Amazon EC2 Capacity Blocks for ML جزءًا مهمًا من حوسبة ML لتدريب نماذج SLMs على AWS لأنها توفر لنا وصولاً موثوقًا إلى سعة وحدة معالجة الرسومات (GPU) عندما نحتاج إليها. وهذا بدوره يعني استفادة كل من فريقنا الداخلي وعملائنا من المرونة. إن معرفة أننا نستطيع الحصول على مجموعة من وحدات معالجة الرسومات (GPUs) في غضون يومين وبدون التزام طويل الأجل قد غيرت قواعد اللعبة بالنسبة لنا.
Mark McQuade، الرئيس التنفيذي والمؤسس المشارك (CEO and Co-Founder) لشركة Arcee -
Amplify Partners
لقد عقدنا شراكة مع العديد من المؤسسين الذين يستفيدون من التعلم العميق ونماذج اللغات الكبيرة لتقديم ابتكارات رائدة إلى السوق. نعتقد أن الوصول الذي يمكن التنبؤ به وفي الوقت المناسب إلى سعة حوسبة GPU أمر أساسي لتمكين المؤسسين ليس فقط من إحياء أفكارهم بسرعة ولكن أيضًا الاستمرار في تكرار رؤيتهم وتقديم قيمة متزايدة لعملائهم. يعد توفر ما يصل إلى 512 وحدة معالجة رسومات NVIDIA H100 GPUs عبر كُتَل سعة EC2 Capacity Blocks بمثابة تغيير لقواعد اللعبة في البيئة الحالية المقيدة بالعرض، حيث نعتقد أنها ستزود الشركات الناشئة بسعة حوسبة GPU التي تحتاجها، عندما تحتاج إليها، دون تقديم التزامات رأسمالية طويلة الأجل. نتطلع إلى دعم المؤسسين الذين يعتمدون على AWS من خلال الاستفادة من كتل سعة وحدة معالجة الرسومات (GPU) ومحفظتها الرائدة في الصناعة لتعلم الآلة وخدمات الذكاء الاصطناعي المولّد.
Mark LaRosa، الشريك التشغيلي (Operating Partner) لـ Amplify Partners -
Canva
تعمل Canva اليوم على تمكين أكثر من 150 مليون مستخدم نشط شهريًا لإنشاء أصول مرئية جذابة يمكن نشرها في أي مكان. لقد استخدمنا مثيلات EC2 P4de لتدريب النماذج متعددة الوسائط التي تعمل على تشغيل أدوات الذكاء الاصطناعي المولّد الجديدة، مما يسمح لمستخدمينا بتجربة الأفكار بحرية وسرعة. بينما نتطلع إلى تدريب نماذج أكبر، نحتاج إلى القدرة على توسيع نطاق مئات وحدات معالجة الرسومات بشكل متوقع أثناء جولاتنا التدريبية. من المثير رؤية AWS تطلق كتل سعة EC2 Capacity Blocks مع دعم مثيلات P5. يمكننا الآن الحصول على وصول يمكن التنبؤ به إلى ما يصل إلى 512 وحدة معالجة رسومات NVIDIA H100 GPUs في EC2 UltraClusters بزمن انتقال منخفض لتدريب نماذج أكبر من ذي قبل.
Greg Roodt، رئيس منصات البيانات (Head of Data Platforms)، في Canva -
Dashtoon
تمزج Dashtoon بين الذكاء الاصطناعي المتطور والإبداع لتحويل رواة القصص إلى فنانين يمكنهم إنشاء رسوم هزلية رقمية (كوميك) بغض النظر عن مهاراتهم الفنية أو معرفتهم التقنية، وكسر الحواجز التقليدية في إنشاء المحتوى المصور. لدينا أكثر من 80 ألف مستخدم نشط شهريًا (MAUs) يستخدمون تطبيقنا لاستهلاك القصص المصورة، بينما ينتج منشئونا أكثر من 100 ألف صورة يوميًا على Dashtoon Studio. نحن نستخدم AWS منذ البداية، ونستخدم مثيلات Amazon EC2 P5 لتدريب النماذج متعددة الوسائط وضبطها بدقة، بما في ذلك Stable Diffusion XL وGroundingDINO وSegment Anything. لقد شهدنا تحسنًا في الأداء بمقدار 3 أضعاف أثناء استخدام مثيلات P5، المدعومة بوحدات معالجة الرسومات NVIDIA H100 GPUs، مقارنة باستخدام مثيلات P4d المكافئة، المدعومة بوحدات معالجة الرسومات NVIDIA A100 GPUs. تختلف مجموعات بيانات التدريب الخاصة بنا من حيث الحجم، وبينما نتطلع إلى توسيع نطاق التدريب النموذجي لدينا، تتيح لنا كُتَل السعة Amazon EC2 Capacity Blocks for ML التحلي بالمرونة في تلبية احتياجات وحدة معالجة الرسومات (GPU) الخاصة بنا مع فترات زمنية منخفضة يمكن التنبؤ بها (في أقرب وقت في اليوم التالي)، مما يساعدنا على تقليل الوقت لإطلاق قدرات جديدة لمستخدمينا. نحن متحمسون لمواصلة الاستفادة من كتل سعة EC2 Capacity Blocks لتسريع ابتكاراتنا.
Soumyadeep Mukherjee، المؤسس المشارك والرئيس التنفيذي للتكنولوجيا (Co-Founder and Chief Technology Officer) في Dashtoon -
Leonardo.Ai
يستفيد فريقنا في شركة Leonardo من الذكاء الاصطناعي المولّد لتمكين المحترفين المبدعين والمتحمسين من إنتاج أصول مرئية بجودة وسرعة واتساق أسلوب لا مثيل لها. يعتمد أساسنا على مجموعة من نماذج الذكاء الاصطناعي التي تم ضبطها بدقة والأدوات القوية، مما يوفر تحكمًا دقيقًا قبل وبعد بدء التشغيل. نحن نستفيد من مجموعة واسعة من خدمات AWS ليس فقط لبناء نماذجنا وتدريبها، ولكن أيضًا لاستضافتها لدعم الاستخدام من ملايين العملاء النشطين شهريًا. نحن سعداء بإطلاق كتل سعة EC2 لتعلم الآلة (ML). إنها تمكننا من الوصول بمرونة إلى سعة وحدة معالجة الرسومات GPU للتدريب والاختبار مع الحفاظ على خيار التبديل إلى مثيلات EC2 المختلفة التي قد تلبي متطلبات الحوسبة لدينا بشكل أفضل.
Peter Runham، المدير التنفيذي (CTO) لشركة Leonardo.Ai -
OctoAI
في OctoAI، نقوم بتمكين منشئي التطبيقات من تشغيل الذكاء الاصطناعي المولّد وضبطه وتوسيع نطاقه بسهولة، وتحسين تنفيذ النماذج واستخدام الأتمتة لتوسيع نطاق خدماتهم وتقليل العبء الهندسي. تعد قدرتنا على زيادة سعة وحدة معالجة الرسومات لفترات قصيرة أمرًا بالغ الأهمية، خاصة وأننا نعمل مع العملاء الذين يسعون إلى توسيع نطاق تطبيقات ML الخاصة بهم بسرعة من صفر إلى ملايين المستخدمين كجزء من إطلاق منتجاتهم. تتيح لنا كتل سعة EC2 Capacity Blocks for ML إمكانية تدوير أحجام مختلفة من مجموعات وحدات معالجة الرسومات التي تتوافق مع عمليات التوسعة المخطط لها لعملائنا، مع توفير وفورات محتملة في التكاليف مقارنة بالتزامات السعة طويلة الأجل أو النشر في الموقع.
Luis Ceze، الرئيس التنفيذي (CEO) لشركة OctoAI -
Snorkel
تساعد منصة تطوير بيانات الذكاء الاصطناعي من Snorkel المؤسسات على إنشاء الذكاء الاصطناعي واستخدامه بسرعة. وبشكل متزايد، يتضمن ذلك استخلاص المعلومات من نماذج LLMs كثيفة الحوسبة إلى نماذج متخصصة أصغر، مما يتطلب دفعات قصيرة المدى من الحوسبة أثناء التطوير. تتمتع كتل سعة EC2 Capacity Blocks for ML بالقدرة على تقديم تحسين كبير على الخيارات الحالية للحصول على سعة GPU. يعد الوصول المضمون إلى سعة GPU قصيرة المدى وأداء الشبكة العالي لـ EC2 UltraClusters من عوامل التمكين الحاسمة لسير عمل تطوير الذكاء الاصطناعي الذي تحتاج الشركات إلى دعمه اليوم وفي السنوات القادمة.
Braden Hancock، المؤسس المشارك ورئيس قسم التكنولوجيا (Co-Founder and Head of Technology) في Snorkel