客戶案例/軟體與網際網路/美國

2024 年
Perplexity 標誌

Perplexity 利用 Amazon SageMaker HyperPod 將基礎模型訓練加快 40%

了解生成式 AI 新創公司 Perplexity 如何使用 Amazon SageMaker HyperPod 更快速、更有效率地執行模型訓練。

訓練時間縮短

多達 40%

每小時支援 100,000 多次

查詢

維持

低延遲 

最佳化

使用者體驗

概觀

身為一股變革力量,生成式人工智慧 (AI) 涵蓋了機器學習 (ML) 演算法,能夠藉由從大量資料中學習,生成從影像到文字等新內容。Perplexity 是正在建置世界上首批對話式回答引擎之一的公司,正在利用生成式 AI 的力量協助使用者找到相關知識。

Perplexity 面臨最佳化其模型準確性和精確度的挑戰,需要能處理其運算需求的強大解決方案。本著提升使用者體驗的願景,Perplexity 向 Amazon Web Services (AWS) 求助。透過使用 AWS 的先進 ML 基礎設施、訓練庫和推論工具,Perplexity 獲得了大規模服務全球使用者所需的靈活性、效能和效率。

機會 | 使用 AWS 服務最佳化使用者體驗

有別於會將推廣廣告和特定關鍵字排在相關搜尋結果上方的傳統搜尋引擎,Perplexity 的解決方案經過最佳化,旨在將使用者引導至其尋求的知識。大約每月有 1,000 萬名活躍使用者依賴 Perplexity 來學習新概念、解決挑戰並找到答案。

「使用大型語言模型,我們能將人類的語言理解和推理能力整合到一個模型中。再結合網際網路上的事實,即可協助我們建立回答引擎。」Perplexity 執行長暨共同創辦人 Aravind Srinivas 表示,「本質上,我們將傳統的搜尋索引 (事實引擎) 和推理引擎 (大型語言模型) 結合在一起,建置了世界上第一個對話式回答引擎。」

自 2022 年推出以來,Perplexity 一直使用 AWS 核心服務,例如 Amazon Elastic Compute Cloud (Amazon EC2),其可為幾乎所有工作負載提供安全、可調整大小的運算容量,能用於支援該公司產品的後端、前端和搜尋元件。隨著 Perplexity 的成熟和 ML 模型數量的增加,它需要龐大運算能力來服務使用者。

Perplexity 與 AWS 專家交流後得知,Amazon SageMaker HyperPod (專為大規模分散式訓練而建置的基礎設施) 可滿足其大規模模型訓練的需求。Amazon SageMaker HyperPod 已預先以 Amazon SageMaker 分散式訓練庫設定,這些訓練庫經過最佳化,能在超過 1,600 Gbps 的互連速度下執行高度可擴展且符合成本效益的自訂資料平行和模型平行深度學習訓練作業。Amazon SageMaker HyperPod 還透過定期儲存檢查點來防止基礎模型訓練中斷。訓練期間發生硬體故障時,AWS 服務會自動偵測到故障、加以修復或更換故障的執行個體,並從上次儲存的檢查點恢復訓練。這有助於在分散式環境中連續數週或數月不間斷地訓練模型。

kr_quotemark

「在 AWS 上,權力掌握在客戶手中。關於需要使用哪些服務,沒有任何要求。」

Aravind Srinivas
Perplexity 執行長暨共同創辦人

解決方案 | 使用 Amazon SageMaker HyperPod 將模型訓練時間縮短多達 40%

AWS 為 Perplexity 提供了一個月試用期,以向其展示分散式訓練功能,在此期間,該公司發現了使用 AWS 的優勢。例如,Perplexity 在資源分配方面獲得了更大的靈活性,使用針對特定任務量身訂製的不同 Amazon EC2 執行個體類型和 GPU。

為了訓練 ML 模型,Perplexity 需要大量記憶體,以執行海量資料並儲存不同梯度。該公司選擇了可為 ML 訓練和高效能運算應用提供最高效能的 Amazon EC2 P4de 執行個體來執行訓練任務,進而達到記憶體和頻寬需求。透過使用 Amazon SageMaker HyperPod,Perplexity 在不同 GPU 之間傳輸資料大幅加快,進而將 ML 模型訓練時間縮短了多達 40%。

「Amazon SageMaker HyperPod 的內建資料和模型平行程式庫協助我們最佳化 GPU 的訓練時間,並且讓訓練輸送量翻倍。」Srinivas 表示,「因此,我們的訓練實驗現在能以加倍的速度完成,這代表開發人員能更快速地反覆運作,從而加速為客戶開發全新生成式 AI 體驗。由於 Amazon SageMaker HyperPod 會自動監控叢集運作狀態並修復 GPU 故障,因此我們的開發人員得以專注於模型建置,而無須費時管理及最佳化基礎設施。」

Perplexity 的目標是對使用者查詢做出快速且準確的回應,這需要近乎即時的推論能力。使用 Amazon EC2 P5 執行個體 (可為深度學習應用提供最高效能的 GPU 執行個體),Perplexity 能以比之前更高的輸送量產生答案。事實上,該公司能在尖峰時段處理 10,000 個並行使用者和每小時超過 100,000 個查詢,同時不會影響延遲或使用者體驗。Perplexity 還將公開提供的 Llama 2 模型託管在 Amazon EC2 P5 執行個體上,並使用 Amazon SageMaker HyperPod 利用自有資料對開放原始碼模型進行微調。微調模型有助於提高回應的準確性和相關性,根據 Perplexity 回答引擎的需求量身訂製模型。

成果 | 使用 AWS 基礎設施和 AI/ML 服務來推動生成式 AI

在成功的基礎上,Perplexity 準備在生成式 AI 領域開闢新天地。作為其前瞻性策略的一環,該公司將嘗試使用 AWS Trainium (高效能 ML 訓練加速器),以進一步提高訓練輸送量。Perplexity 還推出了 API,讓使用者能存取其 大型語言模型,該模型完全在 AWS 上執行,並已經由 Amazon SageMaker HyperPod 最佳化。

為了擴展其知識庫並為使用者提供更準確的答案,Perplexity 還採用 Amazon Bedrock,此為全受管服務,透過單一 API 提供來自領先 AI 公司的高效能基礎模型選擇。例如,Perplexity 已開始透過 Amazon Bedrock 使用 Claude 2,將編寫程式碼、數學和推理等進階功能納入其服務。

「在 AWS 上,權力掌握在客戶手中。」Srinivas 表示,「而 AWS 也沒有要求客戶必須使用哪些服務。AWS 團隊總是告訴我們,『做對客戶最有利的事。做對您的業務最有利的事。』 這種客戶一致性正是我們真正喜歡 AWS 的地方。」

關於 Perplexity

Perplexity 正在建置功能性和對話式的回答引擎,該引擎經過最佳化後,旨在幫助使用者找到知識,而不是推廣廣告和關鍵字。

使用的 AWS 服務

Amazon SageMaker HyperPod

AmazonSageMaker HyperPod 消除了建立和優化用於訓練基礎模型 (FM) 的機器學習 (ML) 基礎設施所需的無差別繁重工作,從而縮短高達 40% 的訓練時間。

進一步了解 »

Amazon EC2 P5 執行個體

Amazon Elastic Compute Cloud (Amazon EC2) P5 執行個體採用最新的 NVIDIA H100 Tensor Core GPU,可在 Amazon EC2 中提供最高效能,供深度學習 (DL) 和高效能運算 (HPC) 應用程式使用。

進一步了解 »

Amazon EC2 P4de 執行個體

P4de 執行個體搭載 8 個 NVIDIA A100 GPU,具備 80 GB 高效能 HBM2e GPU 記憶體,比目前 P4d 執行個體的 GPU 高出 2 倍。

進一步了解 »

Amazon Bedrock

Amazon Bedrock 是一項全受管服務,透過單一 API 以及建置生成式 AI 應用程式所需的各種廣泛功能,搭配安全、隱私與負責任的 AI,提供來自領先 AI 公司的各種高效能基礎模型 (FM) 選擇,例如 AI21 Labs、Anthropic、Cohere、Meta、Stability AI 和 Amazon。

進一步了解 »

更多軟體與網際網路客戶案例

找不到項目 

1

開始使用免費方案中包含的 Amazon SageMaker

Amazon SageMaker 作為 AWS 免費方案的一部分,您可以免費開始使用。您的兩個月免費試用從您建立第一個 SageMaker 資源的第一個月開始計算。