亚马逊AWS官方博客
Amazon SageMaker HyperPod 存储设计与实践(二)
在 Amazon SageMaker HyperPod存储设计与实践(一)中我们实现了 SageMaker H […]
在 Amazon SageMaker 平台上使用 LlamaFactory 框架训练 Meta Llama3
背景 相较于直接使用 EC2,通过 Amazon SageMaker 进行模型训练具有训练环境统一,降低训练实 […]
使用 Amazon Q 加速软件开发生命周期
软件开发团队一直在寻求加速软件开发生命周期(SDLC)的方法,以更快地发布高质量软件。作为一款由生成式人工智能 […]
使用 Amazon Bedrock Cohere 多语言嵌入模型构建金融搜索应用程序
这篇文章展示了使用 Amazon Bedrock 上的 Cohere Embed 和 Rerank 模型,在不同语言的金融新闻中进行搜索和查询的应用程序。
为生成式 AI 工作负载设计弹性
理解并优先考虑弹性对于生成式 AI 工作负载来满足组织的可用性和业务连续性要求至关重要。这篇文章讨论了生成式 AI 工作负载的不同技术栈以及应该考虑的因素。
基于 AWS Step Functions 和 AWS Batch 服务构建宏基因分析工作负载
本文旨在介绍一个在 AWS 上构建宏基因分析工作负载的方案,该方案对常用的一些宏基因分析软件完成了容器化,并以批量计算服务 AWS Batch 为核心,构建容器化的宏基因分析集群和自动化工作流。本方案已经在多个客户的实际宏基因分析业务中得到应用,如土壤微生物/病毒宏基因分析,海洋微生物宏基因分析等。根据客户的实际业务场景,本方案也可以扩展到通用的基因分析场景。
Zero-ETL 在支付业务离线数据上的实践
人工智能和大数据技术的日渐火爆,越来越多的客户打算构建自己的数据仓库来实现对数据的分析。然而对于部分大数据技术处于起步阶段或者不打算在大数据方面投入过多人力成本的客户来说,复杂的数据重建和高昂的维护成本对他们来说是巨大的挑战。Zero-ETL 功能正是在此时推出来帮助客户解决此类问题。
Cloud Foundations 演示视频集之一:从安装部署到日常运维
Cloud Foundations 解决方案经过两年多的发展完善,功能日益丰富,涵盖从基础着陆区的安全基线配置到跨区域共享网络、云资源自动化管理、多维度安全治理等,涉及云上环境基础设施运维管理各个角落。本文特别归纳并演示 Cloud Foundations 生命周期和运维管理的数个重要过程和关键步骤,以便读者对其有更直观了解和更详实认识。
Cisco 使用 Apache DolphinScheduler 在 AWS 构建大数据系统实践
在 Cisco 的数据团队构建数据业务时,选取并使用 Apache DolphinScheduler 进行搭建大数据调度平台已经有近三年时间。其中大部分的数据任务都需要提交部署到 AWS 平台上,在团队进行系统架构和开发期间经历了一系列的挑战。
在 WorkSpaces 中优化 Zoom 使用体验的小经验
本文聚焦 WorkSpaces VDI 环境中优化 Zoom 使用体验的小经验,分享相关的小经验,为相关领域的实践者提供有价值的参考和指导。