亚马逊AWS官方博客
Tag: Amazon SageMaker
智能安防监控视频中的AI技术集成
智能IP监控的使用场景十分广泛,也衍生出众多的需求,如云存需求,回放需求,AI图像视频理解层面的需求等等。落地的场景有智慧楼宇,公共场所安防监控,居家室内外监控,智慧门铃,大型活动策划方,面部身份鉴定等等。立足于这些客户场景,本文主要介绍智能IP监控相机中的AI技术集成,在IP监控相机的数据上云之后,可以与众多计算机视觉算法相结合,如人脸检测,人脸检索,人形检测,或其他目标检测,行为分析等。文中阐述三种AI算法集成架构,并阐述各自适用的不同场景。
通过自动关闭 Amazon SageMaker Studio 中的闲置资源来节省成本
Amazon SageMaker 是一项完全托管式服务,它提供的功能可以将基础设施管理的繁重工作抽象化,并针对您对大规模 ML 活动的敏捷性和可扩展性需求提供各种不同功能和按用量付费的定价模型。
在Amazon Web Services打造端到端语音识别应用之模型训练
本文展示了使用SageMaker运行开源端到端语音识别模型WeNet的方法,涵盖数据处理、Docker运行环境构建、模型训练等内容。
在Amazon SageMaker中灵活使用多种存储服务
Amazon SageMaker 是一种完全托管的端到端机器学习服务,数据科研人员、开发人员和机器学习专家可以快速、大规模地构建、训练和托管机器学习模型。这极大地推进了您所有的机器学习工作,让您能够将机器学习技术迅速融入生产应用程序。
亚马逊云科技云原生架构演进
云原生是这两年讨论的比较火的话题,并且逐渐成为应用部署的主流方式。云原生是一种构建和运行应用程序的方法,应用程序从设计之初即考虑到云的环境,充分利用和发挥云平台的弹性自动化优势,在云上以最佳方式运行。
在中国区使用Amazon Step Functions Data Science SDK构建从AWS Glue(ETL)到Amazon SageMaker(推理)流水线
本文将以一个常见的使用案例,通过Amazon Step Functions Data Science SDK创建基于无服务器架构的工作流,过程如下:1.使用Amazon Glue进行ETL工作,生成样本数据集 2.使用SageMaker部署本地训练好的模型,用于机器学习推理
Sagemaker Neo优化目标检测模型加速推理
该文以目标检测模型着手,演示如何一步步基于Sagemaker Neo对训练后的模型文件进行编译优化,来提升模型的推理速度。 文中以yolo3(backbone为mobilenet1.0)模型为例,分别演示模型准备,模型Neo编译,模型导出推理测试,可视化等过程, 推理结果显示基于Sagemaker Neo可以显著提升推理速度,达到一倍以上的加速。
使用Amazon SageMaker原生TorchServe集成在生产中支持PyTorch模型
随着客户对于TorchServe需求的不断增长以及PyTorch社区的快速发展,AWS致力于为客户提供一种通用且高效的PyTorch模型托管方式。无论您使用的是Amazon SageMaker、 Amazon Elastic Compute Cloud (Amazon EC2)还是 Amazon Elastic Kubernetes Service (Amazon EKS), 我们都将不断优化后端基础设施并为开源社区提供支持。
Amazon SageMaker使用数十亿条参数简化深度学习模型训练
今天,我们高兴地宣布,Amazon SageMaker已经在大型深度学习模型的训练方面迎来简化,帮助更多缺少丰富硬件资源的客户踏入高阶深度学习之门。
使用Amazon SageMaker训练H2O模型并对其服务化
模型训练与服务化可以说是成功建立端到端机器学习(ML)流程的两大基本环节。这两个步骤通常需要不同的软件与硬件设置,才能为生产环境提供最佳组合。模型训练优化的目标是低成本、训练时间长度可行、科学上的灵活性以及良好的模型可解释性等;而模型服务化的优化目标是低成本、高吞吐以及低延迟。