亚马逊AWS官方博客
利用 Gateway Load Balancer 打造符合 MLPS2.0 的安全网络架构 – 日志审计篇
一、概述 在上一篇博客《利用 Gateway Load Balancer 打造符合 MLPS2.0 的安全网络 […]
使用AWS 媒体服务构建全球直播解决方案
作为全球云服务的领导者,AWS始终在创新的路上飞驰,仅2017年一年AWS就发布了1300多项新的服务、功能或者特性,这其中就包括在2017年reInvent上发布的5个全新的媒体服务,MediaConvert, MediaLive, MeidaPackage, MediaStore和MediaTailor,这些完全托管的服务,使得用户可以在云中轻松构建具有广播品质的可靠视频工作流。用户在构建互联网视频,OTT视频业务的时候直接在AWS控制台上即可启动直播,转码,存储,广告插入等广播级的业务流程,可以按照使用量即用即付,随时启停,而无需前期投入购买昂贵的设备资产,无需进行基础架构运维的成本投入,。AWS平台具有全球部署能力,可以分分钟将业务扩展到全球各个区域。
Amazon Redshift Spectrum – EB 级的 S3 数据就地查询
Amazon Redshift 允许 AWS 客户构建 PB 级的数据仓库,使来自各种内部和外部源的数据得以整合。由于 Redshift 针对大型表上的复杂查询(通常涉及多个join)进行了优化,因此它可以毫不费力地处理大量零售、库存和财务数据。加载数据后,我们的客户可以使用由 Redshift 合作伙伴提供的大量企业报告和商业智能工具。
利用 Lambda 和 Falco 为 Amazon EKS 提供安全保护
入侵和异常检测是重要的安全工具,可提高在 Amazon EKS 集群上的容器中部署的应用程序的运行时安全性。在本博文中,来自 Sysdig 公司的 Michael Ducy 将会介绍 Falco(CNCF 沙盒项目)如何在检测到异常应用程序行为时发出提醒。然后配置 AWS Lambda 函数,将提醒消息传送到 Slack。
现在开放 AWS Lambda Rust
AWS Lambda 让开发人员可以轻松为几乎任何类型的应用程序或后端服务运行代码,而且全部无需管理。它刚刚推出了 Runtime API。Runtime API 定义了基于 HTTP 的 Lambda 编程模型规范,可通过任何编程语言实现。为了启动该 API,我们开放了 Rust 语言运行时源代码。Rust 是一种用于编写和维护快速、可靠且高效代码的编程语言。
第四部分:如何借助当前的自适应比特率技术降低广播延迟 – 参考架构和测试结果
本文将研究一些参考架构,这些架构能够在优先考虑低延迟的视频直播工作流部署,以及端到端延迟方面带来最好的相关结果。我们从两个方向开展研究,所用的场景为:一个可以完全在本地部署的场景、三个包括在现场编码或提供支持的混合场景,以及使用云端的 AWS Elemental Media Services 的其余工作流程。通过这种方式,您能够直观地展示您对现有设备和服务的期望,同时帮助您了解如何将它们与 AWS Elemental Media Services 结合使用,来实现符合您要求的延迟等级。
第三部分:如何借助当前的自适应比特率技术降低广播延迟 – 视频播放器优化建议
本文将了解延迟改进中最重要的方面 – 视频播放器的参数。即使您已优化上游工作流程的参数,但如果视频播放器没有集成面向低延迟的机制,那么这些优化工作也可能没什么用。我们将讨论关于开源视频播放器的优化建议,并将介绍 AWS Elemental 技术合作伙伴 castLabs 和 Accedo 提供的面向商用播放器的方法。
第二部分:如何借助当前的自适应比特率技术降低广播延迟 – 编码、打包和 CDN 分发的优化建议
本文将讨论在视频工作流程的编码、打包和 CDN 分发步骤中采用的合理优化建议。
第一部分:如何借助当前的自适应比特率技术降低广播延迟 – 定义和测量延迟
直播视频流式传输为何存在延迟问题? 每当内容分发时间紧张时,无论是体育运动、比赛、新闻等电视内容,还是电子竞技、博彩等纯 OTT 内容,延迟的代价都很高。本文将讨论OTT 流式传输的延迟问题,以及如何测量不同工作流步骤在端到端延迟方面的影响。从编码、打包和 CDN 分发步骤开始,一起探讨可行的优化措施。通过更改文中提及的参数,您将能够为观众准备一场经过出色优化的低延迟现场直播。
机器学习基础
人工智能 (AI) 和机器学习 (ML) 是全球业务人员、技术人员和研究人员都感兴趣的话题。大多数对人工智能和机器学习的描述都过分简化了两者之间的真实关系。本文为您理解人工智能奠定了基础,阐述了当今人工智能如何以机器学习为基础,并对 AWS 机器学习服务做了简单介绍。