
数字化转型是一个牵扯到企业运营模式、业务流程、管理方式和企业文化等等多方面的、复杂的内容。
4 月 23 日,亚马逊旗下 AWS INNOVATE 在线技术大会如期展开。其中第一场主题演讲最为热门,因为带来演讲的 AWS 首席云计算企业战略顾问张侠博士,不仅介绍了 AWS 产品,也对海外新推出的云服务从理念和发展逻辑方面进行了综合的复盘。
在张侠看来,数字化转型是一个牵扯到企业运营模式、业务流程、管理方式和企业文化等等多方面的、复杂的内容。数字化转型要想做好,企业必须在高层达成共识,引领着整个企业从上至下的、全方位的进行转型。
事实上,AWS 过去正是基于这套方针指导进行业务拓展。从本世纪初将计算资源开放出来,到自研原生数据库,AWS 一直以企业用户的降本增效作为产品拓展的重要评判目标。
数据显示,2019 年四季度 AWS 营收高达 100 亿美元,2020 年 AWS 整体营收将突破 400 亿美元。这些营收来自 AWS 共 175 大类的云服务,覆盖了基本上各种各样的计算的需求,从基础设施到安全与管控,从计算、存储、数据库、网络到混合架构、开发工具、迁移工具、应用集成和管理、成本管理,再到企业业务应用,例如客服、终端用户、移动应用,还包括一些行业型应用,比如游戏、媒体等应用。
值得一提的是,AWS 坚定不断地在向中国市场引入优秀的产品和服务,仅2020年数量就高达 97 条。大会现场,张侠宣布,AWS 很快将正式在中国区域推出 Amazon SageMaker 和 Amazon SageMaker Studio,这是 AWS 在人工智能、机器学习平台的关键服务。记者查阅了 AWS 中国官网,发现截至 2020 年 4 月 26 日的头四个月,AWS 在中国区域就发布了 97 项新服务和新功能。两项机器学习新功能的服务,将很快让 AWS 在中国区域今年来推出的新功能破百。这家全球云计算巨头对中国云计算市场的信心和决心不声不响地写在官网的新产品发布区里。
以下为 AWS 首席云计算企业战略顾问张侠博士的演讲全文:
尊敬的各位嘉宾,IT 圈的朋友们,云计算的粉丝、老铁们,大家下午好!欢迎您参加 2020 年 AWS INNOVATE 在线技术大会。
我是张侠,今天很荣幸为您分享此次大会的主题演讲。我讲的题目是「AWS 云计算引领 IT 转型与创新」。本次技术大会得到 Intel 的赞助,在此表示感谢。下面我进入主题演讲的内容。
第一部分,我们讲一讲整个云计算发展的趋势以及数字化转型的一些特点。
最近随着疫情的发生,可以说各种企业的发展经历了一个非常特殊的阶段,我们看到的是经济的形势可以快速的变化,任何一个企业除了要利用新技术进行创新以外,它非常需要具有一个高度灵活的商业模式,来应对这种瞬息万变的市场的变化。
最近我们经常听无论是创业公司、互联网公司还是一些传统的大型企业,都会经常谈到数字化转型,数字化转型的目的大家都很清楚,它是要帮助改进客户的体验,然后通过对数据的利用做出好的战略决策,帮着企业能够很平顺地来运营,然后再通过创新不断地创造一些新的价值,提高企业的竞争力。对于数字化转型,我想跟大家分享三个观点。
首先,数字化转型是一个牵扯到企业运营模式、业务流程、管理方式和企业文化等等多方面的复杂的内容,如果数字化转型要想做好,要求企业必须在高层达成共识,引领着整个企业从上至下的、全方位的进行转型。从我们做 IT 技术的人来讲,我想谈两点。
第一点,当今这个时代各种信息化的技术层出不穷,新的技术层出不穷,企业的业务人员对我们做 IT 的会提出一个要求,他希望我们能够了解、掌握这些新的技术,明确地告诉他们这些技术什么技术是真正的成熟的,什么技术是对某个特定企业有着很好的价值,也是时间到了需要应用了,并帮助企业提供这样一个掌握技术的建设的能力。
第二点,作为数字化时代,数据成为企业一个非常重要的资产,那么怎么样帮着企业建一个好的数字的平台,使得企业能够把这些数字、数据全部都用起来,为企业创造价值。
这两点义不容辞都是企业对我们 IT 人员的要求。在众多的信息技术之中,云计算是一个颠覆性的技术,它是很多技术的底层的公共驱动的平台。换一种说法,我们前一段可能听说的,就是云计算是一个信息化的新常态,是一个目前这个阶段最重要的颠覆性的基础层的技术。
那么它上面托着的有两个技术在最近这一段时间格外惹人关注,一个是数据湖和数据分析,另外一个是人工智能和机器学习。包括在疫情期间,我们听到很多好的企业在利用数据和利用机器学习帮助我们很快速的创造一些应用,来控制疫情、来恢复生产、来重建一个好的供应链等等。所以今天我就重点跟大家分享这两个基于 AWS 上的数据湖与数据分析、人工智能和机器学习的服务。
云计算最近的一些发展状况。在过去一年里头,整个云计算无论是在全球还是在中国都是非常健康、非常蓬勃的在发展,去年 Q4 也是我们最后一个季度的季报,我们云的收入是 100 亿美元。整个一年向前展望,云的收入可能会达到 400 亿美元的数量。这些是通过 AWS 与客户共同创新,提供了这些很全面的云服务来实现的。
这张图我们列出了 175 大类的云的服务,这些服务通过 AWS 部署在全球的 23 个区域里面的 73 个可用区,为大家提供。这些服务可以说基本上覆盖了各种各样的计算的需求,大家可以看到从基础设施到安全和管控到计算、存储、数据库、网络到混合的架构、开发的工具、迁移的工具、应用集成和管理、成本的管理,也到一些企业的业务应用,比如说客服、终端用户、移动的一些应用,还包括一些行业型的,比如游戏、媒体等等的一些应用。当然,我们也提供了一些新的比如说基于区块链、基于虚拟现实和机器人、物联网等等这些新型的应用。
这次在主题演讲中我们会重点讲到其中的三大块,一个是数据库,一个是数据分析,这两个是数据的主题,第三是讲一讲人工智能和机器学习。在过去的一年里,在人工智能、机器学习方面,AWS 提供了多达 250 项新的服务和它的主要的功能。
下面我们就进入第一个分享的技术主题,我们来看一看在数据,包括数据存储、数据库、数据湖与数据分析方面,AWS 现在是提供一些什么样的服务。
在当今这个时代,数字化的时代,数据已经成为最重要的战略资产,《经济学人》杂志在这篇封面文章中提到,当今世界最有效的资源,不再是石油了,而是数据了。有时候有人说石油还不如矿泉水值钱。但是我想引言所告诉大家的是数据的价值。
熟悉我的朋友都听说过我的一个说法,我一般会告诉企业的高管,一个企业的信息流或者是数据在企业里的流动,就是一个企业的血液流。所以一个健康的企业,数据必须非常好的流动起来,而且数据是非常干净的,能够非常有效的携带营养,供企业来决策的。
大数据有很多特点,很多朋友听说过所谓大数据的 5 个 V。其实大数据最主要的特点无外乎是两大类,一大类是现代的大数据都是和移动社交网络所带来的海量的、迅速指数增长的这些数据所关联在一起。
另外,当今这些数据都要求有即时性,我们都要实时的来得到、分析这些数据,同时我们还希望能够对数据进行一些预测性的分析。
这张图跟大家分享一下常见的各种数据类型,以及它的一些特定的属性。最下面一排是这些数据最经常出现的一些场景。给大家举个例子,比如关系型数据库,它有一个参照的完整性,它是在写的时候就要把数据的模式定下来,这种数据是最古老的,是我们在各种交易型的数据库里面,ERP、CRM 里面广泛使用的。同时我们也有 Key-value 键值的非关系型数据库,还有其他一些非关系型数据库,包括宽列、文件,还有内存式的数据库、图形专用数据库,还有物联网里面从传感器获得的基于时间序列的时序的数据,还有我们希望不能更改的帐簿式的数据。
所以在过去这些年,AWS 根据客户的需求,对这些相应的数据所使用的数据库,都进行了一些专门的优化,所以我们叫专门的、专用的、定制的数据库,分别最有效的来处理这些相关的数据类型。在这儿我跟大家介绍一下,看一看这些专用的数据库的服务怎么能够帮助我们使用好数据。
Amazon Relational Database Service(RDS),这是一个托管的关系型数据库,它提供了既能支持比如 MySQL、PostgreSQL 这种开源的数据引擎,也能支持商业的 Microsoft 或者 Oracle 的 SQL 的商业数据引擎。
云的数据库都有几个特点,尤其像这种托管的数据库,它无需你去部署这些硬件、操作系统和数据库的软件,它具有很好的高性能和可扩展性,同时有很好的可用性和持久性,也能够符合各种安全、审计、合规的要求。
在推出托管的关系型数据库 Amazon RDS 的基础之上,AWS 也推出了云原生的关系型数据库,就是 Amazon Aurora。前年,我们就在宁夏区域推出了 Aurora,今年也在北京区域推出了 Aurora。它是一个可以兼容 MySQL 和 PostgreSQL 的关系型数据库,我们通过测试发现,它的性能可以达到 MySQL 的 5 倍,可以达到开源的 Postgre 的 3 倍。同时它的成本只是商业数据库的 1/10。
Amazon Aurora 一经推出,就成为 AWS 发展最快的云服务。在 Aurora 之前,Amazon Redshift 是发展最快的服务。Aurora 在今年已经有数万家客户在使用,包括在国内也有不少客户在使用。近期我们还推出了 Amazon Aurora 的 Global Database 功能,实现了跨区、跨全球化的数据库的主从的部署。
另外一个很重要的,也是很基础的数据库,就是 Amazon DynamoDB,这是一个 NoSQL,不仅仅是关系型的数据库。DynamoDB 推出来以后,一直被各种各样的需要做 Key-value,比如游戏或电商的目录等等广泛的使用。DynamoDB 我们了解现在每天大概有 10 万亿以上的存取的需求,有一些峰值的时候,每秒有两千万存取的需求。在过去一两年,我们也推出了它对应的 Global Table 功能,这也是一个全球跨区的部署,同时推出了按需来做备份、按照特定的时间点来恢复。还有一个非常重要的新的功能,就是 Read/Write Capacity On Demand,因为 DynamoDB 是根据读写的容量来订购、定制的。我们现在推出一个可以根据您实际需要和使用的情况,读写的量是可以自动做一些调整的功能。
其他几个比较重要的,比如说内存式的数据服务,它能够主要是来做一些毫秒级的实时的应用,快速的做一些查询和读取,我们支持 Redis 和 Memcached。
大家知道传统的数据分析,我们从交易型数据或从互联网的应用装置中把这些数拿来,然后抽取出来之后,放在一个数据仓库里面,然后在数据仓库之上做一些分析。这种分析有几个弱点。第一,它通常是基于历史数据做的批量的处理,而且这个数据的一些格式、特点已经都被预制了,或者数据已经进行了一些归类。另外,这种数据分析通常形成一些跨应用的、跨部门的数据的孤岛,无法在整个企业内把这些数据充分使用好。
与之相对应的一个非常重要的概念就诞生了,就是我们讲的数据湖的概念。在数据湖里面我们是把这些数据原生的格式以开源的方式存在一个数据存储的架构里,然后我们提供一些数据的抽取和目录的管理,对这些数据既能够做数据仓库的分析,也能够做机器学习预测性的分析。这就是数据湖的概念。
通俗地讲,数据湖是一个什么内容呢?我们可以这么想。传统的数据分析就像是从山上化的雪水或者从山涧的小溪流出的泉水,我们建了一些小河、建了一些小的水库,对这些数据流进行管理。但是当今的数据要求是更像天上下来的暴雨,或者山上发的山洪,就是数据量是不可测的,数据的规模时大时小,数据的复杂性也是时常变化的。所谓数据湖的概念就是我们找一片大的洼地,把所有这些数据,像洪水一样都先蓄在这个洼地里,然后我们建立一些渠道、水库、大坝,对这些数据进行处理,使得能够分流、能够用这个水来更好的发电和灌溉。
所以在这儿我们看到左边就讲了在数据湖里边的数据,无论是实时数据还是传统的一些数据,导入到数据湖里面,它可以处理来自各种各样应用的数据。然后我们对它进行数据的抽取、转变和加载,然后再进行数据的管理。同时在这个基础上做各种各样所需要的分析,无论是传统的数据仓库的分析还是大数据的分析,是运营的分析还是实时的分析,甚至是无服务器的分析。
数据湖这个概念有不同的实现的方法,在 AWS 体系之中,我们发展了一套完整的处理数据湖的从存储到加载到做这些目录管理的一套完整的工具,它的底层是 Amazon S3(Simple Storage Service)。这是 2000 年 3 月 14 号推出的第一款云存储的服务,所有的公有云里面最早的服务,它具有高可用性、持久性等等很多的特点。Amazon S3 推出以后,目前有上万亿的物件存在 S3 的存储里,在峰值可能每秒钟多达 60TB 的各种各样存取的要求。近年我们也推出了一些新的功能,比如说在刚刚过去的技术大会上推出的 S3 的多点的接入服务,叫做 S3 的 Access Points。
S3 现在更重要的作用,就是它把各种各样的数据都直接接受下来,成为一个数据湖底层最重要的存储。我们在这个图里可以看到,左边我们可以通过 Amazon Kinesis 或者通过 AWS Snowball 把数据直接加载或者转移到 Amazon S3 之上,然后用一系列的上面各种的服务对数据进行分析,我们也需要做类似像 Hadoop 的这种 MapReduce 大数据的处理,我们还需要交互式的查询、运营的分析,我们也需要数据市场、数据集市进行数据交换,对数据进行可视化的展示,我们有时候也需要对数据进行实时的分析或者利用数据做推荐或者预测。
与之相对应的,AWS 就发展了一系列的分析工具,我给大家很快的做一个介绍。
首先介绍一下 Amazon Redshift,这是在 Aurora 出现之前,作为一个云上的数据仓库,曾经是 AWS 增长非常快的服务。它是大规模并行处理 PB 级的数据,可以支持从 GB 到 TB 规模的数据,它每年每 TB 的数据仓库里面数据存储的成本大概才在 1000 美元左右,是传统的本地的数据仓库成本的 1/10。
Amazon Redshift 目前达到将近 10 万的使用的客户,这里面我们也提出了一些新的功能,比如说我们今年推出了联合查询的功能,也推出了 Lake export 功能,把里面的数据反过来输入到数据湖的功能,还推出了 S3 的实例,还推出了利用附加、加速的一些功能,等等这些新的功能。
如果你想做传统的 Hadoop 这种大数据分析,我们可以使用 Amazon 上面的云的服务,也就是我们讲的 Amazon Elastic MapReduce,它可以在云上部署集群,来运行各种各样大数据的服务。
如果我们想对日志进行运营的分析,大家可以使用 Amazon Elasticsearch Service,这是一个全托管的、可缩放的开源的 Elasticsearch 的分析服务,部署在 AWS 云上。
在刚刚过去的技术大会中,我们又推出了其中一个新的强大的功能,叫做 UltraWarm,是专门可以处理一些热数据,可以更加快速的来响应。
当然,实时数据是一个非常重要的内容,我们在很早就提供了 Amazon Kinesis,这个实时数据处理的功能,它在云上通过所谓的分片或者切片,开一组云的机器,来并行处理大数据。
两个非常重要的和数据湖相关的功能,正好也是都在今年分别在我们中国区落地的两个服务,一个是 Amazon Athena,它是一个数据交互查询的工具,可以使用标准的 SQL 语句在 Amazon S3 的数据湖上直接做 SQL 式的查询,无需基础设施和配置,也不需要专门的加载数据。这个是一个数据湖里面的非常重要的查询的功能。
另外一个是 AWS Glue,这是一个 ETL 的工具,是数据的抽取、转换、加载,同时它又是一个数据目录的服务,是一个无服务器的架构,可以实现数据的抽取、数据的建成目录,它同样也是数据湖的一个重要的工具,这个工具也在中国落地了。这样我们就有了全套数据湖的服务,当然,还有一个很重要的工具,就是把数据导入,这方面我们有一个 AWS Database Migration Service,就是数据库迁移的服务。这个服务推出以后,截止到去年我们已经有 18 万的数据仓库通过它在不同的本地迁移到云上或不同的数据库之间实现的迁移,所以这是一个很重要的工具。
数据湖需要这一系列的工具,我们已经都有了,但是整个一套数据湖的流程还是比较复杂的,我们也推出了一款专门的服务,叫做 AWS Lake Formation,是一个来自动化的移动存储和清理数据、编写数据目录,就是把数据湖的流程自动化的引导大家来做的服务,它可以帮着大家在数天之内就构建一个安全的数据湖。这个服务我们也可以期待,目前这个服务暂时还没有在中国推出,在国际上已经推出了。
在数据方面还有几个特点。一个是 AWS 很多的数据湖是托管的,是无服务器的,特别是我们有像 AWS Glue 这样的在数据里面做无服务器式的 ETL 和数据目录管理的这些服务,它们与 AWS Lambda、与 AWS Step Function 等等这些无服务器的应用都可以配合起来,我们可以完全实现一个叫做无服务器的大数据分析的架构,也能提供数据湖的分析。
另外,如果和机器学习、人工智能结合在一起,和 Amazon SageMaker 结合在一起,就可以拿这些数据来做一些前瞻性的数据分析,实现和机器学习配套的对大数据的更广泛、深入的应用,来实现预测性的分析。
所以 AWS 其实已经拥有了一套相当完整的数据分析的组件,这些组件在中国区主要的都已经落地。很多客户选择 AWS 来实现一个很好的数据的平台,能够全面、安全、经济、高效、广泛的来提供这些数据的应用,也非常的方便和实用。所以我们看到在全球有上万个数据湖都运行在 AWS 之上,在国内我们一些客户也开始使用 AWS 来建造数据湖。
举几个例子。一个是亚马逊自己,亚马逊电商 Amazon.com 在过去一两年的时间把原来 1000 多个 Amazon 团队,分别在 7500 多个 Oracle 数据库里边的 75PB 的数据都已经全部迁移到了 Amazon Aurora、Amazon RDS、Amazon DynamoDB、Amazon ElastiCache 和 Amazon Redshift 之上。通过这样的工作,我们避免了原来向 Oracle 支付高昂的 License 费用,整个使用的数据库非常陈旧,扩展也非常困难、非常昂贵,减少的数据库应用成本达到 60%,减少的数据库管理费用达到 70%,也增加了一些关键应用的性能,高达 40%。
同时,Amazon.com 还利用 AWS 的 Amazon S3、Amazon Athena、AWS Glue 和所有这些分析工具建成了一个叫做 Galaxy 的数据湖,在这个数据湖里面,我们刚开始导入了大概 50PB 的数据,随着时间这个数据不断在增长,很快会涨到 100PB。每天在这个数据湖上,我们可以进行多达 60 万个各种各样的数据的分析。这些数据分析当然很好的帮助亚马逊来快速的决策、从数据中获取很好的价值。
在中国我们也给大家介绍两个非常好的案例,一个是南京的芝麻信息科技有限公司,是国内非常著名的大数据服务公司。它把一些大数据分析部署在 AWS 的云上,使用了 Amazon Aurora,在数据分析里面缩减了人员、节省了 60% 的人力成本,在集群管理上也得到了很好的效能。
另外一个是 Club Factory 嘉云数据,这是在浙江杭州建立的非常独特的新型的电子商务的商店平台,它使用了 AWS 数据湖的架构,来处理每日多达 15 亿条行为日志,通过这些来支撑了 180 个各种各样的数据分析和调度,然后把其中四千多条业务数据同步到 Amazon Redshift 之中,支撑的数据量已经达到 600TB。这些帮着它很有效的推进了非常独特的电商的业务模式。
这是我跟大家讲的今天的第一个重要的内容。我们 AWS 现在已经提供了全方位的从数据库到数据湖到基于数据湖的分析的内容,很多朋友可能听说过国内有一些企业在谈数据中台建设,数据中台是一个在互联网企业里边相对于前台和后台希望数据打通的做法,在这儿我想跟大家说一下,使用 AWS 的全方位的这套数据服务,完全可以以最现代的数据架构实现企业的数据平台,既来支持企业的数据应用,也来支持企业所有数据分析的要求。
第二主题是人工智能与机器学习。这是支持企业数字化转型的另一个非常重要的内容。
在过去这几年,随着人工智能的领域,就是机器学习,特别是这里面的子领域叫做深度学习,基于深层的神经网络的一套机器学习的模型算法、计算方式、数据量的演进,机器学习这个领域取得了很大的进展。在最近我们看到大家对机器学习有很大的期待,无论是这里面列的各种各样的应用还是一些行业,从零售到油气的开采,从自动驾驶到欺诈的侦测,在很多方面,特别是疫情期间我们可能也已经看到了,在医疗保健、在线教育、其他的一些领域,人工智能和机器学习都展现出了很大的潜力。
亚马逊是在机器学习方面有很长时间的积累,我们自从成立以来,大概有 25 年,就在广泛的利用各种各样机器学习的方法做网上的推荐、做产品的关联等等这些内容。其实亚马逊有数千名工程师或者是数据科学家在使用机器学习的方法。我们也非常愿意把这些方法分享给更多的我们的用户,所以我们提出一个口号:我们希望把机器学习的能力交到每一位构建者的手中。为什么要选择 AWS 的机器学习呢?因为我们提供了一个广泛深入的人工智能、机器学习的服务,其中有一个很关键的机器学习的产品叫做 Amazon SageMaker,我们又可以利用各种各样的在云上的这些服务,整个的构建成一个一体化的,比如我们刚才讲的大数据的应用这些服务和机器学习的服务都可以很好的整合在一起的做机器学习的平台。
我想跟大家介绍一下,其实在全球范围内,有上万个客户都在 AWS 上运行各种各样机器学习的负载,我也发现比如 Tensorflow,大概有 86% 的 Tensorflow 的负载都是跑在 AWS 云上。据我们统计,在 AWS 上运行机器学习负载的客户量至少高于其他云运营商的两倍。
亚马逊 AWS 的机器学习服务,我在这儿给大家做一个快速的介绍。亚马逊 AWS 的机器学习服务分为三个层次。
底下层,是机器学习的框架和基础设施。在机器学习框架方面,AWS 支持各种主流的机器学习基础框架和标准接口,比如 TensorFlow、PyTorch、Apache MXNet、Chainer、Gluon、Horovod、Keras 等;也支持 AWS Glue、Amazon Kinesis 这种机器学习数据库或者数据接口等。基础设施方面,AWS 提供各种各样机器学习的虚机、实例和镜像,提供 GPU 的计算实例 Amazon EC2 G4,也提供 Amazon EC2 P3 这样专门做并行计算、适合机器学习的实例类型,还推出了 Amazon Elastic Inference,在 Amazon EC2 上动态地挂一个专门的 GPU,然后自动缩放,以比较低的成本来做机器学习推理工作。AWS 还推出了基于自家创新芯片的 AWS Inferentia 的 Amazon EC2 Inf1 实例,专门用于机器学习推理。
中层是 Amazon SageMaker。Amazon SageMaker 是一项完全托管的服务,可以帮助开发者和数据科学家快速构建、训练和部署机器学习模型。SageMaker 消除了机器学习过程中的繁重工作,让开发高质量模型变得更加轻松。Amazon SageMaker 为开发者提供了弹性笔记本、实验管理、自动模型创建、模型调试分析,以及模型概念漂移检测等强大功能,并将这些功能封装在首个面向机器学习的集成开发环境 (IDE) Amazon SageMaker Studio 中。
在上层,AWS 提供了比较现成的人工智能服务,如 Amazon Rekognition 图像识别服务,Amazon Polly 文字转语音、Amazon Transcribe 语音转文字这样的语言服务。Polly、Transcribe 在中国已经向用户提供。另外有语言理解、语言翻译、语义识别和读取这些文字处理服务。这次还新推出了在企业内部做全局搜索的 Amazon Kendra 搜索服务。
在过去两年,AWS 也基于 Amazon.com 使用的一些人工智能和机器学习技术,推出了个性化推荐服务 Amazon Personalize、欺诈侦测服务 Amazon Fraud Detector,预测服务 Amazon Forecast。AWS 还有用于做代码审核和分析服务 Amazon CodeGuru,它采用机器学习来做代码分析,找出代码里占用资源多、开销最大的部分。Amazon Connect Contact Lens 服务用机器学习的方法分析客服中心中客户的情绪。AWS 还有人机对话服务 Amazon Lex,它是 Amazon Echo 智能语音音箱背后的技术。
目前为止有上万用户在使用亚马逊的 SageMaker,在国内也有不少企业都在使用 SageMaker。这里面有各种各样的企业,在中国也有很好的机器学习的客户,比如虎牙直播,还有一些做自动驾驶的等等。我给大家介绍其中一家公司,叫做大宇无限,它是一家创业公司,主要是在一些新兴市场做移动短视频的服务,它使用 Amazon SageMaker 在短短不到半年时间,没有通过基础设施的感到就准备数据开发出了一套短视频的推荐系统,取得了非常好的效果。
大家知道在短视频领域一个视频之间的关联和推荐,是一个非常重要的功能。最近的短视频的一些提供者,通过推荐的功能取得了非常好的进展。
我给大家总结一下。从 AWS 机器学习方面,我们也提供了一个叫做全栈的服务,特别是 SageMaker 和 Studio,它的逐渐提出和完善,使得我们在客户机器学习、人工智能的下一步的发展过程中给大家一个非常好的工具。
至此,我们把今天的主题演讲的主要内容 AWS 云计算是怎么支持数据湖、数据分析、人工智能、机器学习就跟大家介绍完了,大家应该得到一个比较全方位的印象,其实 AWS 在任何一个方面,计算所需要的这些主要内容方面都可以提供得非常全面、深入的云计算的服务。
剩下的时间我为大家非常快的介绍几个其他的相关的内容。
在计算方面,我们知道 AWS 提供 200 多类 Amazon EC2 的虚机实例的内容,同时我们也提供无服务器的 AWS Lambda、AWS Step Functions 这些无服务器的服务。在容器方面我们提供三大类服务,主要是目前在中国我们已经能够提供 Amazon ECS 和 Amazon EKS,后者是使用 Kubernetes K8S 的云上托管的部署 Kubernetes 的服务。还有 AWS Fargate,是使用无服务器的方法,大规模运行容器的服务。
另外,我想跟大家最后再总结一下,继前年在 AWS 中国(宁夏)区域推出 Amazon Aurora 之后,我们今年在 AWS 中国 (北京) 区域也正式推出了 Amazon Aurora 云数据库服务,我们也推出了 AWS Gule 和 Amazon Athena 这两个数据湖的关键的应用。至此,我们中国区域可以为客户提供全套的数据湖服务。在容器方面,我们推出了 Amazon EKS 和 AWS Fargate 服务。
今天我也格外荣幸的获得了特别授权,向大家隆重介绍一下,我们很快将正式在中国区域推出 Amazon SageMaker 和 Amazon SageMaker Studio 的人工智能、机器学习最中间平台的非常关键的服务,目前这个服务可进行有限预览。如果朋友们感兴趣,可以联系我们的客户经理,了解有关服务的试用的情况。
最后我想跟大家分享两个事情。一个是在今年 1 月份我们在中国推出了 AWS Marketplace 的一个新的网站(https://awsmarketplace.amazonaws.cn/),正式推出了整个 Marketplace 的服务,客户在上面可以轻松查找、测试、部署、管理,由我们的合作伙伴提供的多种多样的云产品和云应用。
另外,欢迎大家注册 AWS 中国网站,试用由 AWS 中国(宁夏)区域提供的 12 个月的免费云服务套餐。当然也欢迎大家继续试用 AWS 海外区域提供的免费套餐的服务。
剩下的时间欢迎大家继续收看我们 7 个分会场的 28 场专题的演讲。今天我就讲到这里,谢谢大家对于云的持续的关注,希望云能帮助你在数字化转型的过程中为您和您的企业插上翅膀。谢谢大家!