1.3 云网络让“算力共享”成为现实
正如前所述,网络的变革带动了整个产业的巨变。为了更好地理解网络所孕育的能力,本节从技术角度阐述,随着算力、存储介质、终端的变化,为传递数据而生的网络连接方式的变化。
1.3.1 多租户网络带来低成本计算力
CPU 是信息时代算力的基础,从1971 年Intel 推出第一款处理器到2006 年的30 多年间,一直沿着摩尔定律前行——集成电路上可以容纳的晶体管数目大约每经过18 个月便会增加1 倍, 晶体管密度和主频处理器提高的性能每隔两年翻1 倍。当Intel 的CPU 主频在2004 年达到3.8GHz 以后,由于散热瓶颈,十几年来就止步不前。提升处理器性能的解决之道在于架构优化,特别在采用多核处理器之后,应用软件不能再使用单体进程依赖CPU 主频来提升性能,而是使用计算虚拟化技术,因此在服务器变成了多个虚拟机后,我们就通过在物理服务器中虚拟化交换机来实现连接。第一个网络虚拟化设备——虚拟交换机诞生了。
随着大数据、人工智能技术的发展,新的芯片产品,比如GPU 和具备可编程能力的FPGA 承担了更多的计算任务。虚拟交换机的发展也从10Gbit/s 服务器时代的内核态交换,发展到25Gbit/s 网卡时代的用户态交换;到100Gbit/s 服务器和异构计算时代,则需要采用网卡硬件卸载以提升交换转发性能。高性能的虚拟交换机使得多个租户或应用共享服务器资源成为可能,降低了获取算力的成本。
虚拟交换机的诞生支撑了计算虚拟化,此时数据中心的整个网络还是被多个应用和租户共享的,这对专有云来说问题不大,但对公共云来说就存在不同租户间相互攻击的风险。下一个任务是把数据中心内的路由器、防火墙虚拟化,让企业都可以有自己的VPC(虚拟专有云)。在公共云上,大家发现VPC 是免费的,不需要购买交换机、路由器、防火墙就可以在几分钟内完成云数据中心的搭建。为了支持更多的客户使用,云计算提供的转发性能要远远超过各个企业自建性能的规格,使得企业可以非常低的成本获得更高性能的转发。
1.3.2 云网络是云计算弹性的基石
云计算的弹性有几个层面的含义:一是底层资源可以按需无限制地获取;二是要求云提供的各种服务,如OSS、RDS 等,随着资源的增加,性能也是线性提升的; 三是客户自身的业务处理能力在对外接口不变的情况下,也能线性提升。移动互联网时代,用户行为的不可预知,如明星的八卦新闻、双11 的电商抢购、春节几十亿人次购买火车票等,要求应用必须具备弹性能力。
这种弹性能力要求网络在几个关键节点上的性能是可以灵活增加的:首先是对外提供服务的单个IP 地址的带宽和安全防护能力;其次是负载均衡可弹性扩展能力, 将突发的新增请求分发到成千上万个后端并行处理;最后是后端并行计算的节点需要在不同服务器间进行信息的交换和协同,应用不再关心主机的部署,虚拟路由器为东西向流量提供线性的路由功能。
1.3.3 云网络连接让算力无处不在
云网络对连接不同数据中心的核心路由器进行虚拟化,应用可以跨多个城市进行数据备份、多活部署。例如,在金融行业的两地三中心高可靠场景中,企业不再租用昂贵的长途专线,十几分钟就可以建成底层高可靠的连接环境。对于游戏、直播等时延高度敏感的业务,企业可以服务端就近部署,通过云上数据中心互联能力进行数据同步。
对于需要边缘节点本地处理的业务,如视频缓存,云网络连接到边缘计算节点, 可支持云、边协同。对于需要全球服务的应用,如各种旅游生活类应用,可以利用边缘节点进行访问加速。
云网络还通过SD-WAN 技术将网络虚拟延伸到终端设备,通过虚拟化技术保障了企业数据的安全性和可靠性,让企业快速实现总部、分支、移动办公到云计算的无缝连接。
对于各种IoT 智能终端设备来说,开放公网很容易受到安全攻击,云网络提供的虚拟连接能力,将安全防护能力集中在云上进行部署。云上的IoT 服务器也可以通过内网对各种终端进行巡检。