DockOne微信分享(六十五):公有云上的容器实践分享

简介: 本文讲的是DockOne微信分享(六十五):公有云上的容器实践分享【编者的话】本次分享介绍普元基于微服务架构,在公有云上的一次容器实践,包括如何选型,做了哪些技术验证,遇到了哪些问题,如何解决的。分享中还包括对于云平台本身高可靠、高性能、持续发布、服务注册发现等方面的设计方案,以及后续的发展愿景及规划,旨在与大家探讨一些关于Docker、Kubernetes、CoreOS、Hystrix等具体技术的实践经验,同时希望大家能给我们的平台设计提供更好的建议。
本文讲的是DockOne微信分享(六十五):公有云上的容器实践分享【编者的话】本次分享介绍普元基于微服务架构,在公有云上的一次容器实践,包括如何选型,做了哪些技术验证,遇到了哪些问题,如何解决的。分享中还包括对于云平台本身高可靠、高性能、持续发布、服务注册发现等方面的设计方案,以及后续的发展愿景及规划,旨在与大家探讨一些关于Docker、Kubernetes、CoreOS、Hystrix等具体技术的实践经验,同时希望大家能给我们的平台设计提供更好的建议。
幻灯片01.jpg

大家好,我是普元软件的顾伟,很高兴有机会与各位分享我们在云上的容器实践。

因为我们是从DevOps开始做起的,所以分享里会有DevOps的一些影子,大家自动过滤就好,不是今天的重点。
幻灯片02.jpg

主要分了四个部分和大家讨论:
  • 首先我们最终选择了阿里云,为什么是阿里云;
  • 接着是今天的核心部分,包括我们使用了什么技术,做了哪些关键设计;
  • 在公有云上用Docker不像私有云那样,很多问题需要自行解决甚至绕着解决;
  • 最后是总结以及目前我们平台的一个概览。

幻灯片03.jpg

选择阿里云从两方面来看,第一是我们用了多年,从体验上来评价,阿里云的几个主打服务(ECS、RDS、OSS、ODPS等)还是很不错的。
幻灯片04.jpg

第二个方面考虑的是匹配度的问题,其实做容器,最合适公有云上莫过于AWS和Azure,但由于国外厂商的原因,比如AWS在国内至今没有备案机房(北京那个一直被说是非法营运…);

而在国内,公有云是有不少,甚至还有不少本身就是容器方向的,但既然我们有自己的方向,那肯定要自己做才行,最好选一个有保证的,BAT绝对是首选。
幻灯片05.jpg

那做容器,自然又有很多技术栈可选,所以说,以前架构师在做加法(产品集成),现在架构师是在做减法(从开源中选最合适的),我们定了三个原则:
  • 我们其实是公有云和私有云一起做的,用两套完全不一样的技术栈对我们来说显然成本太高,所有一致性很重要;
  • 我们是面向企业市场的,就目前的市场来看,VM模式仍是主流,何况我们还有传统IaaS产品(基于OpenStack的),所以还是要有一套兼顾容器与VM的模型;
  • 大家肯定都用了不少开源软件,最头疼的就是出了问题解决不了,比如以前用InfluxDB时,内存一大动不动就宕了,只能到处找方法,自己cover不住,所以如果决定用某项技术,一定要深入进去,跟社区,自己编译调整,有问题自己能处理。

幻灯片06.jpg

在容器上我们看了很多技术栈,比如宿主机是用CentOS还是CoreOS还是Ubuntu还是其他,是否需要肉机模式,调度层用Kubernetes还是Mesos,容器是用rkt还是Docker,网络是平铺还是子网,用Flannel还是OVS,有或者用Pipeworks呢?

验证了很多,发现一个问题,貌似哪个技术对我们来说都可以,为什么?原因很简单,缺了DDD的理念,只从技术看,缺乏场景驱动;当然验证了很多是很有用的,至少我们有了一些数据,有了一定的技术积累,为后续选型提供了更充分的依据。

所以我们从设计开始着手,做了以下几件事:
幻灯片07.jpg

  • 首先是概念模型,熟悉Borg或Kubernetes的同学或多或少能看出来这张图的理念,我们其实用的就是Kubernetes;
  • 自底向上来看,底层是资源池,提供不同SLA的资源能力,紧接着是Namespace,这个是个可选的实体概念,可用于做租户隔离(当然下层也可以做,只是为了更进一步考虑,可以做逻辑隔离);
  • 在业务运行的概念中,四个实体都很关键,一般来说一个Process是一个原子能力,它有可以依赖其他的原子能力,多个能力汇聚在一起时,形成了Pod(也就是说Pod里是一组相关的能力);
  • 以一组相关的能力组成的业务为单位,这种业务可以支持多副本(或者叫集群),也就是图上的Replication,和传统的集群不一样的在于有多种模式,比如双主、主备等等;
  • 最终这些业务集群以一个统一的服务(Service)提供对外能力,下层集群实例的任何变更(如漂移、伸缩等),都不会影响service的属性,这样就做到了对上游服务的友好性;
  • 对于产品定义的模型,不是今天的重点,就先不提了。

幻灯片08.jpg

那无论在容器还是VM模式下,可参考的部署架构就如上图所示,这里面有三个关键:
  • 网络,宿主机(ComputeNode)有自身的IP段,容器(p1、p2...)在自身的逻辑网里,而Service是虚IP;
  • 副本,通过状态维护,发现数量的变更,调度下一步动作;
  • 存储,对于有状态和无状态的服务,可选用不同方案,比如有状态可使用NFS、GlusterFS这些共享存储,而无状态的可用ISCSI这些非共享存储方案。

幻灯片09.jpg

容器之间的调用我们使用了Flannel方案,这样就有了上述的4点,大家可以自行细看一下,倒没有太多特别的。
幻灯片10.jpg

那对于容器间除了互通,还要有隔离能力,可通过宿主机、Namespace、逻辑子网、iptables等做不同的一些场景,针对不同场景完成隔离需求,Kubernetes最新版本还在做更细粒度的隔离,这个大家可以关注一下。
幻灯片11.jpg

在微服务场景下,升级、回退,包括灰度这些能力要求越来越高,目前我们是以镜像版本作为原子粒度的,有几个注意点大家在设计时要注意下:
  • 原子化,制定最小粒度的可操作单元;
  • 标签设计,现在很多云服务商都提供这个能力,以AWS为代表,对外提供了自定义管理维度的途径,对内也通过标签能力给了批量、滚动升级回退的便捷;
  • 状态,部署虽然是原子化的,当过程状态是有变更的,原子部署过程中亦可做到挂起和唤醒 版本规范,这个是升级回退的重要点;
  • 路由,这个在金丝雀、灰度上尤为重要,目前我们采用了OpenResty,热更新路由策略,有一些小问题,后续有机会可细聊。

幻灯片12.jpg

说实话,伸缩其实并没有外界传的那么神乎其神(至少我了解的现在就算是顶尖互联网公司都是事先预置和规划为主),有时候我甚至没觉得他有多重要,除非说在伸缩过程中,可以临时利用废弃机器,或者省下的机器可以真正关掉(比如省电)这些大规模场景下,我才觉得有点意义,可能我们做的比较小,或者企业都希望前期有规划可预期的原因吧。

而漂移反而是有实际作用的,比如合理的漂移可以减少网络链路,可以将不同需求的能力分到不同能力的资源上(优化),就拿优化来举例,目前我们做的比较简单,先查出符合要求的,再找更优的。

原则其实很简单,就是策略与权重的定义选择。
幻灯片13.jpg

对于容器里跑的服务,由于现在的服务都拆的细,自然就多了,多了就有很多问题,比如监控,比如安全,这里我拿服务熔断与降级举例,当然这两个概念还不太一样(熔断是像股市那样,下游服务有问题了,通过熔断保证自身的可用性,而降级一般是现有资源瓶颈的情况下,优先保证核心服务,一般的服务直接降级处理):

设计时主要保持了三态,正常情况下,熔断器是关着的,下游出问题后,进入半开状态(所谓半开就是允许一部分流量继续去探测下游的健康型),再接着探测的那部分流量还是不行,就直接全开熔断器,否则也许好了,又可以关掉熔断器了。

当然,这里面还有很多指标要结合,比如MTTR,推荐大家关注Hystrix框架,个人感觉比Motan等要考虑的全很多。
幻灯片14.jpg

接着我们来说说过程中遇到的一些问题吧,之前也提过了,用公有云少不了要“受制于人”,不过这也是合理的。

比如我们用了CoreOS,几个月之前只有北京数据中心有,版本低,好不容易升上去了(记得要自己搭建升级服务器,这块要是大家有兴趣,可以下次交流),发现快照打不了,阿里云客服说是不支持升级(CoreOS不支持无缝升级,还有谁用CoreOS?),其实最终原因也蛮扯,有一个yunservice(姑且认为是阿里云的后门吧)搞的,大家不要看着没用就想关掉,我们就是工程师为了缩减和加固时弄出问题来了....

再比如我们用了VPC服务,因为EIP受限,导致service的public IP不够的问题,当然这个只能再省着点规划了......
幻灯片15.jpg

这个时候还遇到了其他的问题,吐槽一下:尤其第一条,ACE下线,虽说和本次版本关联性不大,这是我13年在阿里云整整一年合作的基础产品,让我对阿里云的服务说下就下这种做法有点无语,所以后面调整了策略,只有阿里云的ECS、VPC,其他如OSS、RDS、MetaQ一概不用了,自己来弄。
幻灯片16.jpg

一个很关键的节点,万幸的是:最终我们还是跑起来了,几个关键步骤:
  • 系统升级,升级到991.0.0,这里面其他还好,关键是升级后重启时,网络起不来,只能手工先干了,谁让不支持自定义镜像呢,或者插入些前后脚本也好;
  • 外挂盘,这个倒还好,主要就是挂载+格式化,我们使用了高效云盘;
  • Kubernetes安装,一般来说有三种方式,命令型、服务型、容器型,在阿里云上想用容器型,还是要花很多功夫的,这个不细说问题了,最终我们用了前两种混合;
  • 安装完成后,少不了环境验证,尤其网络,毕竟不清楚阿里云底层网络结构,用了setup-network-enviroment辅助,还好没遇到大问题,容器间网络很快通了。

幻灯片17.jpg

当然,有些坑填了,有些坑绕了,我们也丧失了一些好的特性:比如用过AWS容器技术的同学应该清楚,Kubernetes和AWS的配合,和GCE一样天衣无缝,但是在阿里云上像DNS这些好特性可能就有些受限,还有数据库,虽然用容器跑了主主的MySQL,但我们做的离RDS还是有不少差距的。
幻灯片18.jpg

还有一些经验不足或时间不够导致的问题:
  • 比如说网络用了Flannel,这个组件的性能还有一定问题,还没有优化到最好;
  • 再比如我们使用了CPU超配,如果阿里云本身虚拟化层也用了,那可能就会有问题了。

幻灯片19.jpg

今天的分享主要集中在Kubernetes这块了,其实我们还有很多技术栈的使用,比如Spring Boot、Ceph、ES、InfluxData、Swagger这些,下次有机会再聊,因为我们做的是DevOps,所以往上延伸的会多一些。
幻灯片20.jpg

这是现有平台架构如上图,大家参考即可,主要是围绕devops,元数据驱动、运营与遥测等设计的,可以简单浏览一下平台的截图:
幻灯片21.jpg

幻灯片22.jpg

幻灯片23.jpg

幻灯片24.jpg

当然还有很多缺失的工作,后续需要补充和演进:
  • 自动化能力还需提升,平台开发平台自身还没有完全做到,服务也不够丰富,还有要和阿里云再谈一谈(就是那些我们绕不过去的坑);
  • 监控和安全还要补一补,包括Metrics、log等,这期主做的是基于cAdvisor的容器监控和日志收集;
  • 客户个性化,现在的租户,在公有云上目前所拥有能力是一样的,还需更好的配置个性化,C2M。

没有一家能够解决所有问题,也希望有更多的合作商一起建立生态,共同提升云计算上下游能力。

Q&A

Q:请问你们是生产环境么,应用代码放容器里还是挂卷,镜像权限如何控制(比如测试和生产),代码测试后,上生产配置自动还是手动修改还是有配置中心呢?
A:您指的是源码还是编译后的产物,我们是编译后的产物是镜像,容器直接运行,测试和生产是隔离的,相当于我们管理了四套环境(开发、测试、预发、生产),介质是通过跳板机同步的,有统一的SCM做不同环境的配管。
Q:Kubernetes Master的高可用你们是怎么做的?
A:Master我觉得没必要做,宕了重启就行,没有损失,我们就是这么做的,只要保证etcd等高可用就行。
Q:从集群外部对Kubernetes的Service的访问是如何实现的?比如公网IP是怎么绑定给Service的?
A:Kubernetes发布成Service,是可以给定publicip的,这个时候你可以用公网IP作为网络池,内部有一层端口映射。
Q:Kubernetes现在自己还缺少可视化编排能力,那个UI也是以监控为主,你们实际使用中对Kubernetes可视化编排需求多吗,如果多的话目前怎么解决 ?
A:我们自己做了部分编排,编排不一定非得是图形化的,我们以表单为主,主要用于部署编排。
Q:阿里云上的容器能提供负载均衡嘛比如我有个宿主机挂了?
A:这个不是阿里云做,而是Kubernetes做的,Kubernetes有Replication的能力。
Q:这几天遇到个需求,用户想要通过VNC进入容器里安装他的应用,请问你们碰见过吗,网络方面怎么解决呢,需要将用户使用的容器配置上外网的IP,我们也用Flannel,但Flannel似乎不行吧?
A:这不是个好方式,这是把容器当虚机用,如果真要这么做,那Flannel就不要用了,直接端口映射或者Pipework,但真不建议,会丧失容器的好特性。

以上内容根据2016年6月28日晚微信群分享内容整理。分享人顾伟,毕业于东南大学,10年工作经验,现任普元公司主任架构师;先后参与和带领了华为BME,中信银行CBJUP,工商银行CTP,中航信RI,阿里云ACE,普元云计算平台,普元The Platform等大型项目的交付;长期致力于IT技术研究、产品设计、架构咨询等工作,擅长Web、OSGI、CI/CD、服务治理、云计算等领域技术,对DevOps、自动化运维、微服务架构有着浓厚的兴趣。 DockOne每周都会组织定向的技术分享,欢迎感兴趣的同学加微信:liyingjiesz,进群参与,您有想听的话题或者想分享的话题都可以给我们留言。

原文发布时间为:2016-06-28

本文作者:顾伟

本文来自云栖社区合作伙伴Dockerone.io,了解相关信息可以关注Dockerone.io。

原文标题:DockOne微信分享(六十五):公有云上的容器实践分享

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。     相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
9月前
|
Cloud Native 中间件 调度
云原生信息提取系统:容器化流程与CI/CD集成实践
本文介绍如何通过工程化手段解决数据提取任务中的稳定性与部署难题。结合 Scrapy、Docker、代理中间件与 CI/CD 工具,构建可自动运行、持续迭代的云原生信息提取系统,实现结构化数据采集与标准化交付。
749 1
云原生信息提取系统:容器化流程与CI/CD集成实践
|
10月前
|
存储 缓存 运维
微信读书十周年,后台架构的技术演进和实践总结
微信读书经过了多年的发展,赢得了良好的用户口碑,后台系统的服务质量直接影响着用户的体验。团队多年来始终保持着“小而美”的基因,快速试错与迭代成为常态。后台团队在日常业务开发的同时,需要主动寻求更多架构上的突破,提升后台服务的可用性、扩展性,以不断适应业务与团队的变化。
388 0
|
Ubuntu 关系型数据库 MySQL
容器技术实践:在Ubuntu上使用Docker安装MySQL的步骤。
通过以上的操作,你已经步入了Docker和MySQL的世界,享受了容器技术给你带来的便利。这个旅程中你可能会遇到各种挑战,但是只要你沿着我们划定的路线行进,你就一定可以达到目的地。这就是Ubuntu、Docker和MySQL的灵魂所在,它们为你开辟了一条通往新探索的道路,带你亲身感受到了技术的力量。欢迎在Ubuntu的广阔大海中探索,用Docker技术引领你的航行,随时准备感受新技术带来的震撼和乐趣。
475 16
|
小程序 关系型数据库 Java
weixin168“返家乡”高校暑期社会实践微信小程序设计与开发ssm(文档+源码)_kaic
本文探讨高校暑期社会实践微信小程序的开发与应用,旨在通过信息化手段提升活动管理效率。借助微信小程序技术、SSM框架及MySQL数据库,实现信息共享、流程规范和操作便捷。系统涵盖需求分析、可行性研究、设计实现等环节,确保技术可行、操作简便且经济合理。最终,该小程序可优化活动发布、学生信息管理和心得交流等功能,降低管理成本并提高工作效率。
|
SQL 算法 API
微信基于 StarRocks 的实时因果推断实践
本文介绍了因果推断在业务中的应用,详细阐述了基于 StarRocks 构建因果推断分析工具的技术方案,通过高效算子的支持,大幅提升了计算效率。例如,t 检验在 6亿行数据上的执行时间仅需 1 秒。StarRocks 还实现了实时数据整合,支持多种数据源(如 Iceberg 和 Hive)的无缝访问,进一步增强了平台的灵活性与应用价值。
|
监控 Kubernetes Cloud Native
基于阿里云容器服务Kubernetes版(ACK)的微服务架构设计与实践
本文介绍了如何基于阿里云容器服务Kubernetes版(ACK)设计和实现微服务架构。首先概述了微服务架构的优势与挑战,如模块化、可扩展性及技术多样性。接着详细描述了ACK的核心功能,包括集群管理、应用管理、网络与安全、监控与日志等。在设计基于ACK的微服务架构时,需考虑服务拆分、通信、发现与负载均衡、配置管理、监控与日志以及CI/CD等方面。通过一个电商应用案例,展示了用户服务、商品服务、订单服务和支付服务的具体部署步骤。最后总结了ACK为微服务架构提供的强大支持,帮助应对各种挑战,构建高效可靠的云原生应用。
|
存储 缓存 关系型数据库
社交软件红包技术解密(六):微信红包系统的存储层架构演进实践
微信红包本质是小额资金在用户帐户流转,有发、抢、拆三大步骤。在这个过程中对事务有高要求,所以订单最终要基于传统的RDBMS,这方面是它的强项,最终订单的存储使用互联网行业最通用的MySQL数据库。支持事务、成熟稳定,我们的团队在MySQL上有长期技术积累。但是传统数据库的扩展性有局限,需要通过架构解决。
468 18
|
人工智能 运维 监控
阿里云ACK容器服务生产级可观测体系建设实践
本文整理自2024云栖大会冯诗淳(花名:行疾)的演讲,介绍了阿里云容器服务团队在生产级可观测体系建设方面的实践。冯诗淳详细阐述了容器化架构带来的挑战及解决方案,强调了可观测性对于构建稳健运维体系的重要性。文中提到,阿里云作为亚洲唯一蝉联全球领导者的容器管理平台,其可观测能力在多项关键评测中表现优异,支持AI、容器网络、存储等多个场景的高级容器可观测能力。此外,还介绍了阿里云容器服务在多云管理、成本优化等方面的最新进展,以及即将推出的ACK AI助手2.0,旨在通过智能引擎和专家诊断经验,简化异常数据查找,缩短故障响应时间。
阿里云ACK容器服务生产级可观测体系建设实践
|
存储 人工智能 调度
容器服务:智算时代云原生操作系统及月之暗面Kimi、深势科技实践分享
容器技术已经发展成为云计算操作系统的关键组成部分,向下高效调度多样化异构算力,向上提供统一编程接口,支持多样化工作负载。阿里云容器服务在2024年巴黎奥运会中提供了稳定高效的云上支持,实现了子弹时间特效等创新应用。此外,容器技术还带来了弹性、普惠的计算能力升级,如每分钟创建1万Pod和秒级CPU资源热变配,以及针对大数据与AI应用的弹性临时盘和跨可用区云盘等高性能存储解决方案。智能运维方面,推出了即时弹性节点池、智能应用弹性策略和可信赖集群托管运维等功能,进一步简化了集群管理和优化了资源利用率。
|
监控 Cloud Native Java
基于阿里云容器服务(ACK)的微服务架构设计与实践
本文介绍如何利用阿里云容器服务Kubernetes版(ACK)构建高可用、可扩展的微服务架构。通过电商平台案例,展示基于Java(Spring Boot)、Docker、Nacos等技术的开发、容器化、部署流程,涵盖服务注册、API网关、监控日志及性能优化实践,帮助企业实现云原生转型。