云原生之容器编排实践-以k8s的Service方式暴露SpringBoot服务

简介: 云原生之容器编排实践-以k8s的Service方式暴露SpringBoot服务

8MQ%5[XONO$6[}FB3RUQOMA.png


背景


上一篇文章云原生之容器编排实践-SpringBoot应用以Deployment方式部署到minikube以及弹性伸缩中,我们通过 Deployment 完成了将 SpringBoot 应用部署到 minikube 并测试了其弹性伸缩的丝滑体验。但是 Deployment 部署后我们还面临以下问题:


  • 访问时需要先进行端口转发
  • 每次只能访问一个Pod,不支持负载均衡将请求路由至不同的Pod
  • Pod重新创建后IP地址与名称均发生变化,显然这在实际生产环境下是无法容忍的

这次我们使用 KubernetesService 来解决上述问题, Service 为我们带来了以下特性:


  • Service通过Label标签选择器关联对应的Pod
  • Service生命周期不跟Pod绑定,不会因为Pod重新创建改变IP
  • 提供了负载均衡功能,自动转发流量到不同Pod
  • 集群内部可通过服务名字访问(ClusterIP)
  • 可对集群外部提供访问端口(NodePort)

今天我们体验下两种类型的 Service :分别为 ClusterIPNodePort

创建服务最简单的 方式是通过 kubectl expose 命令,结合标签选择器来创建服务资源,实现通过单个 IP 和端口来访问所有的 Pod 。与 Deployment 一样,我们同样可以通过 YAML 描述文件调用 Kubernetes  API 服务来创建 Service


ClusterIP


ClusterIP 类型的 Service 只能在集群内部可以被访问。可以通过端口转发的方式可以在外面访问到集群里的服务。

H4KB)}M``$N[XFIQTS6}442.png

YAML


重点关注类型 kind: Service ,以及选择器 selector.app: cloud-native

[root@k8s0 service]# vi cloud-native-service.yaml 
apiVersion: v1
kind: Service
metadata:
  name: cloud-native-svc
spec:
  # 用来查找关联的Pod,所有标签都匹配才行
  selector:
    app: cloud-native
  # 默认 ClusterIP 集群内可访问
  type: ClusterIP
  ports:
    - port: 8080
      targetPort: 8080
# 应用配置
[root@k8s0 service]# kubectl apply -f cloud-native-service.yaml 
service/cloud-native-svc created

获取服务


service 可以简写为 svc

Note: 关于简写,在 Kubernetes 中通常会用到以下简写。


namespaces ns
nodes no
pods po
services svc
deployments deploy
replicationcontrollers rc
replicasets rs
configmaps cm
endpoints ep
events ev
cronjobs cj
persistentvolumeclaims pvc
persistentvolumes pv


[root@k8s0 service]# kubectl get service
NAME               TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)          AGE
cloud-native-svc   ClusterIP   10.105.254.130   <none>        8080/TCP         9s
hello-minikube     NodePort    10.107.201.188   <none>        8080:31061/TCP   35d
kubernetes         ClusterIP   10.96.0.1        <none>        443/TCP          35d
[root@k8s0 service]# kubectl get svc
NAME               TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)          AGE
cloud-native-svc   ClusterIP   10.105.254.130   <none>        8080/TCP         43s
hello-minikube     NodePort    10.107.201.188   <none>        8080:31061/TCP   35d
kubernetes         ClusterIP   10.96.0.1        <none>        443/TCP          35d

Service 服务的默认类型是 ClusterIP ,只能在集群内部访问。


可以进入 Pod 内访问或者通过端口转发,并且可以通过服务名称或者IP来访问。我的镜像内部没有 curl 命令(那么问题来了,镜像里面没有curl命令,怎么破?),就不测试了。


转发端口


[root@k8s0 service]# kubectl port-forward service/cloud-native-svc 8000:8080
Forwarding from 127.0.0.1:8000 -> 8080
Forwarding from [::1]:8000 -> 8080
Handling connection for 8000

测试接口


完成端口测试后,新开一个 Tab ,使用 Curl 进行接口测试。


[root@k8s0 ~]# curl http://localhost:8000/hi
Hi 127.0.0.1, I am 172.17.0.6

NodePort


使用 NodePort 类型的 Service ,可以做到直接将集群服务暴露出来。

}FG@IX(L%S[7${N)_PGTV@G.png

YAML


重点关注类型 spec.type: NodePort ,以及节点端口 spec.ports.nodePort: 30000


[root@k8s0 service]# vi cloud-native-service.yaml 
apiVersion: v1
kind: Service
metadata:
  name: cloud-native-svc
spec:
  # 用来查找关联的Pod,所有标签都匹配才行
  selector:
    app: cloud-native
  # NodePort节点可访问
  type: NodePort
  ports: 
    - port: 8080 # 本Service端口
      targetPort: 8080 # 容器端口
      nodePort: 30000   # 节点端口,范围固定30000 ~ 32767
# 应用配置
[root@k8s0 service]# kubectl apply -f cloud-native-service-nodeport.yaml 
service/cloud-native-svc configured

获取服务


cloud-native-svcNodePort 类型。当使用 kubectl describe service 命令时,我们可以观察到结果中的 Endpoints 有两个:172.17.0.5:8080, 172.17.0.6:8080,这便是我们的两个 Deployment 副本。

通过 kubectl get pods -o wide 我们可以再次验证:两个 Endpoints 正是我们的两个 Pod

[root@k8s0 service]# kubectl get svc
NAME               TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)          AGE
cloud-native-svc   NodePort    10.105.254.130   <none>        8080:30000/TCP   24m
hello-minikube     NodePort    10.107.201.188   <none>        8080:31061/TCP   35d
kubernetes         ClusterIP   10.96.0.1        <none>        443/TCP          35d
# Endpoints有两个
[root@k8s0 service]# kubectl describe service cloud-native-svc
Name:                     cloud-native-svc
Namespace:                default
Labels:                   <none>
Annotations:              <none>
Selector:                 app=cloud-native
Type:                     NodePort
IP Family Policy:         SingleStack
IP Families:              IPv4
IP:                       10.105.254.130
IPs:                      10.105.254.130
Port:                     <unset>  8080/TCP
TargetPort:               8080/TCP
NodePort:                 <unset>  30000/TCP
Endpoints:                172.17.0.5:8080,172.17.0.6:8080
Session Affinity:         None
External Traffic Policy:  Cluster
Events:                   <none>
# 两个Endpoints正是我们的两个Pod
[root@k8s0 service]# kubectl get pods -o wide
NAME                              READY   STATUS    RESTARTS       AGE     IP           NODE       NOMINATED NODE   READINESS GATES
cloud-native                      1/1     Running   3 (117m ago)   4d12h   172.17.0.4   minikube   <none>           <none>
cloud-native-7bc75f4c94-47zg7     1/1     Running   2 (117m ago)   2d4h    172.17.0.6   minikube   <none>           <none>
cloud-native-7bc75f4c94-c2php     1/1     Running   2 (117m ago)   2d4h    172.17.0.5   minikube   <none>           <none>
hello-minikube-58647b77b8-srpbq   1/1     Running   9 (117m ago)   35d     172.17.0.8   minikub

同样,可以桶过 Dashboard 以可视化的方式观测我们运行的 KubernetesService 信息。

G}9WGWH(4@IV{[EB7LPSO6J.png

进入节点


这里所谓的 节点 ,是指 Kubernetes 节点;显然,这时候我们只有一个 minikube 节点。


[root@k8s0 service]# docker ps
CONTAINER ID   IMAGE                    COMMAND                  CREATED       STATUS       PORTS  NAMES
421832f7e7c9   kicbase/stable:v0.0.32   "/usr/local/bin/entr…"   5 weeks ago   Up 2 hours   127.0.0.1:49157->22/tcp, 127.0.0.1:49156->2376/tcp, 127.0.0.1:49155->5000/tcp, 127.0.0.1:49154->8443/tcp, 127.0.0.1:49153->32443/tcp   minikube
# 进入节点内部
[root@k8s0 service]# docker exec -it 421832f7e7c9 /bin/bash

测试接口


Kubernetes 节点( minikube )内部测试接口,哇哦,我们体验到了 Service 提供的负载均衡效果。

bash

复制代码

root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.5root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.6root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.5root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.6root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.5root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.6root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.5root@minikube:/#

小总结


Kubemetes 服务是一种为一组功能相同的 Pod 提供单一不变的接入点的资源。当服务存在时,它的IP地址和端口不会改变。客户端通过IP地址和端口号建立连接,这些连接会被路由到提供该服务的任意一个 Pod 上。通过这种方式,客户端不需要知道每个单独的提供服务的 Pod 的地址,这样这些 Pod 就可以在集群中随时被创建或移除。


If you have any questions or any bugs are found, please feel free to contact me.

Your comments and suggestions are welcome!

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
2月前
|
人工智能 运维 监控
阿里云ACK容器服务生产级可观测体系建设实践
本文整理自2024云栖大会冯诗淳(花名:行疾)的演讲,介绍了阿里云容器服务团队在生产级可观测体系建设方面的实践。冯诗淳详细阐述了容器化架构带来的挑战及解决方案,强调了可观测性对于构建稳健运维体系的重要性。文中提到,阿里云作为亚洲唯一蝉联全球领导者的容器管理平台,其可观测能力在多项关键评测中表现优异,支持AI、容器网络、存储等多个场景的高级容器可观测能力。此外,还介绍了阿里云容器服务在多云管理、成本优化等方面的最新进展,以及即将推出的ACK AI助手2.0,旨在通过智能引擎和专家诊断经验,简化异常数据查找,缩短故障响应时间。
阿里云ACK容器服务生产级可观测体系建设实践
|
2月前
|
存储 人工智能 调度
容器服务:智算时代云原生操作系统及月之暗面Kimi、深势科技实践分享
容器技术已经发展成为云计算操作系统的关键组成部分,向下高效调度多样化异构算力,向上提供统一编程接口,支持多样化工作负载。阿里云容器服务在2024年巴黎奥运会中提供了稳定高效的云上支持,实现了子弹时间特效等创新应用。此外,容器技术还带来了弹性、普惠的计算能力升级,如每分钟创建1万Pod和秒级CPU资源热变配,以及针对大数据与AI应用的弹性临时盘和跨可用区云盘等高性能存储解决方案。智能运维方面,推出了即时弹性节点池、智能应用弹性策略和可信赖集群托管运维等功能,进一步简化了集群管理和优化了资源利用率。
|
2月前
|
运维 Kubernetes 调度
阿里云容器服务 ACK One 分布式云容器企业落地实践
阿里云容器服务ACK提供强大的产品能力,支持弹性、调度、可观测、成本治理和安全合规。针对拥有IDC或三方资源的企业,ACK One分布式云容器平台能够有效解决资源管理、多云多集群管理及边缘计算等挑战,实现云上云下统一管理,提升业务效率与稳定性。
|
2月前
|
人工智能 Cloud Native 调度
阿里云容器服务在AI智算场景的创新与实践
本文源自张凯在2024云栖大会的演讲,介绍了阿里云容器服务在AI智算领域的创新与实践。从2018年推出首个开源GPU容器共享调度方案至今,阿里云容器服务不断推进云原生AI的发展,包括增强GPU可观测性、实现多集群跨地域统一调度、优化大模型推理引擎部署、提供灵活的弹性伸缩策略等,旨在为客户提供高效、低成本的云原生AI解决方案。
|
3月前
|
Kubernetes Cloud Native Docker
云原生之旅:从传统架构到容器化服务的演变
随着技术的快速发展,云计算已经从简单的虚拟化服务演进到了更加灵活和高效的云原生时代。本文将带你了解云原生的概念、优势以及如何通过容器化技术实现应用的快速部署和扩展。我们将以一个简单的Python Web应用为例,展示如何利用Docker容器进行打包和部署,进而探索Kubernetes如何管理这些容器,确保服务的高可用性和弹性伸缩。
|
3月前
|
安全 持续交付 Docker
深入理解并实践容器化技术——Docker 深度解析
深入理解并实践容器化技术——Docker 深度解析
110 2
|
3月前
|
Prometheus 监控 持续交付
深入理解Docker容器化技术:从基础到实践
深入理解Docker容器化技术:从基础到实践
|
3月前
|
安全 Docker 微服务
深入理解Docker容器技术:从基础到实践
深入理解Docker容器技术:从基础到实践
|
3月前
|
持续交付 开发者 Docker
深入理解并实践容器化技术——Docker篇
深入理解并实践容器化技术——Docker篇
68 0
|
3月前
|
Kubernetes Linux Docker
容器化技术Docker入门与实践
容器化技术Docker入门与实践
85 0