您可以捐助,支持我们的公益事业。

1元 10元 50元





认证码:  验证码,看不清楚?请点击刷新验证码 必填



  求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center   Code  
会员   
   
 
     
   
 
 订阅
K8S对外服务之Ingress
 
作者:龙Llong
  2785  次浏览      17 次
 2023-3-13
 
编辑推荐:
本文主要介绍了Ingress 简介、Ingress 工作原理、部署 nginx-ingress-controller及Nginx 进行重写等。希望对你的学习有帮助。
本文来自于MENU,由Linda编辑、推荐。

一、Ingress 简介

service的作用体现在两个方面,对集群内部,它不断跟踪pod的变化,更新endpoint(端点)中对应pod的对象,提供了ip不断变化的pod的服务发现机制;对集群外部,他类似负载均衡器,可以在集群内外部对pod进行访问。

在Kubernetes中,Pod的IP地址和service的ClusterIP仅可以在集群网络内部使用,对于集群外的应用是不可见的。为了使外部的应用能够访问集群内的服务,Kubernetes目前提供了以下几种方案:

NodePort:将service暴露在节点网络上,NodePort背后就是Kube-Proxy,Kube-Proxy是沟通service网络、Pod网络和节点网络的桥梁。

测试环境使用还行,当有几十上百的服务在集群中运行时,NodePort的端口管理就是个灾难。因为每个端口只能是一种服务,端口范围只能是 30000-32767。

LoadBalancer:通过设置LoadBalancer映射到云服务商提供的LoadBalancer地址。这种用法仅用于在公有云服务提供商的云平台上设置 Service 的场景。受限于云平台,且通常在云平台部署LoadBalancer还需要额外的费用。

在service提交后,Kubernetes就会调用CloudProvider在公有云上为你创建一个负载均衡服务,并且把被代理的Pod的IP地址配置给负载均衡服务做后端。

externalIPs:service允许为其分配外部IP,如果外部IP路由到集群中一个或多个Node上,Service会被暴露给这些externalIPs。通过外部IP进入到集群的流量,将会被路由到Service的Endpoint上。

Ingress:只需一个或者少量的公网IP和LB,即可同时将多个HTTP服务暴露到外网,七层反向代理。

可以简单理解为service的service,它其实就是一组基于域名和URL路径,把用户的请求转发到一个或多个service的规则。

1、Ingress 组成

ingress:ingress是一个API对象,通过yaml文件来配置,ingress对象的作用是定义请求如何转发到service的规则,可以理解为配置模板。

ingress通过http或https暴露集群内部service,给service提供外部URL、负载均衡、SSL/TLS能力以及基于域名的反向代理。ingress要依靠 ingress-controller 来具体实现以上功能。

ingress-controller:

ingress-controller是具体实现反向代理及负载均衡的程序,对ingress定义的规则进行解析,根据配置的规则来实现请求转发。

ingress-controller并不是k8s自带的组件,实际上ingress-controller只是一个统称,用户可以选择不同的ingress-controller实现,目前,由k8s维护的ingress-controller只有google云的GCE与ingress-nginx两个,其他还有很多第三方维护的ingress-controller,具体可以参考官方文档。但是不管哪一种ingress-controller,实现的机制都大同小异,只是在具体配置上有差异。

一般来说,ingress-controller的形式都是一个pod,里面跑着daemon程序和反向代理程序。daemon负责不断监控集群的变化,根据 ingress对象生成配置并应用新配置到反向代理,比如ingress-nginx就是动态生成nginx配置,动态更新upstream,并在需要的时候reload程序应用新配置。为了方便,后面的例子都以k8s官方维护的ingress-nginx为例。

Ingress-Nginx github 地址:https://github.com/kubernetes/ingress-nginx

Ingress-Nginx 官方网站:https://kubernetes.github.io/ingress-nginx/

2、总结

ingress-controller才是负责具体转发的组件,通过各种方式将它暴露在集群入口,外部对集群的请求流量会先到 ingress-controller, 而ingress对象是用来告诉ingress-controller该如何转发请求,比如哪些域名、哪些URL要转发到哪些service等等。

 

二、Ingress 工作原理

ingress-controller通过和 kubernetes APIServer 交互,动态的去感知集群中ingress规则变化,

然后读取它,按照自定义的规则,规则就是写明了哪个域名对应哪个service,生成一段nginx配置,

再写到nginx-ingress-controller的pod里,这个ingress-controller的pod里运行着一个Nginx服务,控制器会把生成的 nginx配置写入 /etc/nginx.conf文件中,

然后reload一下使配置生效。以此达到域名区分配置和动态更新的作用。

 

三、部署 nginx-ingress-controller

1、部署ingress-controller pod及相关资源

mkdir /opt/ingress
cd /opt/ingress

官方下载地址:
wget https://raw.githubusercontent.co
m/kubernetes
/ingress-nginx/nginx-0.25
.0/deploy/static/mandatory.yaml 上面可能无法下载,可用国内的 gitee wget https://gitee.com/mirrors/ingress-nginx/raw/
nginx-0.25.0/deploy/static/mandatory.yaml wget https://gitee.com/mirrors/ingress-nginx/raw
/nginx-0.30.0/deploy/static/mandatory.yaml #mandatory.yaml文件中包
含了很多资源的创建,包括namespace、
ConfigMap、role,ServiceAccount等等
所有部署ingress-controller需要的资源。

2、修改 ClusterRole 资源配置

vim mandatory.yaml
......
apiVersion: rbac.authorization.
k8s.io/v1beta1 #RBAC
相关资源从1.17版本开始改用rbac
.authorization.k8s.io/v1,rbac.
authorization.k8s.io/v1b
eta1在1.22版本即将弃用
kind: ClusterRole
metadata: name: nginx-ingress-clusterrole labels: app.kubernetes.io/name: ingress-nginx app.kubernetes.io/part-o
f: ingress-nginx rules: - apiGroups: - "" resources: - configmaps - endpoints - nodes - pods - secrets verbs: - list - watch - apiGroups: - "" resources: - nodes verbs: - get - apiGroups: - "" resources: - services verbs: - get - list - watch - apiGroups: - "extensions" - "networking.k8s.io"
# (0.25版本)增加
networking.k8s.io Ingress 资源的 api
resources: - ingresses verbs: - get - list - watch - apiGroups: - "" resources: - events verbs: - create - patch - apiGroups: - "extensions" - "networking.k8s.io"
# (0.25版本)增加
networking.k8s.io/v1 Ingress 资源的 api
resources: - ingresses/status verbs: - update

ingress 暴露服务的方式

方式一:Deployment+LoadBalancer 模式的 Service

如果要把ingress部署在公有云,那用这种方式比较合适。用Deployment部署ingress-controller,创建一个 type为 LoadBalancer 的 service 关联这组 pod。大部分公有云,都会为 LoadBalancer 的 service 自动创建一个负载均衡器,通常还绑定了公网地址。 只要把域名解析指向该地址,就实现了集群服务的对外暴露

方式二:DaemonSet+HostNetwork+nodeSelector

用DaemonSet结合nodeselector来部署ingress-controller到特定的node上,然后使用HostNetwork直接把该pod与宿主机node的网络打通,直接使用宿主机的80/433端口就能访问服务。这时,ingress-controller所在的node机器就很类似传统架构的边缘节点,比如机房入口的nginx服务器。该方式整个请求链路最简单,性能相对NodePort模式更好。缺点是由于直接利用宿主机节点的网络和端口,一个node只能部署一个ingress-controller pod。 比较适合大并发的生产环境使用。

方式三:Deployment+NodePort模式的Service

同样用deployment模式部署ingress-controller,并创建对应的service,但是type为NodePort。这样,ingress就会暴露在集群节点ip的特定端口上。由于nodeport暴露的端口是随机端口,一般会在前面再搭建一套负载均衡器来转发请求。该方式一般用于宿主机是相对固定的环境ip地址不变的场景。

NodePort方式暴露ingress虽然简单方便,但是NodePort多了一层NAT,在请求量级很大时可能对性能会有一定影响。

3、指定 nginx-ingress-controller 运行在 node02 节点

采用方式二:DaemonSet+HostNetwork+nodeSelector

kubectl label node node02 ingress=true

kubectl get nodes --show-labels

4、修改 Deployment 为 DaemonSet ,指定节点运行,并开启 hostNetwork 网络

vim mandatory.yaml

...
apiVersion: apps/v1
# 修改 kind
# kind: Deployment
kind: DaemonSet
metadata:
  name: nginx-ingress-controller
  namespace: ingress-nginx
  labels:
    app.kubernetes.io/
name: ingress-nginx app.kubernetes.io/
part-of: ingress-nginx spec: # 删除Replicas # replicas: 1 selector: matchLabels: app.kubernetes.io
/name: ingress-nginx app.kubernetes.io
/part-of: ingress-nginx template: metadata: labels: app.kubernetes.
io/name: ingress-nginx app.kubernetes.
io/part-of: ingress-nginx annotations: prometheus.io/port: "10254" prometheus.io/scrape: "true" spec: # 使用主机网络 hostNetwork: true # 选择节点运行 nodeSelector: ingress: "true" serviceAccountName:
nginx-ingress-serviceaccount ......

5、在所有 node 节点上传 nginx-ingress-controller 镜像压缩包 ingree.contro.tar.gz 到/opt/ingress 目录,并解压和加载镜像

cd /opt/ingress
tar zxvf ingree.contro.tar.gz
docker load -i ingree.contro.tar

6、启动 nginx-ingress-controller

kubectl apply -f mandatory.yaml

#nginx-ingress-controller 
已经运行 node02 节点
kubectl get pod -n ingress
-nginx -o wide kubectl get cm,daemonset -n
ingress-nginx -o wide

到 node02 节点查看

netstat -lntp | grep nginx

由于配置了 hostnetwork,nginx 已经在 node 主机本地监听 80/443/8181 端口。其中 8181 是 nginx-controller 默认配置的一个 default backend(Ingress 资源没有匹配的 rule 对象时,流量就会被导向这个 default backend)。这样,只要访问 node 主机有公网 IP,就可以直接映射域名来对外网暴露服务了。如果要 nginx 高可用的话,可以在多个 node上部署,并在前面再搭建一套 LVS+keepalived 做负载均衡。

7、创建 ingress 规则

创建一个 deploy 和 svc

vim service-nginx.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-app
spec:
  replicas: 2
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
        - name: nginx
          image: nginx
          imagePullPolicy:
IfNotPresent ports: - containerPort: 80 --- apiVersion: v1 kind: Service metadata: name: nginx-app-svc spec: type: ClusterIP ports: - protocol: TCP port: 80 targetPort: 80 selector: app: nginx

创建 ingress

用的是方法二

#方法一:(extensions/v
1beta1 Ingress 在1.22版本即将弃用)
vim ingress-app.yaml apiVersion: extensions/v1beta1 kind: Ingress metadata: name: nginx-app-ingress spec: rules: - host: www.mcl.com http: paths: - path: / backend: serviceName: nginx-app-svc servicePort: 80 #方法二: vim ingress-app.yaml apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: nginx-app-ingress spec: rules: - host: www.mcl.com http: paths: - path: / pathType: Prefix backend: service: name: nginx-app-svc port: number: 80

kubectl apply -f service-nginx.yaml

kubectl apply -f ingress-app.yaml

kubectl get pods

kubectl get ingress

8、测试访问

本地 host 添加域名解析

vim /etc/hosts

curl www.mcl.com

 

9、查看 nginx-ingress-controller

kubectl get pod -n ingress-nginx -o wide

kubectl exec -it nginx-ingress-
controller-p7tdq -n ingress-nginx /bin/bash

 

 

可以看到从 start server www.mcl.com 到 end server www.mcl.com 之间包含了此域名用于反向代理的配置

 

四、采用方式三:Deployment+NodePort模式的Service

1、下载 nginx-ingress-controller 和 ingress-nginx 暴露端口配置文件

mkdir /opt/ingress-nodeport
cd /opt/ingress-nodeport

官方下载地址:
wget https://raw.githubus
rcontent.com/kubernetes
/ingress-nginx/nginx-
0.30.0/deploy/static/mandatory.yaml wget https://raw.githubus
ercontent.com/kubernetes
/ingress-nginx/nginx-0.30
.0/deploy/static/provider
/baremetal/service-nodeport.yaml 国内 gitee 资源地址: wget https://gitee.com/mi
rrors/ingress-nginx/raw/nginx-0
.30.0/deploy/static/mandatory.yaml wget https://gitee.com/mi
rrors/ingress-nginx/raw/nginx-0
.30.0/deploy/static/provider
/baremetal/service-nodeport.yaml

2、在所有 node 节点上传镜像包 ingress-controller-0.30.0.tar 到 /opt/ingress-nodeport 目录,并加载镜像

tar zxvf ingree.contro-0.30.0.tar.gz
docker load -i ingress-controller-0.30.0.tar

3、启动 nginx-ingress-controller

kubectl apply -f mandatory.yaml
kubectl apply -f service-nodeport.yaml

 

如果K8S Pod 调度失败,在 kubectl describe pod资源时显示:

Warning FailedScheduling 18s (x2 over 18s) default-scheduler 0/2 nodes are available: 2 node(s) didn't match node selector

解决方案:

给需要调度的node加上对应标签

相对上面这个Yaml文件的例子

kubectl label nodes node_name kubernetes.io/os=linux

删除Yaml文件中的nodeSelector,如果对节点没有要求的话,直接删除节点选择器即可

4、Ingress HTTP 代理访问

创建 deployment、Service、Ingress Yaml 资源

vim ingress-nginx.yaml 

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-myapp
spec:
  replicas: 2
  selector:
    matchLabels:
      name: nginx
  template:
    metadata:
      labels:
        name: nginx
    spec:
      containers:
        - name: nginx
          image: nginx
          imagePullPolicy:
IfNotPresent ports: - containerPort: 80 --- apiVersion: v1 kind: Service metadata: name: nginx-svc spec: ports: - port: 80 targetPort: 80 protocol: TCP selector: name: nginx --- apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: nginx-test spec: rules: - host: www.long.com http: paths: - path: / pathType: Prefix backend: service: name: nginx-svc port: number: 80

kubectl get pods,svc -o wide

kubectl exec -it pod/ngi
nx-myapp-57dd86f5cc-l48l2 bash kubectl exec -it pod/nginx
-myapp-57dd86f5cc-lpnfz bash

5、测试访问

curl 10.244.1.18

kubectl get svc -n ingress-nginx

 

vim /etc/hosts

192.168.160.20 master
192.168.160.40 node01
192.168.160.90 node02
192.168.160.70 hub.mcl.com
192.168.160.90 www.mcl.com
#添加域名解析
192.168.160.40 
www.mcl.com www.long.com #外部访问 curl http://www.long.com:31751

6、Ingress HTTP 代理访问虚拟主机

mkdir /opt/ingress-nodeport/vhost
cd /opt/ingress-nodeport/vhost

#创建虚拟主机1资源
vim deployment1.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: deployment1
spec:
  replicas: 2
  selector:
    matchLabels:
      name: nginx1
  template:
    metadata:
      labels:
        name: nginx1
    spec:
      containers:
        - name: nginx1
          image: soscscs/myapp:v1
          imagePullPolicy:
IfNotPresent ports: - containerPort: 80 --- apiVersion: v1 kind: Service metadata: name: svc-1 spec: ports: - port: 80 targetPort: 80 protocol: TCP selector: name: nginx1 kubectl apply -f
deployment1.yaml

 

#创建虚拟主机2资源
vim deployment2.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: deployment2
spec:
  replicas: 2
  selector:
    matchLabels:
      name: nginx2
  template:
    metadata:
      labels:
        name: nginx2
    spec:
      containers:
        - name: nginx2
          image: soscscs/myapp:v2
          imagePullPolicy:
IfNotPresent ports: - containerPort: 80 --- apiVersion: v1 kind: Service metadata: name: svc-2 spec: ports: - port: 80 targetPort: 80 protocol: TCP selector: name: nginx2 kubectl apply -f deployment2.yaml

#创建ingress资源
vim ingress-nginx.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: ingress1
spec:
  rules:
    - host: www1.mcl.com
      http:
        paths:
        - path: /
          pathType: Prefix
          backend:
            service: 
              name: svc-1
              port:
                number: 80
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: ingress2
spec:
  rules:
    - host: www2.mcl.com
      http:
        paths:
        - path: /
          pathType: Prefix
          backend:
            service: 
              name: svc-2
              port:
                number: 80


kubectl apply -f ingress-nginx.yaml

 

7、测试访问

kubectl get svc -n ingress-nginx

#做主机映射
vim /etc/hosts

curl www1.mcl.com:31751

curl www2.mcl.com:31751

8、Ingress HTTPS 代理访问

mkdir /opt/ingress-nodeport/https
cd /opt/ingress-nodeport/https

8.1 创建ssl证书

openssl req -x509 -sha256 -nodes -days 
365 -newkey rsa:2048 -keyout tls.key
-out tls.crt -subj "/CN=nginxsvc/O=nginxsvc"

 

8.2 创建 secret 资源进行存储

kubectl create secret tls 
tls-secret --key tls.key --cert tls.crt kubectl get secret kubectl describe secret tls-secret

8.3 创建 deployment、Service、Ingress Yaml 资源

vim ingress-https.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-app
spec:
  replicas: 2
  selector:
    matchLabels:
      name: nginx
  template:
    metadata:
      labels:
        name: nginx
    spec:
      containers:
        - name: nginx
          image: nginx
          imagePullPolicy: 
IfNotPresent ports: - containerPort: 80 --- apiVersion: v1 kind: Service metadata: name: nginx-svc spec: ports: - port: 80 targetPort: 80 protocol: TCP selector: name: nginx --- apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: nginx-https spec: tls: - hosts: - www3.long.com secretName: tls-secret rules: - host: www3.kgc.com http: paths: - path: / pathType: Prefix backend: service: name: nginx-svc port: number: 80 kubectl apply -f ingress-https.yaml

9、Nginx 进行 BasicAuth

mkdir /opt/ingress-nodeport/basic-auth
cd /opt/ingress-nodeport/basic-auth

 

9.1 生成用户密码认证文件,创建 secret 资源进行存储

yum -y install httpd
htpasswd -c auth mcl			
#认证文件名必须为 auth kubectl create secret
generic basic-auth --from-file=auth kubectl get secrets kubectl describe secrets basic-auth

 

9.2 创建 ingress 资源

vim ingress-auth.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: ingress-auth
  annotations:
    #设置认证类型basic
    nginx.ingress.kuber
netes.io/auth-type: basic
#设置secret资源名称basic-auth
nginx.ingress.
kubernetes.io/auth-
secret: basic-auth
#设置认证窗口提示信息
nginx.ingress.kubernetes.i
o/auth-realm: 'Authenti
cation Required - mcl'
spec: rules: - host: auth.mcl.com http: paths: - path: / pathType: Prefix backend: service: name: nginx-svc port: number: 80

9.3 访问测试

kubectl apply -f ingress-auth.yaml
kubectl get svc -n ingress-nginx
echo '192.168.160.40 
auth.mcl.com'
>> /etc/hosts 浏览器访问:http://auth.mcl.com:31751

 

10、Nginx 进行重写

metadata.annotations 配置说明

nginx.ingress.kubernetes.io/r
ewrite-target: <字符串> #
必须重定向流量的目标URI
nginx.ingress.kubernetes.io/ssl-redi
rect: <布尔值> #指示位置部分是否仅可
访问SSL(当Ingress包含证书时,默认为true)
nginx.ingress.kubernetes.io/force-s
sl-redirect: <布尔值> #即使Ingress未启用
TLS,也强制重定向到HTTPS
nginx.ingress.kubernetes.io/app-root:
<字符串> #定义Controller必须重定向的
应用程序根,如果它在'/'上下文中
nginx.ingress.kubernetes.io/use-regex:
<布尔值> #指示Ingress上定义的路径是
否使用正则表达式

 

vim ingress-rewrite.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: nginx-rewrite
  annotations:
    nginx.ingress.kubernetes.io
/rewrite-target: http://www1.mcl.com:31751 spec: rules: - host: re.mcl.com http: paths: - path: / pathType: Prefix backend: #由于re.kgc.com只是用于
跳转不需要真实站点存
在,因此svc资源名称可随意定义
service: name: nginx-svc port: number: 80

访问测试

kubectl apply -f ingress-rewrite.yaml
echo '192.168.160.40
re.mcl.com'
>> /etc/hosts 浏览器访问:http://re.mcl.com:31751

五、总结

ingress是k8s集群的请求入口,可以理解为对多个service的再次抽象

通常说的ingress一般包括ingress资源对象及ingress-controller两部分组成

ingress-controller有多种实现,社区原生的是ingress-nginx,根据具体需求选择

ingress自身的暴露有多种方式,需要根据基础环境及业务类型选择合适的方式

 

   
2785 次浏览       17
相关文章

聊聊云原生和微服务架构
Serverless:微服务架构的终极模式
如何实现微服务架构下的分布式事务?
微服务下的数据架构设计
相关文档

微服务和云原生应用
微服务架构原理和设计方法
0到3000万用户微服务之旅
微服务在微信后台的架构实践
相关课程

微服务架构设计与实践
领域驱动+微服务架构设计
云计算、微服务与分布式架构
云平台与微服务架构设计

最新活动计划
MBSE(基于模型的系统工程)4-18[北京]
自然语言处理(NLP) 4-25[北京]
基于 UML 和EA进行分析设计 4-29[北京]
以用户为中心的软件界面设计 5-16[北京]
DoDAF规范、模型与实例 5-23[北京]
信息架构建模(基于UML+EA)5-29[北京]
 
 
最新文章
云原生架构概述
K8S高可用集群架构实现
容器云管理之K8S集群概述
k8s-整体概述和架构
十分钟学会用docker部署微服务
最新课程
云计算、微服务与分布式架构
企业私有云原理与构建
基于Kubernetes的DevOps实践
云平台架构与应用(阿里云)
Docker部署被测系统与自动化框架实践
更多...   
成功案例
北京 云平台与微服务架构设计
通用公司GE Docker原理与实践培训
某军工研究单位 MDA(模型驱动架构)
知名消费金融公司 领域驱动设计
深圳某汽车企业 模型驱动的分析设计
更多...