3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > asp.net >内容正文

asp.net

Kubernetes学习笔记(一):Pod详解:Pod配置、Pod生命周期、Pod调度、容器设计模式

發布時間:2023/12/20 asp.net 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Kubernetes学习笔记(一):Pod详解:Pod配置、Pod生命周期、Pod调度、容器设计模式 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1、Pod介紹

Pod是Kubernetes進行管理的最小單元,程序要運行必須部署在容器中,而容器必須存在于Pod中

Pod可以認為是容器的封裝,一個Pod中可以存在一個或者多個容器

1)、Pod=進程組

在Kubernetes里面,Pod實際上正是Kubernetes抽象出來的一個可以類比為進程組的概念

由四個進程共同組成的一個應用Helloworld,在Kubernetes里面,實際上會被定義為一個擁有四個容器的Pod

就是說現在有四個職責不同、相互協作的進程,需要放在容器里去運行,在Kubernetes里面并不會把它們放到一個容器里,Kubernetes會把四個獨立的進程分別用四個獨立的容器啟動起來,然后把它們定義在一個Pod里面

所以當Kubernetes把Helloworld給拉起來的時候,實際上會看到四個容器,它們共享了某些資源,這些資源都屬于Pod,所以我們說Pod 在Kubernetes里面只有一個邏輯單位,沒有一個真實的東西對應說這個就是Pod。真正起來在物理上存在的東西,就是四個容器。這四個容器,或者說是多個容器的組合就叫做Pod

Pod是Kubernetes分配資源的一個單位,因為里面的容器要共享某些資源,所以Pod也是Kubernetes的原子調度單位

2)、為什么Pod必須是原子調度單位?

假如現在有兩個容器,它們是緊密協作的,所以它們應該被部署在一個Pod里面。具體來說,第一個容器叫做App,就是業務容器,它會寫日志文件;第二個容器叫做LogCollector,它會把剛剛App容器寫的日志文件轉發到后端的ElasticSearch中

兩個容器的資源需求是這樣的:App容器需要1G內存,LogCollector需要0.5G內存,而當前集群環境的可用內存是這樣一個情況:Node_A:1.25G內存、Node_B:2G內存

假如說現在沒有Pod概念,就只有兩個容器,這兩個容器要緊密協作、運行在一臺機器上??墒?#xff0c;如果調度器先把App調度到了Node_A上面,接下來會怎么樣呢?這時會發現:LogCollector實際上是沒辦法調度到Node_A上的,因為資源不夠。其實此時整個應用本身就已經出問題了,調度已經失敗了,必須去重新調度

在Kubernetes里,就直接通過Pod這樣一個概念去解決了。因為在Kubernetes里,這樣的一個App容器和LogCollector容器一定是屬于一個Pod的,它們在調度時必然是以一個Pod為單位進行調度,所以這個問題是根本不存在的

3)、Pod里面的容器是超親密關系

Pod里面的容器是超親密關系,大概分為以下幾類:

  • 比如說兩個進程之間會發生文件交換,比如一個寫日志,一個讀日志
  • 兩個進程之間需要通過localhost或者說是本地的Socket去進行通信,這種本地通信也是超親密關系
  • 這兩個容器或者是微服務之間,需要發生非常頻繁的RPC調用,出于性能的考慮,也希望它們是超親密關系
  • 兩個容器或者是應用,它們需要共享某些Linux Namespace。最簡單常見的一個例子,就是我有一個容器需要加入另一個容器的Network Namespace。這樣我就能看到另一個容器的網絡設備,和它的網絡信息

4)、Infra container(也叫Pause容器)

每個Pod中都可以包含一個或者多個容器,這些容器可以分為兩類:

  • 業務容器(用戶程序所在的容器):數量可多可少

  • Infra container:每個Pod都會有的一個根容器

1)共享網絡

如上圖所示,這個Pod里有兩個用戶容器A和B,還有一個Infra container。Infra container是一個非常小的鏡像,大概100~200KB左右,是一個匯編語言寫的、永遠處于暫停狀態的容器

整個Pod里Infra container第一個啟動,在Infra containerHold住Network Namespace后,用戶容器就可以加入到Infra container的Network Namespace當中了

所以說一個Pod里面的所有容器,它們看到的網絡視圖是完全一樣的。即:它們看到的網絡設備、IP地址、Mac地址等等,跟網絡相關的信息,其實全是一份,這一份都來自于Pod第一次創建的這個Infra container。這就是Pod解決網絡共享的一個解法

這也就意味著,對于Pod里的容器A和容器B來說:

  • 它們可以直接使用localhost進行通信
  • 它們看到的網絡設備跟Infra container看到的完全一樣
  • 一個Pod只有一個IP地址,也就是這個Pod的Network Namespace對應的IP地址
  • 其他的所有網絡資源,都是一個Pod一份,并且被該Pod中的所有容器共享
  • Pod的生命周期只跟Infra container一致,而與容器A和B無關

而對于同一個Pod里面的所有用戶容器來說,它們的進出流量,也可以認為都是通過Infra container完成的

2)共享存儲

有了Infra container這個設計之后,共享Volume就簡單多了:Kubernetes只要把所有Volume的定義都設計在Pod層級即可

這樣,一個Volume對應的宿主機目錄對于Pod來說就只有一個,Pod里的容器只要聲明掛載這個Volume,就一定可以共享這個Volume對應的宿主機目錄。比如下面這個例子:

apiVersion: v1 kind: Pod metadata:name: two-containers spec:restartPolicy: Nevervolumes:- name: shared-datahostPath: path: /datacontainers:- name: nginx-containerimage: nginxvolumeMounts:- name: shared-datamountPath: /usr/share/nginx/html- name: debian-containerimage: debianvolumeMounts:- name: shared-datamountPath: /pod-datacommand: ["/bin/sh"]args: ["-c", "echo Hello from the debian container > /pod-data/index.html"]

在這個例子中,debian-container和nginx-container都聲明掛載了shared-data這個Volume。而shared-data是hostPath類型。所以,它對應在宿主機上的目錄就是:/data。而這個目錄,其實就被同時綁定掛載進了上述兩個容器當中

這就是nginx-container可以從它的/usr/share/nginx/html目錄中,讀取到debian-container生成的index.html文件的原因

3)Infra container的作用

  • 整個Pod的生命周期就等同于Infra container的生命周期,可以以它為依據,評估整個Pod的健康狀態
  • Pod里的多個業務容器共享Infra container的IP,共享Infra container掛載的Volume,既簡化了密切關聯的業務容器之間的通訊問題,也很好地解決了它們之間的文件共享問題
  • 5)、Pod定義

    下面是Pod的資源清單:

    apiVersion: v1 # 必選,版本號,例如v1 kind: Pod # 必選,資源類型,例如Pod metadata: # 必選,元數據name: string # 必選,Pod名稱namespace: string # Pod所屬的命名空間,默認為"default"labels: # 自定義標簽列表- name: string   spec: # 必選,Pod中容器的詳細定義containers: # 必選,Pod中容器列表- name: string # 必選,容器名稱image: string # 必選,容器的鏡像名稱imagePullPolicy: [ Always|Never|IfNotPresent ] # 鏡像拉取策略command: [string] # 容器的啟動命令列表,如不指定,使用打包時使用的啟動命令args: [string] # 容器的啟動命令參數列表workingDir: string # 容器的工作目錄volumeMounts: # 掛載到容器內部的存儲卷配置- name: string # 引用pod定義的共享存儲卷的名稱,需用volumes[]部分定義的的卷名mountPath: string # 存儲卷在容器內mount的絕對路徑,應少于512字符readOnly: boolean # 是否為只讀模式ports: # 需要暴露的端口庫號列表- name: string # 端口的名稱containerPort: int # 容器需要監聽的端口號hostPort: int # 容器所在主機需要監聽的端口號,默認與Container相同protocol: string # 端口協議,支持TCP和UDP,默認TCPenv: # 容器運行前需設置的環境變量列表- name: string # 環境變量名稱value: string # 環境變量的值resources: # 資源限制和請求的設置limits: # 資源限制的設置cpu: string # Cpu的限制,單位為core數,將用于docker run --cpu-shares參數memory: string # 內存限制,單位可以為Mib/Gib,將用于docker run --memory參數requests: # 資源請求的設置cpu: string # Cpu請求,容器啟動的初始可用數量memory: string # 內存請求,容器啟動的初始可用數量lifecycle: # 生命周期鉤子postStart: # 容器啟動后立即執行此鉤子,如果執行失敗,會根據重啟策略進行重啟preStop: # 容器終止前執行此鉤子,無論結果如何,容器都會終止livenessProbe: # 對Pod內各容器健康檢查的設置,當探測無響應幾次后將自動重啟該容器exec: # 對Pod容器內檢查方式設置為exec方式command: [string] # exec方式需要制定的命令或腳本httpGet: # 對Pod內個容器健康檢查方法設置為HttpGet,需要制定Path、portpath: stringport: numberhost: stringscheme: stringHttpHeaders:- name: stringvalue: stringtcpSocket: # 對Pod內個容器健康檢查方式設置為tcpSocket方式port: numberinitialDelaySeconds: 0 # 容器啟動完成后首次探測的時間,單位為秒timeoutSeconds: 0 # 對容器健康檢查探測等待響應的超時時間,單位秒,默認1秒periodSeconds: 0 # 對容器監控檢查的定期探測時間設置,單位秒,默認10秒一次successThreshold: 0failureThreshold: 0securityContext:privileged: falserestartPolicy: [Always | Never | OnFailure] # Pod的重啟策略nodeName: <string> # 設置NodeName表示將該Pod調度到指定到名稱的node節點上nodeSelector: obeject # 設置NodeSelector表示將該Pod調度到包含這個label的node上imagePullSecrets: # Pull鏡像時使用的secret名稱,以key:secretkey格式指定- name: stringhostNetwork: false # 是否使用主機網絡模式,默認為false,如果設置為true,表示使用宿主機網絡volumes: # 在該pod上定義共享存儲卷列表- name: string # 共享存儲卷名稱 (volumes類型有很多種)emptyDir: {} # 類型為emtyDir的存儲卷,與Pod同生命周期的一個臨時目錄。為空值hostPath: string # 類型為hostPath的存儲卷,表示掛載Pod所在宿主機的目錄path: string # Pod所在宿主機的目錄,將被用于同期中mount的目錄secret: # 類型為secret的存儲卷,掛載集群與定義的secret對象到容器內部scretname: string items: - key: stringpath: stringconfigMap: # 類型為configMap的存儲卷,掛載預定義的configMap對象到容器內部name: stringitems:- key: stringpath: string

    可通過一個命令來查看每種資源的可配置項

    • kubectl explain 資源類型:查看某種資源可以配置的一級屬性
    • kubectl explain 資源類型.屬性:查看屬性的子屬性
    [root@k8s-master ~]# kubectl explain pod KIND: Pod VERSION: v1 FIELDS:apiVersion <string>kind <string>metadata <Object>spec <Object>status <Object> [root@k8s-master ~]# kubectl explain pod.metadata KIND: Pod VERSION: v1 RESOURCE: metadata <Object> FIELDS:annotations <map[string]string>clusterName <string>creationTimestamp <string>deletionGracePeriodSeconds <integer>deletionTimestamp <string>finalizers <[]string>generateName <string>generation <integer>labels <map[string]string>managedFields <[]Object>name <string>namespace <string>ownerReferences <[]Object>resourceVersion <string>selfLink <string>uid <string>

    在Kubernetes中基本所有資源的一級屬性都是一樣的,主要包含5部分:

    • apiVersion <string>:版本,由Kubernetes內部定義,版本號必須可以用kubectl api-versions查詢到
    • kind <string>:類型,由Kubernetes內部定義,版本號必須可以用kubectl api-resources查詢到
    • metadata <Object>:元數據,主要是資源標識和說明,常用的有name、namespace、labels等
    • spec <Object>:描述,這是配置中最重要的一部分,里面是對各種資源配置的詳細描述
    • status <Object>:狀態信息,里面的內容不需要定義,由Kubernetes自動生成

    在上面的屬性中,spec是接下來研究的重點,繼續看下它的常見子屬性:

    • containers <[]Object>:容器列表,用于定義容器的詳細信息
    • nodeName <String>:根據nodeName的值將Pod調度到指定的Node節點上
    • nodeSelector <map[]>:根據NodeSelector中定義的信息選擇將該Pod調度到包含這些label的Node 上
    • hostNetwork <boolean>:是否使用主機網絡模式,默認為false,如果設置為true,表示使用宿主機網絡
    • volumes <[]Object>:存儲卷,用于定義Pod上面掛在的存儲信息
    • restartPolicy <string>:重啟策略,表示Pod在遇到故障的時候的處理策略

    2、Pod配置

    本小節主要來研究pod.spec.containers屬性,這也是Pod配置中最為關鍵的一項配置

    [root@k8s-master ~]# kubectl explain pod.spec.containers KIND: Pod VERSION: v1 RESOURCE: containers <[]Object> # 數組,代表可以有多個容器 FIELDS:args <[]string> # 容器的啟動命令需要的參數列表command <[]string> # 容器的啟動命令列表,如不指定,使用打包時使用的啟動命令env <[]Object> # 容器環境變量的配置envFrom <[]Object>image <string> # 容器需要的鏡像地址imagePullPolicy <string> # 鏡像拉取策略lifecycle <Object>livenessProbe <Object>name <string> -required- # 容器名稱ports <[]Object> # 容器需要暴露的端口號列表readinessProbe <Object>resources <Object> # 資源限制和資源請求的設置securityContext <Object>startupProbe <Object>stdin <boolean>stdinOnce <boolean>terminationMessagePath <string>terminationMessagePolicy <string>tty <boolean>volumeDevices <[]Object>volumeMounts <[]Object>workingDir <string>

    1)、基本配置

    創建dev namespace,后續操作都在該namespace上進行

    # 創建namespace [root@k8s-master ~]# kubectl create ns dev namespace/dev created# 查看所有的namespace [root@k8s-master ~]# kubectl get ns NAME STATUS AGE default Active 11h dev Active 12s kube-node-lease Active 11h kube-public Active 11h kube-system Active 11h kubernetes-dashboard Active 11h

    創建pod-base.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-basenamespace: devlabels:user: admin spec:containers:- name: nginximage: nginx:1.17.1- name: busyboximage: busybox:1.30

    上面定義了一個比較簡單Pod的配置,里面有兩個容器:

    • nginx:用1.17.1版本的nginx鏡像創建(nginx是一個輕量級web容器)
    • busybox:用1.30版本的busybox鏡像創建(busybox是一個小巧的linux命令集合)
    # 創建Pod [root@k8s-master ~]# kubectl create -f pod-base.yaml pod/pod-base created# 查看Pod狀況 # READY 1/2:表示當前Pod中有2個容器,其中1個準備就緒,1個未就緒 # RESTARTS :重啟次數,因為有1個容器故障了,Pod一直在重啟試圖恢復它 [root@k8s-master ~]# kubectl get pod -n dev NAME READY STATUS RESTARTS AGE pod-base 1/2 NotReady 2 53s# 可以通過describe查看內部的詳情 # 此時已經運行起來了一個基本的Pod,雖然它暫時有問題 [root@k8s-master ~]# kubectl describe pod pod-base -n devEvents:Type Reason Age From Message---- ------ ---- ---- -------Normal Pulling 9m5s kubelet, k8s-node2 Pulling image "nginx:1.17.1"Normal Scheduled 8m45s default-scheduler Successfully assigned dev/pod-base to k8s-node2 # pod被調度到k8s-node2節點Normal Pulled 8m42s kubelet, k8s-node2 Successfully pulled image "nginx:1.17.1"Normal Created 8m41s kubelet, k8s-node2 Created container nginxNormal Started 8m41s kubelet, k8s-node2 Started container nginx # 啟動nginx容器Normal Pulling 8m41s kubelet, k8s-node2 Pulling image "busybox:1.30"Normal Pulled 8m38s kubelet, k8s-node2 Successfully pulled image "busybox:1.30"Normal Created 7m58s (x4 over 8m38s) kubelet, k8s-node2 Created container busyboxNormal Started 7m58s (x4 over 8m38s) kubelet, k8s-node2 Started container busybox # 啟動busybox容器Normal Pulled 7m16s (x4 over 8m37s) kubelet, k8s-node2 Container image "busybox:1.30" already present on machineWarning BackOff 3m56s (x24 over 8m36s) kubelet, k8s-node2 Back-off restarting failed container # 重啟失敗的容器

    2)、鏡像拉取

    創建pod-imagepullpolicy.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-imagepullpolicynamespace: dev spec:containers:- name: nginximage: nginx:1.17.1imagePullPolicy: Never # 用于設置鏡像拉取策略- name: busyboximage: busybox:1.30

    imagePullPolicy:用于設置鏡像拉取策略,Kubernetes支持配置三種拉取策略:

    • Always:總是從遠程倉庫拉取鏡像(一直遠程下載)
    • IfNotPresent:本地有則使用本地鏡像,本地沒有則從遠程倉庫拉取鏡像(本地有就本地 本地沒遠程下載)
    • Never:只使用本地鏡像,從不去遠程倉庫拉取,本地沒有就報錯 (一直使用本地)

    默認值說明:

    • 如果鏡像tag為具體版本號,默認策略是IfNotPresent

    • 如果鏡像tag為latest(最終版本),默認策略是Always

    # 創建Pod [root@k8s-master ~]# kubectl create -f pod-imagepullpolicy.yaml pod/pod-imagepullpolicy created# 查看Pod詳情 # 此時明顯可以看到nginx鏡像有一步Pulling image "nginx:1.17.1"的過程 [root@k8s-master ~]# kubectl describe pod pod-imagepullpolicy -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Normal Pulling 50s kubelet, k8s-node1 Pulling image "busybox:1.30"Normal Scheduled 50s default-scheduler Successfully assigned dev/pod-imagepullpolicy to k8s-node1 # pod被調度到k8s-node1節點Normal Pulled 44s kubelet, k8s-node1 Successfully pulled image "busybox:1.30"Normal Pulled 28s (x2 over 43s) kubelet, k8s-node1 Container image "busybox:1.30" already present on machine # k8s-node1節點上已經有了busybox:1.30鏡像Normal Created 28s (x3 over 44s) kubelet, k8s-node1 Created container busyboxWarning ErrImageNeverPull 27s (x6 over 50s) kubelet, k8s-node1 Container image "nginx:1.17.1" is not present with pull policy of Never # k8s-node1節點上沒有nginx:1.17.1鏡像,拉取策略又是NeverNormal Started 27s (x3 over 43s) kubelet, k8s-node1 Started container busyboxWarning Failed 27s (x6 over 50s) kubelet, k8s-node1 Error: ErrImageNeverPullWarning BackOff 27s (x3 over 42s) kubelet, k8s-node1 Back-off restarting failed container

    修改鏡像拉取策略為IfNotPresent

    apiVersion: v1 kind: Pod metadata:name: pod-imagepullpolicynamespace: dev spec:containers:- name: nginximage: nginx:1.17.1imagePullPolicy: IfNotPresent # 用于設置鏡像拉取策略- name: busyboximage: busybox:1.30 # 刪除之前創建的Pod [root@k8s-master ~]# kubectl delete pod pod-imagepullpolicy -n dev pod "pod-imagepullpolicy" deleted# 創建Pod [root@k8s-master ~]# kubectl create -f pod-imagepullpolicy.yaml pod/pod-imagepullpolicy created# 查看Pod詳情 [root@k8s-master ~]# kubectl describe pod pod-imagepullpolicy -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Normal Scheduled 86s default-scheduler Successfully assigned dev/pod-imagepullpolicy to k8s-node1Normal Pulling 86s kubelet, k8s-node1 Pulling image "nginx:1.17.1"Normal Pulled 52s kubelet, k8s-node1 Successfully pulled image "nginx:1.17.1" # 成功拉取nginx:1.17.1鏡像Normal Created 52s kubelet, k8s-node1 Created container nginxNormal Started 51s kubelet, k8s-node1 Started container nginxNormal Pulled 9s (x4 over 51s) kubelet, k8s-node1 Container image "busybox:1.30" already present on machineNormal Created 9s (x4 over 51s) kubelet, k8s-node1 Created container busyboxNormal Started 8s (x4 over 51s) kubelet, k8s-node1 Started container busyboxWarning BackOff 8s (x5 over 50s) kubelet, k8s-node1 Back-off restarting failed container

    3)、啟動命令

    在前面的案例中,一直有一個問題沒有解決,就是的busybox容器一直沒有成功運行,那么到底是什么原因導致這個容器的故障呢?

    原來busybox并不是一個程序,而是類似于一個工具類的集合,Kubernetes集群啟動管理后,它會自動關閉。解決方法就是讓其一直在運行,這就用到了command配置

    創建pod-command.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-commandnamespace: dev spec:containers:- name: nginximage: nginx:1.17.1- name: busyboximage: busybox:1.30command: ["/bin/sh","-c","touch /tmp/hello.txt;while true;do /bin/echo $(date +%T) >> /tmp/hello.txt; sleep 3; done;"]

    command:用于在Pod中的容器初始化完畢之后運行一個命令

    稍微解釋下上面命令的意思:

    "/bin/sh","-c":使用sh執行命令

    touch /tmp/hello.txt;:創建一個/tmp/hello.txt文件

    while true;do /bin/echo $(date +%T) >> /tmp/hello.txt; sleep 3; done;:每隔3秒向文件中寫入當前時間

    # 創建Pod [root@k8s-master ~]# kubectl create -f pod-command.yaml pod/pod-command created# 查看Pod狀態,此時發現兩個Pod都正常運行了 [root@k8s-master ~]# kubectl get pod pod-command -n dev NAME READY STATUS RESTARTS AGE pod-command 2/2 Running 0 6s# 進入Pod中的busybox容器,查看文件內容 # 補充一個命令:kubectl exec pod名稱 -n 命名空間 -it -c 容器名稱 /bin/sh 在容器內部執行命令 # 使用這個命令就可以進入某個容器的內部,然后進行相關操作了 [root@k8s-master ~]# kubectl exec pod-command -n dev -it -c busybox /bin/sh / # tail -f /tmp/hello.txt 15:03:45 15:03:48 15:03:51

    特別說明:

    通過上面發現command已經可以完成啟動命令和傳遞參數的功能,為什么這里還要提供一個args選項,用于傳遞參數呢?這其實跟docker有點關系,Kubernetes中的command、args兩項其實是實現覆蓋Dockerfile中ENTRYPOINT的功能

  • 如果command和args均沒有寫,那么用Dockerfile的配置
  • 如果command寫了,但args沒有寫,那么Dockerfile默認的配置會被忽略,執行輸入的command
  • 如果command沒寫,但args寫了,那么Dockerfile中配置的ENTRYPOINT的命令會被執行,使用當前args的參數
  • 如果command和args都寫了,那么Dockerfile的配置被忽略,執行command并追加上args參數
  • 4)、環境變量

    創建pod-env.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-envnamespace: dev spec:containers:- name: busyboximage: busybox:1.30command: ["/bin/sh","-c","while true;do /bin/echo $(date +%T);sleep 60; done;"]env: # 設置環境變量列表- name: "username"value: "admin"- name: "password"value: "123456"

    env:環境變量,用于在Pod中的容器設置環境變量

    # 創建Pod [root@k8s-master ~]# kubectl create -f pod-env.yaml pod/pod-env created# 進入容器,輸出環境變量 [root@k8s-master ~]# kubectl exec pod-env -n dev -c busybox -it /bin/sh / # echo $username admin / # echo $password 123456

    5)、端口設置

    首先看下ports支持的子選項:

    [root@k8s-master ~]# kubectl explain pod.spec.containers.ports KIND: Pod VERSION: v1 RESOURCE: ports <[]Object> FIELDS:containerPort <integer> -required- # 容器要監聽的端口(0<x<65536)hostIP <string> # 要將外部端口綁定到的主機IP(一般省略)hostPort <integer> # 容器要在主機上公開的端口,如果設置,主機上只能運行容器的一個副本(一般省略) name <string> # 端口名稱,如果指定,必須保證name在pod中是唯一的protocol <string> # 端口協議,必須是UDP、TCP或SCTP,默認為TCP

    創建pod-ports.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-portsnamespace: dev spec:containers:- name: nginximage: nginx:1.17.1ports: # 設置容器暴露的端口列表- name: nginx-portcontainerPort: 80protocol: TCP # 創建Pod [root@k8s-master ~]# kubectl create -f pod-ports.yaml pod/pod-ports created[root@k8s-master ~]# kubectl get pod pod-ports -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-ports 1/1 Running 0 28s 10.244.2.8 k8s-node1 <none> <none>

    訪問容器中的程序需要使用的是podIp:containerPort,可以看到該Pod被調度到了k8s-node1節點上

    # 在k8s-node1節點上訪問podIp:containerPort [root@k8s-node1 ~]# curl 10.244.2.8:80 <!DOCTYPE html> <html> <head> <title>Welcome to nginx!</title> <style>body {width: 35em;margin: 0 auto;font-family: Tahoma, Verdana, Arial, sans-serif;} </style> </head> <body> <h1>Welcome to nginx!</h1> <p>If you see this page, the nginx web server is successfully installed and working. Further configuration is required.</p><p>For online documentation and support please refer to <a href="http://nginx.org/">nginx.org</a>.<br/> Commercial support is available at <a href="http://nginx.com/">nginx.com</a>.</p><p><em>Thank you for using nginx.</em></p> </body> </html>

    6)、資源配額

    容器中的程序要運行,肯定是要占用一定資源的,比如cpu和內存等,如果不對某個容器的資源做限制,那么它就可能吃掉大量資源,導致其它容器無法運行。針對這種情況,Kubernetes提供了對內存和cpu的資源進行配額的機制,這種機制主要通過resources選項實現,有兩個子選項:

    • limits:用于限制運行時容器的最大占用資源,當容器占用資源超過limits時會被終止,并進行重啟
    • requests:用于設置容器需要的最小資源,如果環境資源不夠,容器將無法啟動

    可以通過上面兩個選項設置資源的上下限

    創建pod-resources.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-resourcesnamespace: dev spec:containers:- name: nginximage: nginx:1.17.1resources: # 資源配額limits: # 限制資源(上限)cpu: "2" # CPU限制,單位是core數memory: "10Gi" # 內存限制requests: # 請求資源(下限)cpu: "1" # CPU限制,單位是core數memory: "10Mi" # 內存限制

    在這對cpu和memory的單位做一個說明:

    • cpu:core數,可以為整數或小數
    • memory:內存大小,可以使用Gi、Mi、G、M等形式
    # 創建Pod [root@k8s-master ~]# kubectl create -f pod-resources.yaml pod/pod-resources created# 查看發現Pod運行正常 [root@k8s-master ~]# kubectl get pod pod-resources -n dev NAME READY STATUS RESTARTS AGE pod-resources 1/1 Running 0 19s

    修改resources.requests.memory的值為10Gi

    apiVersion: v1 kind: Pod metadata:name: pod-resourcesnamespace: dev spec:containers:- name: nginximage: nginx:1.17.1resources: # 資源配額limits: # 限制資源(上限)cpu: "2" # CPU限制,單位是core數memory: "10Gi" # 內存限制requests: # 請求資源(下限)cpu: "1" # CPU限制,單位是core數memory: "10Gi" # 內存限制 # 刪除之前創建的Pod [root@k8s-master ~]# kubectl delete pod pod-resources -n dev pod "pod-resources" deleted# 再次創建Pod [root@k8s-master ~]# kubectl create -f pod-resources.yaml pod/pod-resources created# 查看Pod狀態,發現Pod啟動失敗 [root@k8s-master ~]# kubectl get pod pod-resources -n dev NAME READY STATUS RESTARTS AGE pod-resources 0/1 Pending 0 14s# 查看pod詳情會發現,如下提示 [root@k8s-master ~]# kubectl describe pod pod-resources -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Warning FailedScheduling 49s (x2 over 49s) default-scheduler 0/3 nodes are available: 3 Insufficient memory. # 內存不足

    3、Pod生命周期

    我們一般將Pod對象從創建至終的這段時間范圍稱為Pod的生命周期,它主要包含下面的過程:

    • pod創建過程
    • 運行初始化容器(init container)過程
    • 運行主容器(main container)
      • 容器啟動后鉤子(post start)、容器終止前鉤子(pre stop)
      • 容器的存活性探測(liveness probe)、就緒性探測(readiness probe)
    • pod終止過程

    在整個生命周期中,Pod會出現5種狀態,分別如下:

    • 掛起(Pending):apiserver已經創建了pod資源對象,但它尚未被調度完成或者仍處于下載鏡像的過程中
    • 運行中(Running):pod已經被調度至某節點,并且所有容器都已經被kubelet創建完成
    • 成功(Succeeded):pod中的所有容器都已經成功終止并且不會被重啟
    • 失敗(Failed):所有容器都已經終止,但至少有一個容器終止失敗,即容器返回了非0值的退出狀態
    • 未知(Unknown):apiserver無法正常獲取到pod對象的狀態信息,通常由網絡通信失敗所導致

    1)、創建和終止

    Pod的創建過程

  • 用戶通過kubectl或其他api客戶端提交需要創建的pod信息給apiServer

  • apiServer開始生成pod對象的信息,并將信息存入etcd,然后返回確認信息至客戶端

  • apiServer開始反映etcd中的pod對象的變化,其它組件使用watch機制來跟蹤檢查apiServer上的變動

  • scheduler發現有新的pod對象要創建,開始為Pod分配主機并將結果信息更新至apiServer

  • node節點上的kubelet發現有pod調度過來,嘗試調用docker啟動容器,并將結果回送至apiServer

  • apiServer將接收到的pod狀態信息存入etcd中

  • Pod的終止過程

  • 用戶向apiServer發送刪除pod對象的命令
  • apiServcer中的pod對象信息會隨著時間的推移而更新,在寬限期內(默認30s),pod被視為dead
  • 將pod標記為terminating狀態
  • kubelet在監控到pod對象轉為terminating狀態的同時啟動pod關閉過程
  • 端點控制器監控到pod對象的關閉行為時將其從所有匹配到此端點的service資源的端點列表中移除
  • 如果當前pod對象定義了preStop鉤子處理器,則在其標記為terminating后即會以同步的方式啟動執行
  • pod對象中的容器進程收到停止信號
  • 寬限期結束后,若pod中還存在仍在運行的進程,那么pod對象會收到立即終止的信號
  • kubelet請求apiServer將此pod資源的寬限期設置為0從而完成刪除操作,此時pod對于用戶已不可見
  • 2)、初始化容器

    初始化容器是在Pod的主容器啟動之前要運行的容器,主要是做一些主容器的前置工作,它具有兩大特征:

  • 初始化容器必須運行完成直至結束,若某初始化容器運行失敗,那么Kubernetes需要重啟它直到成功完成
  • 初始化容器必須按照定義的順序執行,當且僅當前一個成功之后,后面的一個才能運行
  • 初始化容器有很多的應用場景,下面列出的是最常見的幾個:

    • 提供主容器鏡像中不具備的工具程序或自定義代碼
    • 初始化容器要先于應用容器串行啟動并運行完成,因此可用于延后應用容器的啟動直至其依賴的條件得到滿足

    接下來做一個案例,模擬下面這個需求:

    假設要以主容器來運行nginx,但是要求在運行nginx之前先要能夠連接上mysql和redis所在服務器

    為了簡化測試,事先規定好mysql(192.168.5.14)和redis(192.168.5.15)服務器的地址

    創建pod-initcontainer.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-initcontainernamespace: dev spec:containers:- name: main-containerimage: nginx:1.17.1ports: - name: nginx-portcontainerPort: 80initContainers:- name: test-mysqlimage: busybox:1.30command: ['sh', '-c', 'until ping 192.168.5.14 -c 1 ; do echo waiting for mysql...; sleep 2; done;']- name: test-redisimage: busybox:1.30command: ['sh', '-c', 'until ping 192.168.5.15 -c 1 ; do echo waiting for reids...; sleep 2; done;']

    兩個initContainer如果ping不通對應IP就會一直sleep下去,不會退出

    # 創建Pod [root@k8s-master ~]# kubectl create -f pod-initcontainer.yaml pod/pod-initcontainer created# 查看pod狀態 # 發現pod卡在啟動第一個初始化容器過程中,后面的容器不會運行 [root@k8s-master ~]# kubectl describe pod pod-initcontainer -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Normal Pulled 74s kubelet, k8s-node2 Container image "busybox:1.30" already present on machineNormal Created 74s kubelet, k8s-node2 Created container test-mysqlNormal Started 74s kubelet, k8s-node2 Started container test-mysqlNormal Scheduled 54s default-scheduler Successfully assigned dev/pod-initcontainer to k8s-node2# 動態查看pod [root@k8s-master ~]# kubectl get pod pod-initcontainer -n dev -w NAME READY STATUS RESTARTS AGE pod-initcontainer 0/1 Init:0/2 0 2m38s

    為Pod所在節點新增兩個IP,觀察Pod的狀態變化

    # 安裝ifconfig [root@k8s-node2 ~]# yum install net-tools -y[root@k8s-node2 ~]# ifconfig enp0s3:1 192.168.5.14 netmask 255.255.255.0 up [root@k8s-node2 ~]# ifconfig enp0s3:1 192.168.5.15 netmask 255.255.255.0 up

    Pod狀態變化如下:

    [root@k8s-master ~]# kubectl get pod pod-initcontainer -n dev -w NAME READY STATUS RESTARTS AGE pod-initcontainer 0/1 Init:0/2 0 2m38s pod-initcontainer 0/1 Init:1/2 0 8m26s pod-initcontainer 0/1 Init:1/2 0 8m27s pod-initcontainer 0/1 PodInitializing 0 9m4s pod-initcontainer 1/1 Running 0 9m5s

    兩個initContainer ping通對應IP后,執行完成,Pod最終創建完成

    3)、鉤子函數

    鉤子函數能夠感知自身生命周期中的事件,并在相應的時刻到來時運行用戶指定的程序代碼

    Kubernetes在主容器的啟動之后和停止之前提供了兩個鉤子函數:

    • post start:容器創建之后執行,如果失敗了會重啟容器
    • pre stop :容器終止之前執行,執行完成之后容器將成功終止,在其完成之前會阻塞刪除容器的操作

    鉤子處理器支持使用下面三種方式定義動作:

    • Exec命令:在容器內執行一次命令
    ......lifecycle:postStart: exec:command:- cat- /tmp/healthy ......
    • TCPSocket:在當前容器嘗試訪問指定的socket
    ......lifecycle:postStart:tcpSocket:port: 8080 ......
    • HTTPGet:在當前容器中向某url發起http請求
    ......lifecycle:postStart:httpGet:path: / # URI地址port: 80 # 端口號host: 127.0.0.1 # 主機地址scheme: HTTP # 支持的協議,http或者https ......

    接下來,以exec方式為例,演示下鉤子函數的使用,創建pod-hook-exec.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-hook-execnamespace: dev spec:containers:- name: main-containerimage: nginx:1.17.1ports:- name: nginx-portcontainerPort: 80lifecycle:postStart: exec: # 在容器啟動的時候執行一個命令,修改掉nginx的默認首頁內容command: ["/bin/sh", "-c", "echo postStart... > /usr/share/nginx/html/index.html"]preStop:exec: # 在容器停止之前停止nginx服務command: ["/usr/sbin/nginx","-s","quit"] # 創建pod [root@k8s-master ~]# kubectl create -f pod-hook-exec.yaml pod/pod-hook-exec created# 查看pod [root@k8s-master ~]# kubectl get pods pod-hook-exec -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-hook-exec 1/1 Running 0 13s 10.244.2.9 k8s-node1 <none> <none># 在k8s-node1節點上(Pod所在的節點)訪問podIp:containerPort # nginx的默認首頁內容已經改為了postStart... [root@k8s-node1 ~]# curl 10.244.2.9 postStart...

    4)、容器探測

    容器探測用于檢測容器中的應用實例是否正常工作,是保障業務可用性的一種傳統機制。如果經過探測,實例的狀態不符合預期,那么Kubernetes就會把該問題實例摘除,不承擔業務流量。Kubernetes提供了兩種探針來實現容器探測,分別是:

    • liveness probes:存活性探針,用于檢測應用實例當前是否處于正常運行狀態,如果不是,k8s會重啟容器
    • readiness probes:就緒性探針,用于檢測應用實例當前是否可以接收請求,如果不能,k8s不會轉發流量

    livenessProbe決定是否重啟容器,readinessProbe決定是否將請求轉發給容器

    上面兩種探針目前均支持三種探測方式:

    • Exec命令:在容器內執行一次命令,如果命令執行的退出碼為0,則認為程序正常,否則不正常
    ......livenessProbe:exec:command:- cat- /tmp/healthy ......
    • TCPSocket:將會嘗試訪問一個用戶容器的端口,如果能夠建立這條連接,則認為程序正常,否則不正常
    ......livenessProbe:tcpSocket:port: 8080 ......
    • HTTPGet:調用容器內web應用的url,如果返回的狀態碼在200和399之間,則認為程序正常,否則不正常
    ......livenessProbe:httpGet:path: / # URI地址port: 80 # 端口號host: 127.0.0.1 # 主機地址scheme: HTTP # 支持的協議,http或者https ......

    下面以liveness probes為例,做幾個演示:

    1)方式一:Exec

    創建pod-liveness-exec.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-liveness-execnamespace: dev spec:containers:- name: nginximage: nginx:1.17.1ports: - name: nginx-portcontainerPort: 80livenessProbe:exec:command: ["/bin/cat","/tmp/hello.txt"] # 執行一個查看文件的命令 # 創建Pod [root@k8s-master ~]# kubectl create -f pod-liveness-exec.yaml pod/pod-liveness-exec created# 查看Pod詳情 [root@k8s-master ~]# kubectl describe pod pod-liveness-exec -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Normal Pulled 41s kubelet, k8s-node2 Container image "nginx:1.17.1" already present on machineNormal Created 41s kubelet, k8s-node2 Created container nginxNormal Started 41s kubelet, k8s-node2 Started container nginxWarning Unhealthy 22s (x2 over 32s) kubelet, k8s-node2 Liveness probe failed: /bin/cat: /tmp/hello.txt: No such file or directoryNormal Scheduled 21s default-scheduler Successfully assigned dev/pod-liveness-exec to k8s-node2# 觀察上面的信息就會發現nginx容器啟動之后就進行了健康檢查 # 檢查失敗之后,容器被kill掉,然后嘗試進行重啟 # 稍等一會之后,再觀察pod信息,就可以看到RESTARTS不再是0,而是一直增長 [root@k8s-master ~]# kubectl get pods pod-liveness-exec -n dev NAME READY STATUS RESTARTS AGE pod-liveness-exec 0/1 CrashLoopBackOff 4 2m52s

    2)方式二:TCPSocket

    創建pod-liveness-tcpsocket.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-liveness-tcpsocketnamespace: dev spec:containers:- name: nginximage: nginx:1.17.1ports: - name: nginx-portcontainerPort: 80livenessProbe:tcpSocket:port: 8080 # 嘗試訪問8080端口 # 創建Pod [root@k8s-master ~]# kubectl create -f pod-liveness-tcpsocket.yaml pod/pod-liveness-tcpsocket created# 查看Pod詳情 [root@k8s-master ~]# kubectl describe pod pod-liveness-tcpsocket -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Normal Scheduled 63s default-scheduler Successfully assigned dev/pod-liveness-tcpsocket to k8s-node1Normal Pulled 4s (x3 over 63s) kubelet, k8s-node1 Container image "nginx:1.17.1" already present on machineNormal Created 4s (x3 over 63s) kubelet, k8s-node1 Created container nginxNormal Started 4s (x3 over 62s) kubelet, k8s-node1 Started container nginxWarning Unhealthy 4s (x6 over 54s) kubelet, k8s-node1 Liveness probe failed: dial tcp 10.244.2.10:8080: connect: connection refusedNormal Killing 4s (x2 over 34s) kubelet, k8s-node1 Container nginx failed liveness probe, will be restarted# 觀察上面的信息,發現嘗試訪問8080端口,但是失敗了 # 稍等一會之后,再觀察pod信息,就可以看到RESTARTS不再是0,而是一直增長 [root@k8s-master ~]# kubectl get pod pod-liveness-tcpsocket -n dev NAME READY STATUS RESTARTS AGE pod-liveness-tcpsocket 0/1 CrashLoopBackOff 4 2m30s

    3)方式三:HTTPGet

    創建pod-liveness-httpget.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-liveness-httpgetnamespace: dev spec:containers:- name: nginximage: nginx:1.17.1ports:- name: nginx-portcontainerPort: 80livenessProbe:httpGet: # 其實就是訪問http://127.0.0.1:80/hello scheme: HTTP # 支持的協議,http或者httpsport: 80 # 端口號path: /hello # URI地址 # 創建Pod [root@k8s-master ~]# kubectl create -f pod-liveness-httpget.yaml pod/pod-liveness-httpget created# 查看Pod詳情 [root@k8s-master ~]# kubectl describe pod pod-liveness-httpget -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Normal Scheduled 39s default-scheduler Successfully assigned dev/pod-liveness-httpget to k8s-node2Normal Pulled 34s (x2 over 59s) kubelet, k8s-node2 Container image "nginx:1.17.1" already present on machineNormal Created 34s (x2 over 59s) kubelet, k8s-node2 Created container nginxNormal Started 34s (x2 over 59s) kubelet, k8s-node2 Started container nginxNormal Killing 34s kubelet, k8s-node2 Container nginx failed liveness probe, will be restartedWarning Unhealthy 24s (x4 over 54s) kubelet, k8s-node2 Liveness probe failed: HTTP probe failed with statuscode: 404# 觀察上面信息,嘗試訪問路徑,但是未找到,出現404錯誤 # 稍等一會之后,再觀察pod信息,就可以看到RESTARTS不再是0,而是一直增長 [root@k8s-master ~]# kubectl get pod pod-liveness-httpget -n dev NAME READY STATUS RESTARTS AGE pod-liveness-httpget 0/1 CrashLoopBackOff 4 2m26s

    4)liveness其他配置

    livenessProbe的子屬性除了這三種方式,還有一些其他的配置:

    [root@k8s-master01 ~]# kubectl explain pod.spec.containers.livenessProbe [root@k8s-master ~]# kubectl explain pod.spec.containers.livenessProbe KIND: Pod VERSION: v1 RESOURCE: livenessProbe <Object> FIELDS:exec <Object>failureThreshold <integer> # 連續探測失敗多少次才被認定為失敗。默認是3,最小值是1httpGet <Object>initialDelaySeconds <integer> # 容器啟動后等待多少秒執行第一次探測periodSeconds <integer> # 執行探測的頻率。默認是10秒,最小1秒successThreshold <integer> # 連續探測成功多少次才被認定為成功。默認是1tcpSocket <Object>timeoutSeconds <integer> # 探測超時時間。默認1秒,最小1秒

    5)、重啟策略

    在上一節中,一旦容器探測出現了問題,Kubernetes就會對容器所在的Pod進行重啟,其實這是由Pod的重啟策略決定的,Pod的重啟策略有3種,分別如下:

    • Always:容器失效時,自動重啟該容器,這也是默認值
    • OnFailure:容器終止運行且退出碼不為0時重啟
    • Never:不論狀態為何,都不重啟該容器

    重啟策略適用于Pod對象中的所有容器,首次需要重啟的容器,將在其需要時立即進行重啟,隨后再次需要重啟的操作將由kubelet延遲一段時間后進行,且反復的重啟操作的延遲時長以此為10s、20s、40s、80s、160s和300s,300s是最大延遲時長

    創建pod-restartpolicy.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-restartpolicynamespace: dev spec:containers:- name: nginximage: nginx:1.17.1ports:- name: nginx-portcontainerPort: 80livenessProbe:httpGet:scheme: HTTPport: 80path: /hellorestartPolicy: Never # 設置重啟策略為Never # 創建Pod [root@k8s-master ~]# kubectl create -f pod-restartpolicy.yaml pod/pod-restartpolicy created# 查看Pod詳情,發現nginx容器失敗 [root@k8s-master ~]# kubectl describe pod pod-restartpolicy -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Normal Pulled 48s kubelet, k8s-node2 Container image "nginx:1.17.1" already present on machineNormal Created 48s kubelet, k8s-node2 Created container nginxNormal Started 48s kubelet, k8s-node2 Started container nginxNormal Scheduled 28s default-scheduler Successfully assigned dev/pod-restartpolicy to k8s-node2Warning Unhealthy 23s (x3 over 43s) kubelet, k8s-node2 Liveness probe failed: HTTP probe failed with statuscode: 404Normal Killing 23s kubelet, k8s-node2 Stopping container nginx# 多等一會,再觀察pod的重啟次數,發現一直是0,并未重啟 [root@k8s-master ~]# kubectl get pod pod-restartpolicy -n dev NAME READY STATUS RESTARTS AGE pod-restartpolicy 0/1 Completed 0 4m10s

    4、Pod調度

    在默認情況下,一個Pod在哪個Node節點上運行,是由Scheduler組件采用相應的算法計算出來的,這個過程是不受人工控制的。但是在實際使用中,這并不滿足的需求,因為很多情況下,我們想控制某些Pod到達某些節點上,那么應該怎么做呢?這就要求了解Kubernetes對Pod的調度規則,Kubernetes提供了四大類調度方式:

    • 自動調度:運行在哪個節點上完全由Scheduler經過一系列的算法計算得出
    • 定向調度:NodeName、NodeSelector
    • 親和性調度:NodeAffinity、PodAffinity、PodAntiAffinity
    • 污點(容忍)調度:Taints、Toleration

    1)、定向調度

    定向調度:指的是利用在Pod上聲明nodeName或者nodeSelector,以此將Pod調度到期望的Node節點上。注意,這里的調度是強制的,這就意味著即使要調度的目標Node不存在,也會向上面進行調度,只不過Pod運行失敗而已

    1)NodeName

    創建pod-nodename.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-nodenamenamespace: dev spec:containers:- name: nginximage: nginx:1.17.1nodeName: k8s-node1 # 指定調度到k8s-node1節點上 # 創建Pod [root@k8s-master ~]# kubectl create -f pod-nodename.yaml pod/pod-nodename created# 查看Pod調度到NODE屬性,確實是調度到了k8s-node1節點上 [root@k8s-master ~]# kubectl get pod pod-nodename -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-nodename 1/1 Running 0 28s 10.244.2.11 k8s-node1 <none> <none>

    修改nodeName的值為k8s-node3(并沒有k8s-node3節點)

    apiVersion: v1 kind: Pod metadata:name: pod-nodenamenamespace: dev spec:containers:- name: nginximage: nginx:1.17.1nodeName: k8s-node3 # 指定調度到k8s-node3節點上 # 刪除之前創建的Pod,重新創建Pod [root@k8s-master ~]# kubectl delete pod pod-nodename -n dev pod "pod-nodename" deleted [root@k8s-master ~]# kubectl create -f pod-nodename.yaml pod/pod-nodename created#再次查看,發現已經向k8s-node3節點調度,但是由于不存在k8s-node3節點,所以Pod無法正常運行 [root@k8s-master ~]# kubectl get pod pod-nodename -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-nodename 0/1 Pending 0 8s <none> k8s-node3 <none> <none>

    2)NodeSelector

    NodeSelector用于將Pod調度到添加了指定標簽的Node節點上。它是通過Kubernetes的label-selector機制實現的,也就是說,在Pod創建之前,會由Scheduler使用MatchNodeSelector調度策略進行label匹配,找出目標Node,然后將Pod調度到目標節點,該匹配規則是強制約束

    # 分別為node節點添加標簽 [root@k8s-master ~]# kubectl label node k8s-node1 nodeenv=pro node/k8s-node1 labeled [root@k8s-master ~]# kubectl label node k8s-node2 nodeenv=test node/k8s-node2 labeled# 查看node節點標簽 [root@k8s-master ~]# kubectl get node --show-labels NAME STATUS ROLES AGE VERSION LABELS k8s-master Ready master 19h v1.18.0 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=k8s-master,kubernetes.io/os=linux,node-role.kubernetes.io/master= k8s-node1 Ready <none> 19h v1.18.0 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=k8s-node1,kubernetes.io/os=linux,nodeenv=pro k8s-node2 Ready <none> 19h v1.18.0 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=k8s-node2,kubernetes.io/os=linux,nodeenv=test

    創建pod-nodeselector.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-nodeselectornamespace: dev spec:containers:- name: nginximage: nginx:1.17.1nodeSelector: nodeenv: pro # 指定調度到具有nodeenv=pro標簽的節點上 # 創建Pod [root@k8s-master ~]# kubectl create -f pod-nodeselector.yaml pod/pod-nodeselector created# 查看Pod調度到NODE屬性,確實是調度到了k8s-node1節點上 [root@k8s-master ~]# kubectl get pod pod-nodeselector -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-nodeselector 1/1 Running 0 29s 10.244.2.12 k8s-node1 <none> <none>

    修改nodeSelector的值為nodeenv: xxx(不存在打有此標簽的節點)

    apiVersion: v1 kind: Pod metadata:name: pod-nodeselectornamespace: dev spec:containers:- name: nginximage: nginx:1.17.1nodeSelector:nodeenv: xxx # 指定調度到具有nodeenv=xxx標簽的節點上 # 刪除之前創建的Pod,重新創建Pod [root@k8s-master ~]# kubectl delete pod pod-nodeselector -n dev pod "pod-nodeselector" deleted [root@k8s-master ~]# kubectl create -f pod-nodeselector.yaml pod/pod-nodeselector created# 再次查看,發現Pod無法正常運行,Node的值為none [root@k8s-master ~]# kubectl get pod pod-nodeselector -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-nodeselector 0/1 Pending 0 26s <none> <none> <none> <none># 查看詳情,發現node selector匹配失敗的提示 [root@k8s-master ~]# kubectl describe pod pod-nodeselector -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Warning FailedScheduling 46s (x2 over 47s) default-scheduler 0/3 nodes are available: 3 node(s) didn't match node selector.

    2)、親和性調度

    上一節,介紹了兩種定向調度的方式,使用起來非常方便,但是也有一定的問題,那就是如果沒有滿足條件的Node,那么Pod將不會被運行,即使在集群中還有可用Node列表也不行,這就限制了它的使用場景

    基于上面的問題,Kubernetes還提供了一種親和性調度(Affinity)。它在NodeSelector的基礎之上的進行了擴展,可以通過配置的形式,實現優先選擇滿足條件的Node進行調度,如果沒有,也可以調度到不滿足條件的節點上,使調度更加靈活

    Affinity主要分為三類:

    • nodeAffinity(node親和性): 以node為目標,解決pod可以調度到哪些node的問題
    • podAffinity(pod親和性) : 以pod為目標,解決pod可以和哪些已存在的pod部署在同一個拓撲域中的問題
    • podAntiAffinity(pod反親和性) : 以pod為目標,解決pod不能和哪些已存在pod部署在同一個拓撲域中的問題

    關于親和性(反親和性)使用場景的說明:

    • 親和性:如果兩個應用頻繁交互,那就有必要利用親和性讓兩個應用的盡可能的靠近,這樣可以減少因網絡通信而帶來的性能損耗
    • 反親和性:當應用的采用多副本部署時,有必要采用反親和性讓各個應用實例打散分布在各個node上,這樣可以提高服務的高可用性

    1)nodeAffinity

    首先來看一下nodeAffinity的可配置項:

    pod.spec.affinity.nodeAffinityrequiredDuringSchedulingIgnoredDuringExecution Node節點必須滿足指定的所有規則才可以,相當于硬限制nodeSelectorTerms 節點選擇列表matchFields 按節點字段列出的節點選擇器要求列表matchExpressions 按節點標簽列出的節點選擇器要求列表(推薦)key 鍵values 值operator 關系符 支持Exists, DoesNotExist, In, NotIn, Gt, LtpreferredDuringSchedulingIgnoredDuringExecution 優先調度到滿足指定的規則的Node,相當于軟限制 (傾向)preference 一個節點選擇器項,與相應的權重相關聯matchFields 按節點字段列出的節點選擇器要求列表matchExpressions 按節點標簽列出的節點選擇器要求列表(推薦)key 鍵values 值operator 關系符,支持In、NotIn、Exists、DoesNotExist、Gt、Ltweight 傾向權重,在范圍1-100

    關系符的使用說明:

    - matchExpressions:- key: nodeenv # 匹配存在標簽的key為nodeenv的節點operator: Exists- key: nodeenv # 匹配標簽的key為nodeenv,且value是"xxx"或"yyy"的節點operator: Invalues: ["xxx","yyy"]- key: nodeenv # 匹配標簽的key為nodeenv,且value大于"xxx"的節點operator: Gtvalues: "xxx"

    接下來演示一下requiredDuringSchedulingIgnoredDuringExecution:

    創建pod-nodeaffinity-required.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-nodeaffinity-requirednamespace: dev spec:containers:- name: nginximage: nginx:1.17.1affinity: # 親和性設置nodeAffinity: # 設置node親和性requiredDuringSchedulingIgnoredDuringExecution: # 硬限制nodeSelectorTerms:- matchExpressions: # 匹配nodeenv的值在["xxx","yyy"]中的標簽- key: nodeenvoperator: Invalues: ["xxx","yyy"] # 創建Pod [root@k8s-master ~]# kubectl create -f pod-nodeaffinity-required.yaml pod/pod-nodeaffinity-required created# 查看Pod狀態(運行失敗) [root@k8s-master ~]# kubectl get pod pod-nodeaffinity-required -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-nodeaffinity-required 0/1 Pending 0 19s <none> <none> <none> <none># 查看Pod的詳情 # 發現調度失敗,提示node選擇失敗 [root@k8s-master ~]# kubectl describe pod pod-nodeaffinity-required -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Warning FailedScheduling 66s (x2 over 66s) default-scheduler 0/3 nodes are available: 3 node(s) didn't match node selector.

    修改matchExpressions匹配nodeenv的值在["pro","yyy"]中的標簽

    apiVersion: v1 kind: Pod metadata:name: pod-nodeaffinity-requirednamespace: dev spec:containers:- name: nginximage: nginx:1.17.1affinity: # 親和性設置nodeAffinity: # 設置node親和性requiredDuringSchedulingIgnoredDuringExecution: # 硬限制nodeSelectorTerms:- matchExpressions: # 匹配nodeenv的值在["pro","yyy"]中的標簽- key: nodeenvoperator: Invalues: ["pro","yyy"] # 刪除之前創建的Pod,重新創建Pod [root@k8s-master ~]# kubectl delete pod pod-nodeaffinity-required -n dev pod "pod-nodeaffinity-required" deleted [root@k8s-master ~]# kubectl create -f pod-nodeaffinity-required.yaml pod/pod-nodeaffinity-required created# 此時查看,發現調度成功,已經將Pod調度到了k8s-node1上 [root@k8s-master ~]# kubectl get pod pod-nodeaffinity-required -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-nodeaffinity-required 1/1 Running 0 20s 10.244.2.13 k8s-node1 <none> <none>

    再演示一下requiredDuringSchedulingIgnoredDuringExecution:

    創建pod-nodeaffinity-preferred.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-nodeaffinity-preferrednamespace: dev spec:containers:- name: nginximage: nginx:1.17.1affinity: # 親和性設置nodeAffinity: # 設置node親和性preferredDuringSchedulingIgnoredDuringExecution: # 軟限制- weight: 1preference:matchExpressions: # 匹配nodeenv的值在["xxx","yyy"]中的標簽(當前環境沒有)- key: nodeenvoperator: Invalues: ["xxx","yyy"] # 創建Pod [root@k8s-master ~]# kubectl create -f pod-nodeaffinity-preferred.yaml pod/pod-nodeaffinity-preferred created# 查看Pod狀態(運行成功) [root@k8s-master ~]# kubectl get pod pod-nodeaffinity-preferred -n dev NAME READY STATUS RESTARTS AGE pod-nodeaffinity-preferred 1/1 Running 0 13s

    NodeAffinity規則設置的注意事項:

  • 如果同時定義了nodeSelector和nodeAffinity,那么必須兩個條件都得到滿足,Pod才能運行在指定的Node上
  • 如果nodeAffinity指定了多個nodeSelectorTerms,那么只需要其中一個能夠匹配成功即可
  • 如果一個nodeSelectorTerms中有多個matchExpressions ,則一個節點必須滿足所有的才能匹配成功
  • 如果一個Pod所在的Node在Pod運行期間其標簽發生了改變,不再符合該Pod的節點親和性需求,則系統將忽略此變化
  • 2)podAffinity

    podAffinity主要實現以運行的Pod為參照,實現讓新創建的Pod跟參照Pod在一個區域的功能

    首先來看一下podAffinity的可配置項:

    pod.spec.affinity.podAffinityrequiredDuringSchedulingIgnoredDuringExecution 硬限制namespaces 指定參照pod的namespacetopologyKey 指定調度作用域labelSelector 標簽選擇器matchExpressions 按節點標簽列出的節點選擇器要求列表(推薦)key 鍵values 值operator 關系符,支持In、NotIn、Exists、DoesNotExistmatchLabels 指多個matchExpressions映射的內容preferredDuringSchedulingIgnoredDuringExecution 軟限制podAffinityTerm 選項namespaces topologyKeylabelSelectormatchExpressions key 鍵values 值operatormatchLabels weight 傾向權重,在范圍1-100

    topologyKey用于指定調度時作用域,例如:

    • 如果指定為kubernetes.io/hostname,那就是以Node節點為區分范圍
    • 如果指定為beta.kubernetes.io/os,則以Node節點的操作系統類型來區分

    接下來演示一下requiredDuringSchedulingIgnoredDuringExecution:

    首先創建一個參照Pod,pod-podaffinity-target.yaml:

    apiVersion: v1 kind: Pod metadata:name: pod-podaffinity-targetnamespace: devlabels:podenv: pro # 設置標簽 spec:containers:- name: nginximage: nginx:1.17.1nodeName: k8s-node1 # 將目標Pod名確指定到k8s-node1上 # 創建參照Pod [root@k8s-master ~]# kubectl create -f pod-podaffinity-target.yaml pod/pod-podaffinity-target created# 查看Pod,已經將Pod調度到了k8s-node1上 [root@k8s-master ~]# kubectl get pod pod-podaffinity-target -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-podaffinity-target 1/1 Running 0 15s 10.244.2.14 k8s-node1 <none> <none>

    創建pod-podaffinity-required.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-podaffinity-requirednamespace: dev spec:containers:- name: nginximage: nginx:1.17.1affinity: # 親和性設置podAffinity: # 設置pod親和性requiredDuringSchedulingIgnoredDuringExecution: # 硬限制- labelSelector:matchExpressions: # 匹配podenv的值在["xxx","yyy"]中的標簽- key: podenvoperator: Invalues: ["xxx","yyy"]topologyKey: kubernetes.io/hostname

    上面配置表達的意思是:新Pod必須要與擁有標簽podenv=xxx或者podenv=yyy的Pod在同一Node上,顯然現在沒有這樣Pod

    # 創建Pod [root@k8s-master ~]# kubectl create -f pod-podaffinity-required.yaml pod/pod-podaffinity-required created# 查看pod狀態,發現未運行 [root@k8s-master ~]# kubectl get pod pod-podaffinity-required -n dev NAME READY STATUS RESTARTS AGE pod-podaffinity-required 0/1 Pending 0 21s# 查看詳情 [root@k8s-master ~]# kubectl describe pod pod-podaffinity-required -n dev ...... Events:Type Reason Age From Message---- ------ ---- ---- -------Warning FailedScheduling 56s (x2 over 56s) default-scheduler 0/3 nodes are available: 1 node(s) had taint {node-role.kubernetes.io/master: }, that the pod didn't tolerate, 2 node(s) didn't match pod affinity rules, 2 node(s) didn't match pod affinity/anti-affinity.

    修改matchExpressions匹配podenv的值在["pro","yyy"]中的標簽

    apiVersion: v1 kind: Pod metadata:name: pod-podaffinity-requirednamespace: dev spec:containers:- name: nginximage: nginx:1.17.1affinity: # 親和性設置podAffinity: # 設置pod親和性requiredDuringSchedulingIgnoredDuringExecution: # 硬限制- labelSelector:matchExpressions: # 匹配podenv的值在["pro","yyy"]中的標簽- key: podenvoperator: Invalues: ["pro","yyy"]topologyKey: kubernetes.io/hostname # 刪除之前創建的Pod,重新創建Pod [root@k8s-master ~]# kubectl delete pod pod-podaffinity-required -n dev pod "pod-podaffinity-required" deleted [root@k8s-master ~]# kubectl create -f pod-podaffinity-required.yaml pod/pod-podaffinity-required created# 查看Pod,已經將Pod調度到了k8s-node1上(和參照Pod在同一節點上) [root@k8s-master ~]# kubectl get pod pod-podaffinity-required -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-podaffinity-required 1/1 Running 0 31s 10.244.2.15 k8s-node1 <none> <none>

    3)podAntiAffinity

    podAntiAffinity主要實現以運行的Pod為參照,讓新創建的Pod跟參照Pod不在一個區域中的功能

    它的配置方式和選項跟podAffinty是一樣的,這里不再做詳細解釋,直接做一個測試案例

    繼續使用上個案例中目標Pod

    [root@k8s-master ~]# kubectl get pod pod-podaffinity-target -n dev -o wide --show-labels NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES LABELS pod-podaffinity-target 1/1 Running 0 18m 10.244.2.14 k8s-node1 <none> <none> podenv=pro

    創建pod-podantiaffinity-required.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-podantiaffinity-requirednamespace: dev spec:containers:- name: nginximage: nginx:1.17.1affinity: # 親和性設置podAntiAffinity: # 設置pod親和性requiredDuringSchedulingIgnoredDuringExecution: # 硬限制- labelSelector:matchExpressions: # 匹配podenv的值在["pro"]中的標簽- key: podenvoperator: Invalues: ["pro"]topologyKey: kubernetes.io/hostname

    上面配置表達的意思是:新Pod必須要與擁有標簽podenv=pro的Pod不在同一Node上

    # 創建Pod [root@k8s-master ~]# kubectl create -f pod-podantiaffinity-required.yaml pod/pod-podantiaffinity-required created# 查看Pod,已經將Pod調度到了k8s-node2上(和參照Pod不在同一節點上) [root@k8s-master ~]# kubectl get pod pod-podantiaffinity-required -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-podantiaffinity-required 1/1 Running 0 11s 10.244.1.13 k8s-node2 <none> <none>

    3)、污點和容忍

    1)污點(Taints)

    前面的調度方式都是站在Pod的角度上,通過在Pod上添加屬性,來確定Pod是否要調度到指定的Node上,其實我們也可以站在Node的角度上,通過在Node上添加污點屬性,來決定是否允許Pod調度過來

    Node被設置上污點之后就和Pod之間存在了一種相斥的關系,進而拒絕Pod調度進來,甚至可以將已經存在的Pod驅逐出去

    污點的格式為:key=value:effect, key和value是污點的標簽,effect描述污點的作用,支持如下三個選項:

    • PreferNoSchedule:Kubernetes將盡量避免把Pod調度到具有該污點的Node上,除非沒有其他節點可調度
    • NoSchedule:Kubernetes將不會把Pod調度到具有該污點的Node上,但不會影響當前Node上已存在的Pod
    • NoExecute:Kubernetes將不會把Pod調度到具有該污點的Node上,同時也會將Node上已存在的Pod驅離

    使用kubectl設置和去除污點的命令示例如下:

    # 設置污點 kubectl taint node k8s-node1 key=value:effect# 去除污點 kubectl taint node k8s-node1 key:effect-# 去除所有污點 kubectl taint node k8s-node1 key-

    接下來,演示下污點的效果:

  • 準備節點k8s-node1(為了演示效果更加明顯,暫時停止k8s-node2節點)
  • 為k8s-node1節點設置一個污點: tag=test:PreferNoSchedule;然后創建pod1(pod1可以)
  • 修改為k8s-node1節點設置一個污點: tag=test:NoSchedule;然后創建pod2(pod1正常,pod2失敗)
  • 修改為k8s-node1節點設置一個污點: tag=test:NoExecute;然后創建pod3(3個pod都失敗)
  • 暫時停止k8s-node2節點,關閉該節點的虛擬機,關閉后k8s-node2狀態為NotReady:

    [root@k8s-master ~]# kubectl get node NAME STATUS ROLES AGE VERSION k8s-master Ready master 21h v1.18.0 k8s-node1 Ready <none> 21h v1.18.0 k8s-node2 NotReady <none> 21h v1.18.0 # 為k8s-node1設置污點(PreferNoSchedule) [root@k8s-master ~]# kubectl taint node k8s-node1 tag=test:PreferNoSchedule node/k8s-node1 tainted [root@k8s-master ~]# kubectl describe node k8s-node1 Name: k8s-node1 Roles: <none> Labels: beta.kubernetes.io/arch=amd64beta.kubernetes.io/os=linuxkubernetes.io/arch=amd64kubernetes.io/hostname=k8s-node1kubernetes.io/os=linuxnodeenv=pro Annotations: flannel.alpha.coreos.com/backend-data: {"VNI":1,"VtepMAC":"3a:ce:27:0c:c1:6c"}flannel.alpha.coreos.com/backend-type: vxlanflannel.alpha.coreos.com/kube-subnet-manager: trueflannel.alpha.coreos.com/public-ip: 10.0.2.15kubeadm.alpha.kubernetes.io/cri-socket: /var/run/dockershim.socknode.alpha.kubernetes.io/ttl: 0volumes.kubernetes.io/controller-managed-attach-detach: true CreationTimestamp: Mon, 07 Feb 2022 10:13:56 +0800 Taints: tag=test:PreferNoSchedule ......# 創建pod1 [root@k8s-master ~]# kubectl run taint1 --image=nginx:1.17.1 -n dev pod/taint1 created [root@k8s-master ~]# kubectl get pod -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES taint1 1/1 Running 0 14s 10.244.2.17 k8s-node1 <none> <none># 為k8s-node1設置污點(取消PreferNoSchedule,設置NoSchedule) [root@k8s-master ~]# kubectl taint node k8s-node1 tag:PreferNoSchedule- node/k8s-node1 untainted [root@k8s-master ~]# kubectl taint node k8s-node1 tag=test:NoSchedule node/k8s-node1 tainted [root@k8s-master ~]# kubectl describe node k8s-node1 Name: k8s-node1 Roles: <none> Labels: beta.kubernetes.io/arch=amd64beta.kubernetes.io/os=linuxkubernetes.io/arch=amd64kubernetes.io/hostname=k8s-node1kubernetes.io/os=linuxnodeenv=pro Annotations: flannel.alpha.coreos.com/backend-data: {"VNI":1,"VtepMAC":"3a:ce:27:0c:c1:6c"}flannel.alpha.coreos.com/backend-type: vxlanflannel.alpha.coreos.com/kube-subnet-manager: trueflannel.alpha.coreos.com/public-ip: 10.0.2.15kubeadm.alpha.kubernetes.io/cri-socket: /var/run/dockershim.socknode.alpha.kubernetes.io/ttl: 0volumes.kubernetes.io/controller-managed-attach-detach: true CreationTimestamp: Mon, 07 Feb 2022 10:13:56 +0800 Taints: tag=test:NoSchedule ......# 創建pod2 [root@k8s-master ~]# kubectl run taint2 --image=nginx:1.17.1 -n dev pod/taint2 created [root@k8s-master ~]# kubectl get pod -n dev -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES taint1 1/1 Running 0 3m16s 10.244.2.17 k8s-node1 <none> <none> taint2 0/1 Pending 0 52s <none> <none> <none> <none># 為k8s-node1設置污點(取消NoSchedule,設置NoExecute) [root@k8s-master ~]# kubectl taint node k8s-node1 tag:NoSchedule- node/k8s-node1 untainted [root@k8s-master ~]# kubectl taint node k8s-node1 tag=test:NoExecute node/k8s-node1 tainted [root@k8s-master ~]# kubectl describe node k8s-node1 Name: k8s-node1 Roles: <none> Labels: beta.kubernetes.io/arch=amd64beta.kubernetes.io/os=linuxkubernetes.io/arch=amd64kubernetes.io/hostname=k8s-node1kubernetes.io/os=linuxnodeenv=pro Annotations: flannel.alpha.coreos.com/backend-data: {"VNI":1,"VtepMAC":"3a:ce:27:0c:c1:6c"}flannel.alpha.coreos.com/backend-type: vxlanflannel.alpha.coreos.com/kube-subnet-manager: trueflannel.alpha.coreos.com/public-ip: 10.0.2.15kubeadm.alpha.kubernetes.io/cri-socket: /var/run/dockershim.socknode.alpha.kubernetes.io/ttl: 0volumes.kubernetes.io/controller-managed-attach-detach: true CreationTimestamp: Mon, 07 Feb 2022 10:13:56 +0800 Taints: tag=test:NoExecute ......# 創建pod3 [root@k8s-master ~]# kubectl run taint3 --image=nginx:1.17.1 -n dev pod/taint3 created # 之前創建的pod1和pod2已被刪除,pod3也無法調度 [root@k8s-master ~]# kubectl get pod -n dev NAME READY STATUS RESTARTS AGE taint3 0/1 Pending 0 11s

    小提示:

    使用kubeadm搭建的集群,默認就會給master節點添加一個污點標記,所以Pod就不會調度到master節點上

    2)容忍(Toleration)

    上面介紹了污點的作用,我們可以在Node上添加污點用于拒絕Pod調度上來,但是如果就是想將一個Pod調度到一個有污點的Node上去,這時候應該怎么做呢?這就要使用到容忍

    污點就是拒絕,容忍就是忽略,Node通過污點拒絕Pod調度上去,Pod通過容忍忽略拒絕

    下面先通過一個案例看下效果:

  • 上一小節,已經在k8s-node1節點上打上了NoExecute的污點,此時Pod是調度不上去的
  • 本小節,可以通過給Pod添加容忍,然后將其調度上去
  • 創建pod-toleration.yaml文件,內容如下:

    apiVersion: v1 kind: Pod metadata:name: pod-tolerationnamespace: dev spec:containers:- name: nginximage: nginx:1.17.1tolerations: # 添加容忍- key: "tag" # 要容忍的污點的keyoperator: "Equal" # 操作符value: "test" # 容忍的污點的valueeffect: "NoExecute" # 添加容忍的規則,這里必須和標記的污點規則相同 # 創建Pod [root@k8s-master ~]# kubectl create -f pod-toleration.yaml pod/pod-toleration created# 添加容忍的pod創建成功(pod-toleration),沒有容忍規則的pod(taint3)依然無法創建 [root@k8s-master ~]# kubectl get pod -n dev NAME READY STATUS RESTARTS AGE pod-toleration 1/1 Running 0 8s taint3 0/1 Pending 0 7m10s

    下面看一下容忍的詳細配置:

    [root@k8s-master ~]# kubectl explain pod.spec.tolerations KIND: Pod VERSION: v1 RESOURCE: tolerations <[]Object> FIELDS:effect <string> # 對應污點的effect,空意味著匹配所有影響key <string> # 對應著要容忍的污點的鍵,空意味著匹配所有的鍵operator <string> # key-value的運算符,支持Equal和Exists(默認)tolerationSeconds <integer> # 容忍時間,當effect為NoExecute時生效,表示pod在Node上的停留時間value <string> # 對應著要容忍的污點的值

    5、容器設計模式

    1)、案例

    比如,現在要發布一個應用,這個應用是Java寫的,有一個war包需要把它放到Tomcat的web APP目錄下面,這樣就可以把它啟動起來了。可是像這樣一個war包或Tomcat這樣一個容器的話,怎么去做,怎么去發布?

    • 方法一:可以把war包和Tomcat打包放進一個鏡像里面。但是這樣帶來一個問題,無論是要更新war包還是要更新Tomcat,都要重新做一個新的鏡像,這是比較麻煩的

    • 方式二:鏡像里面只打包Tomcat。它就是一個Tomcat,但是需要使用數據卷的方式,比如說hostPath,從宿主機上把war包掛載進Tomcat容器中,掛到web APP目錄下面,這樣把這個容器啟用起來之后,里面就能用了。這樣做的問題是需要維護一套分布式存儲系統。因為這個容器可能第一次啟動是在宿主機A上面,第二次重新啟動就可能跑到B上去了,容器它是一個可遷移的東西,它的狀態是不保持的。所以必須維護一套分布式存儲系統,使容器不管是在A還是在B上,都可以找到這個war包

    2)、InitContainer

    在上圖的yaml里,首先定義一個Init Container,它只做一件事情,就是把war包從鏡像里拷貝到一個Volume里面,它做完這個操作就退出了,所以Init Container會比用戶容器先啟動,并且嚴格按照定義順序來依次執行

    然后,這個關鍵在于剛剛拷貝到的這樣一個目的目錄:APP目錄,實際上是一個Volume。而一個Pod里面的多個容器,它們是可以共享Volume的,所以現在這個Tomcat容器,只是打包了一個Tomcat鏡像。但在啟動的時候,要聲明使用APP目錄作為我的Volume,并且要把它們掛載在web APP目錄下面

    而這個時候,由于前面已經運行過了一個Init Container,已經執行完拷貝操作了,所以這個Volume里面已經存在了應用的war包:就是sample.war。等到第二步執行啟動這個Tomcat容器的時候,去掛這個Volume,一定能在里面找到前面拷貝來的sample.war

    所以這是一個通過組合兩個不同角色的容器,并且按照這樣一些像Init Container這樣一種編排方式,統一的去打包這樣一個應用,把它用Pod來去做的非常典型的一個例子。像這樣的一個概念,在Kubernetes里面就是一個非常經典的容器設計模式,叫做Sidecar

    3)、容器設計模式:Sidecar

    什么是Sidecar?就是說其實在Pod里面,可以定義一些專門的容器,來執行主業務容器所需要的一些輔助工作

    這種做法一個非常明顯的優勢就是在于其實將輔助功能從我的業務容器解耦了,所以能夠獨立發布Sidecar容器,并且更重要的是這個能力是可以重用的,即同樣的一個監控Sidecar或者日志Sidecar,可以被全公司的人共用的

    1)Sidecar:應用與日志收集

    應用日志收集,業務容器將日志寫在一個Volume里面,而由于Volume在Pod里面是被共享的,所以日志容器——即Sidecar容器一定可以通過共享該Volume,直接把日志文件讀出來,然后存到遠程存儲里面,或者轉發到另外一個例子?,F在業界常用的Fluentd日志進程或日志組件,基本上都是這樣的工作方式

    2)Sidecar:代理容器

    假如現在有個Pod需要訪問一個外部系統,或者一些外部服務,但是這些外部系統是一個集群,那么這個時候如何通過一個統一的、簡單的方式,用一個IP地址,就把這些集群都訪問到?有一種方法就是:修改代碼。因為代碼里記錄了這些集群的地址;另外還有一種解耦的方法,即通過Sidecar代理容器

    簡單說,單獨寫一個這么小的Proxy,用來處理對接外部的服務集群,它對外暴露出來只有一個IP地址就可以了。所以接下來,業務容器主要訪問Proxy,然后由Proxy去連接這些服務集群,這里的關鍵在于Pod里面多個容器是通過localhost直接通信的,因為它們同屬于一個network Namespace,網絡視圖都一樣,所以它們倆通信localhost,并沒有性能損耗

    所以說代理容器除了做了解耦之外,并不會降低性能,更重要的是,像這樣一個代理容器的代碼就又可以被全公司重用了

    3)Sidecar:適配器容器

    比如,現在業務容器暴露出來的監控接口是/metrics,訪問這個這個容器的metrics的這個URL就可以拿到了。可是現在,這個監控系統升級了,它訪問的URL是/health,我只認得暴露出health健康檢查的URL,才能去做監控,metrics不認識。那這個怎么辦?那就需要改代碼了,但可以不去改代碼,而是額外寫一個Adapter,用來把所有對health的這個請求轉發給metrics就可以了,所以這個Adapter對外暴露的是health這樣一個監控的URL,這就可以了

    這樣的關鍵還在于Pod之中的容器是通過localhost直接通信的,所以沒有性能損耗,并且這樣一個Adapter容器可以被全公司重用起來

    參考

    Kubernetes(K8S) 入門進階實戰完整教程,黑馬程序員K8S全套教程(基礎+高級)

    極客時間 《深入剖析Kubernetes》

    云原生技術公開課

    總結

    以上是生活随笔為你收集整理的Kubernetes学习笔记(一):Pod详解:Pod配置、Pod生命周期、Pod调度、容器设计模式的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    男人扒开女人内裤强吻桶进去 | 亚洲人成无码网www | 久久久无码中文字幕久... | 在线天堂新版最新版在线8 | 300部国产真实乱 | 5858s亚洲色大成网站www | 日日天日日夜日日摸 | 成人一区二区免费视频 | 曰本女人与公拘交酡免费视频 | 国产9 9在线 | 中文 | 牲欲强的熟妇农村老妇女 | 少妇无套内谢久久久久 | 野外少妇愉情中文字幕 | 亚洲熟妇色xxxxx亚洲 | 兔费看少妇性l交大片免费 | 亚洲国产日韩a在线播放 | 亚洲乱码中文字幕在线 | 曰韩少妇内射免费播放 | 色诱久久久久综合网ywww | 永久免费精品精品永久-夜色 | 骚片av蜜桃精品一区 | 婷婷五月综合激情中文字幕 | 国产真实伦对白全集 | 377p欧洲日本亚洲大胆 | 99在线 | 亚洲 | 亚洲伊人久久精品影院 | 亚洲成熟女人毛毛耸耸多 | 成人毛片一区二区 | 青草青草久热国产精品 | 黄网在线观看免费网站 | 亚洲日韩中文字幕在线播放 | 丰满岳乱妇在线观看中字无码 | 久久人人97超碰a片精品 | 亚洲国产一区二区三区在线观看 | 日本精品人妻无码77777 天堂一区人妻无码 | 久久国产精品精品国产色婷婷 | 台湾无码一区二区 | 男女猛烈xx00免费视频试看 | 国产激情一区二区三区 | 国产区女主播在线观看 | 丰满肥臀大屁股熟妇激情视频 | 麻豆国产丝袜白领秘书在线观看 | 98国产精品综合一区二区三区 | 51国偷自产一区二区三区 | 波多野结衣av在线观看 | 少妇无套内谢久久久久 | 人人妻人人澡人人爽欧美精品 | 国产精品鲁鲁鲁 | 女人和拘做爰正片视频 | 极品尤物被啪到呻吟喷水 | 天天摸天天透天天添 | 大肉大捧一进一出好爽视频 | 性欧美大战久久久久久久 | 日本一区二区三区免费播放 | 国产亚洲精品久久久久久大师 | 亚洲啪av永久无码精品放毛片 | 国产精品第一区揄拍无码 | 精品乱子伦一区二区三区 | 丰满护士巨好爽好大乳 | 性欧美大战久久久久久久 | 亚洲午夜久久久影院 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 久久亚洲国产成人精品性色 | 99精品国产综合久久久久五月天 | 亚洲色偷偷偷综合网 | 日韩av无码一区二区三区不卡 | 女人被男人爽到呻吟的视频 | 久久亚洲精品中文字幕无男同 | 99久久精品国产一区二区蜜芽 | 人妻互换免费中文字幕 | 亚洲一区二区三区偷拍女厕 | 日本欧美一区二区三区乱码 | 色情久久久av熟女人妻网站 | 日本精品高清一区二区 | 中文字幕 亚洲精品 第1页 | 国产成人无码a区在线观看视频app | 色欲人妻aaaaaaa无码 | 亚洲中文无码av永久不收费 | 日欧一片内射va在线影院 | 99久久精品无码一区二区毛片 | 色婷婷综合中文久久一本 | 精品熟女少妇av免费观看 | 成 人 网 站国产免费观看 | 亚洲伊人久久精品影院 | 国产亚洲欧美日韩亚洲中文色 | 中文字幕无码热在线视频 | 欧洲精品码一区二区三区免费看 | 老司机亚洲精品影院无码 | 色婷婷欧美在线播放内射 | 99麻豆久久久国产精品免费 | 免费无码一区二区三区蜜桃大 | 久久国产精品精品国产色婷婷 | 日产国产精品亚洲系列 | 又大又硬又黄的免费视频 | 少妇无码吹潮 | 精品无人国产偷自产在线 | а√资源新版在线天堂 | 性欧美牲交xxxxx视频 | 一个人免费观看的www视频 | 国産精品久久久久久久 | 特黄特色大片免费播放器图片 | 欧美性色19p | 亚洲精品美女久久久久久久 | 国产性生大片免费观看性 | 久久无码中文字幕免费影院蜜桃 | 国产莉萝无码av在线播放 | 在线播放无码字幕亚洲 | 亚洲 a v无 码免 费 成 人 a v | 丰满诱人的人妻3 | 亚洲欧美日韩成人高清在线一区 | 人妻无码αv中文字幕久久琪琪布 | 天堂а√在线地址中文在线 | 午夜时刻免费入口 | 国产三级精品三级男人的天堂 | 国产亚洲欧美在线专区 | 动漫av一区二区在线观看 | a国产一区二区免费入口 | 激情亚洲一区国产精品 | 国产熟女一区二区三区四区五区 | 国产口爆吞精在线视频 | 国产精品爱久久久久久久 | 国产在线一区二区三区四区五区 | 久久精品国产日本波多野结衣 | 小鲜肉自慰网站xnxx | 无码午夜成人1000部免费视频 | 国内精品久久毛片一区二区 | 给我免费的视频在线观看 | 午夜精品一区二区三区在线观看 | 丰满护士巨好爽好大乳 | 日韩欧美成人免费观看 | 无码国产色欲xxxxx视频 | 精品国产精品久久一区免费式 | 国产亚洲视频中文字幕97精品 | 日韩精品久久久肉伦网站 | 乱人伦人妻中文字幕无码久久网 | 人妻天天爽夜夜爽一区二区 | 久在线观看福利视频 | 久久无码人妻影院 | 精品无码一区二区三区爱欲 | 精品欧洲av无码一区二区三区 | 国内老熟妇对白xxxxhd | 久久这里只有精品视频9 | 夜夜夜高潮夜夜爽夜夜爰爰 | 日本一卡2卡3卡四卡精品网站 | 午夜时刻免费入口 | 欧美野外疯狂做受xxxx高潮 | 亚洲人成人无码网www国产 | 美女黄网站人色视频免费国产 | 国产另类ts人妖一区二区 | 国产乱人无码伦av在线a | 国产综合色产在线精品 | 国产成人无码区免费内射一片色欲 | 亚洲国产一区二区三区在线观看 | 狂野欧美性猛交免费视频 | 搡女人真爽免费视频大全 | 久久人妻内射无码一区三区 | 一本加勒比波多野结衣 | 国产三级久久久精品麻豆三级 | 亚欧洲精品在线视频免费观看 | 熟妇女人妻丰满少妇中文字幕 | 国产三级久久久精品麻豆三级 | 精品国产麻豆免费人成网站 | 又大又硬又黄的免费视频 | 成熟妇人a片免费看网站 | 日本一区二区三区免费播放 | 欧洲熟妇色 欧美 | 国产在线精品一区二区高清不卡 | 无码成人精品区在线观看 | 无码中文字幕色专区 | 精品人妻人人做人人爽夜夜爽 | 在线观看国产午夜福利片 | 国产亚洲视频中文字幕97精品 | 最新国产麻豆aⅴ精品无码 | 国产激情一区二区三区 | 亚洲综合精品香蕉久久网 | 亚洲精品一区二区三区在线观看 | 夜夜躁日日躁狠狠久久av | 无遮挡国产高潮视频免费观看 | 国产精品久久福利网站 | 欧美成人午夜精品久久久 | 国内精品人妻无码久久久影院蜜桃 | 熟妇人妻无码xxx视频 | 亚洲欧美色中文字幕在线 | 天天摸天天碰天天添 | 97色伦图片97综合影院 | 精品久久久中文字幕人妻 | 国产激情无码一区二区 | 亚洲色欲色欲天天天www | 天天摸天天透天天添 | 少妇高潮喷潮久久久影院 | 性生交片免费无码看人 | 熟女体下毛毛黑森林 | 国产亲子乱弄免费视频 | 午夜熟女插插xx免费视频 | 青青草原综合久久大伊人精品 | 丝袜 中出 制服 人妻 美腿 | 久久综合网欧美色妞网 | 色一情一乱一伦一区二区三欧美 | 亚洲の无码国产の无码影院 | 亚洲人交乣女bbw | 99久久人妻精品免费二区 | 亚拍精品一区二区三区探花 | 日本肉体xxxx裸交 | 色综合久久网 | √天堂资源地址中文在线 | 少妇人妻偷人精品无码视频 | 中文字幕无码av波多野吉衣 | 中文字幕无码热在线视频 | 国产精品毛片一区二区 | 国产精品国产自线拍免费软件 | 97色伦图片97综合影院 | 国产无遮挡又黄又爽又色 | 红桃av一区二区三区在线无码av | 国产精品无码一区二区三区不卡 | 亚洲 欧美 激情 小说 另类 | 国产精华av午夜在线观看 | 国产亚洲人成a在线v网站 | 亚洲欧美综合区丁香五月小说 | 九月婷婷人人澡人人添人人爽 | 蜜桃av抽搐高潮一区二区 | 国产激情无码一区二区app | 成人无码精品1区2区3区免费看 | 亚洲经典千人经典日产 | 精品 日韩 国产 欧美 视频 | 99久久婷婷国产综合精品青草免费 | 激情爆乳一区二区三区 | 少妇被粗大的猛进出69影院 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 中文字幕乱妇无码av在线 | aⅴ亚洲 日韩 色 图网站 播放 | 性欧美牲交xxxxx视频 | 宝宝好涨水快流出来免费视频 | 午夜福利试看120秒体验区 | 美女扒开屁股让男人桶 | 大肉大捧一进一出好爽视频 | 欧美日本免费一区二区三区 | 欧美性猛交xxxx富婆 | 亚洲色大成网站www国产 | 久久国产精品偷任你爽任你 | 国内揄拍国内精品少妇国语 | 波多野结衣av一区二区全免费观看 | 波多野结衣高清一区二区三区 | 大地资源网第二页免费观看 | 亚洲国产一区二区三区在线观看 | 国产精品亚洲а∨无码播放麻豆 | 蜜臀av无码人妻精品 | 国产精品亚洲一区二区三区喷水 | 牲欲强的熟妇农村老妇女 | 国产精品亚洲а∨无码播放麻豆 | 老司机亚洲精品影院 | 成人免费视频视频在线观看 免费 | 奇米影视7777久久精品 | 久久久www成人免费毛片 | 久久综合给合久久狠狠狠97色 | 中文字幕无码热在线视频 | 97无码免费人妻超级碰碰夜夜 | 日本肉体xxxx裸交 | 欧美日韩色另类综合 | 国产乱子伦视频在线播放 | 一本精品99久久精品77 | 老司机亚洲精品影院 | 99精品视频在线观看免费 | 日本成熟视频免费视频 | 国产偷自视频区视频 | 日韩av无码中文无码电影 | 无码人妻丰满熟妇区毛片18 | 国产超碰人人爽人人做人人添 | 国产疯狂伦交大片 | 欧美成人午夜精品久久久 | 欧美freesex黑人又粗又大 | 中文字幕无码av激情不卡 | 5858s亚洲色大成网站www | 久久久久se色偷偷亚洲精品av | 久久亚洲中文字幕精品一区 | 亚洲大尺度无码无码专区 | 久久午夜无码鲁丝片秋霞 | 99精品无人区乱码1区2区3区 | 99久久精品国产一区二区蜜芽 | 国产精品无码成人午夜电影 | 特黄特色大片免费播放器图片 | 亚洲小说春色综合另类 | 国产人妻人伦精品1国产丝袜 | 性色欲情网站iwww九文堂 | 精品aⅴ一区二区三区 | 国产精品无码mv在线观看 | 久久精品人人做人人综合 | 色欲人妻aaaaaaa无码 | 亚洲人交乣女bbw | √天堂中文官网8在线 | 久久99精品久久久久久 | 国产网红无码精品视频 | 人人妻人人澡人人爽欧美一区 | 99久久99久久免费精品蜜桃 | 亚洲热妇无码av在线播放 | 九九在线中文字幕无码 | 丰满人妻一区二区三区免费视频 | 双乳奶水饱满少妇呻吟 | 国产精品无码永久免费888 | 一本大道伊人av久久综合 | 无码任你躁久久久久久久 | 男女性色大片免费网站 | 丰满少妇人妻久久久久久 | 亚洲色欲色欲天天天www | 丰满妇女强制高潮18xxxx | 国产三级精品三级男人的天堂 | 成熟人妻av无码专区 | 美女极度色诱视频国产 | 午夜精品久久久内射近拍高清 | 久久99精品国产麻豆蜜芽 | 亚洲欧美精品伊人久久 | 曰韩少妇内射免费播放 | 亚洲 激情 小说 另类 欧美 | 亚洲欧美综合区丁香五月小说 | 欧美老熟妇乱xxxxx | 免费观看又污又黄的网站 | 成人免费无码大片a毛片 | 国产免费久久久久久无码 | 粉嫩少妇内射浓精videos | 一本久久伊人热热精品中文字幕 | 一本久久a久久精品vr综合 | 国产成人一区二区三区别 | 国产小呦泬泬99精品 | 亚洲成av人在线观看网址 | 国产人妻大战黑人第1集 | 国语自产偷拍精品视频偷 | 久久国产劲爆∧v内射 | 亚洲中文字幕乱码av波多ji | 无码人妻精品一区二区三区下载 | 男女性色大片免费网站 | 亚洲一区二区三区 | 国精产品一品二品国精品69xx | 亚洲の无码国产の无码影院 | 97久久国产亚洲精品超碰热 | 欧美变态另类xxxx | 国产精品无码永久免费888 | 老熟妇仑乱视频一区二区 | 亚洲狠狠婷婷综合久久 | 国产精品无码成人午夜电影 | 亚洲色大成网站www国产 | aⅴ在线视频男人的天堂 | 国产精品18久久久久久麻辣 | 亚洲精品一区二区三区婷婷月 | 高潮喷水的毛片 | 99久久精品午夜一区二区 | 欧美人与善在线com | 日韩精品无码一区二区中文字幕 | 中文字幕无码免费久久99 | 国产精品美女久久久网av | 亚洲精品www久久久 | 国产精品va在线观看无码 | 在线а√天堂中文官网 | 国产成人亚洲综合无码 | 欧美性黑人极品hd | 日韩成人一区二区三区在线观看 | 伊人久久大香线蕉午夜 | www国产精品内射老师 | 亚洲欧洲无卡二区视頻 | 国产电影无码午夜在线播放 | 亚洲呦女专区 | 377p欧洲日本亚洲大胆 | 成人精品一区二区三区中文字幕 | 激情内射日本一区二区三区 | 亚洲色成人中文字幕网站 | 中文字幕人成乱码熟女app | 久久精品人人做人人综合 | 亚洲综合无码一区二区三区 | 欧美黑人巨大xxxxx | 熟妇人妻无乱码中文字幕 | 国产乱人伦偷精品视频 | 亚洲娇小与黑人巨大交 | 亚洲区小说区激情区图片区 | a国产一区二区免费入口 | 乌克兰少妇性做爰 | 亚洲经典千人经典日产 | 精品国产一区二区三区av 性色 | 色狠狠av一区二区三区 | 无码人妻精品一区二区三区不卡 | 日日噜噜噜噜夜夜爽亚洲精品 | 小泽玛莉亚一区二区视频在线 | 午夜性刺激在线视频免费 | 美女极度色诱视频国产 | 人人妻人人澡人人爽精品欧美 | 久久这里只有精品视频9 | 丁香啪啪综合成人亚洲 | 国产成人无码av在线影院 | 曰韩无码二三区中文字幕 | 国产无遮挡又黄又爽又色 | 亚洲综合无码一区二区三区 | 国产精品va在线播放 | 人人妻人人澡人人爽欧美精品 | 啦啦啦www在线观看免费视频 | 玩弄少妇高潮ⅹxxxyw | 少妇人妻偷人精品无码视频 | 日本爽爽爽爽爽爽在线观看免 | 午夜福利试看120秒体验区 | 欧美日韩亚洲国产精品 | 国产精品手机免费 | 300部国产真实乱 | 人人澡人人透人人爽 | 狠狠噜狠狠狠狠丁香五月 | 天堂а√在线地址中文在线 | 爆乳一区二区三区无码 | 日本精品人妻无码免费大全 | 国产激情一区二区三区 | 久久久国产一区二区三区 | 久精品国产欧美亚洲色aⅴ大片 | 性欧美牲交在线视频 | 国产精品多人p群无码 | 亚洲中文字幕久久无码 | 捆绑白丝粉色jk震动捧喷白浆 | 国产亚洲视频中文字幕97精品 | 熟女体下毛毛黑森林 | 国产电影无码午夜在线播放 | 日本大乳高潮视频在线观看 | 天天摸天天碰天天添 | 色一情一乱一伦一视频免费看 | 狠狠色丁香久久婷婷综合五月 | 亚洲熟妇色xxxxx欧美老妇 | 少妇性俱乐部纵欲狂欢电影 | 精品国偷自产在线视频 | 成人无码精品1区2区3区免费看 | 99精品无人区乱码1区2区3区 | 少妇的肉体aa片免费 | 人人妻人人澡人人爽人人精品 | 熟妇女人妻丰满少妇中文字幕 | 欧美日韩久久久精品a片 | 国产真实伦对白全集 | 俺去俺来也在线www色官网 | 四虎国产精品一区二区 | 国产精品高潮呻吟av久久4虎 | 亚洲中文字幕成人无码 | 55夜色66夜色国产精品视频 | 国产精品二区一区二区aⅴ污介绍 | 特级做a爰片毛片免费69 | 男人的天堂2018无码 | 久久久久久久女国产乱让韩 | 蜜桃av抽搐高潮一区二区 | 国产精品自产拍在线观看 | 激情亚洲一区国产精品 | 国产办公室秘书无码精品99 | 波多野结衣一区二区三区av免费 | 亚洲の无码国产の无码步美 | 亚洲 日韩 欧美 成人 在线观看 | 女人被男人躁得好爽免费视频 | 国产成人无码av在线影院 | 女人被男人爽到呻吟的视频 | 久久久久久久久888 | 青草青草久热国产精品 | 国产人妻人伦精品1国产丝袜 | 亚洲人成网站免费播放 | 亚洲人交乣女bbw | 日韩欧美中文字幕公布 | 国产精品a成v人在线播放 | 白嫩日本少妇做爰 | 日本一区二区三区免费播放 | 丝袜美腿亚洲一区二区 | 亚洲国精产品一二二线 | 人妻少妇被猛烈进入中文字幕 | 免费网站看v片在线18禁无码 | 兔费看少妇性l交大片免费 | 日本xxxx色视频在线观看免费 | 国产真实乱对白精彩久久 | 激情亚洲一区国产精品 | 日本一卡2卡3卡四卡精品网站 | 免费观看又污又黄的网站 | 国产亚洲精品久久久久久久 | 久久亚洲中文字幕无码 | 97久久精品无码一区二区 | 熟女俱乐部五十路六十路av | 日本一区二区三区免费播放 | 久青草影院在线观看国产 | 中文久久乱码一区二区 | 少妇被粗大的猛进出69影院 | 中文字幕乱妇无码av在线 | 人妻少妇精品无码专区二区 | 国产欧美熟妇另类久久久 | 亚洲aⅴ无码成人网站国产app | 国产疯狂伦交大片 | 九月婷婷人人澡人人添人人爽 | 欧美freesex黑人又粗又大 | 亚洲成av人片天堂网无码】 | 久久综合狠狠综合久久综合88 | 无码人妻丰满熟妇区五十路百度 | 色综合久久久无码中文字幕 | 日本爽爽爽爽爽爽在线观看免 | 久久久久亚洲精品男人的天堂 | 4hu四虎永久在线观看 | 又色又爽又黄的美女裸体网站 | 国产精品久久久久久久影院 | 未满小14洗澡无码视频网站 | 亚洲天堂2017无码中文 | 强辱丰满人妻hd中文字幕 | 精品国精品国产自在久国产87 | 国产精品-区区久久久狼 | 国产成人精品无码播放 | 国产成人精品视频ⅴa片软件竹菊 | 少妇被黑人到高潮喷出白浆 | 国产欧美熟妇另类久久久 | 国产真实乱对白精彩久久 | 国产人妻精品午夜福利免费 | 久久亚洲日韩精品一区二区三区 | 亚洲精品国偷拍自产在线观看蜜桃 | 久久精品丝袜高跟鞋 | 骚片av蜜桃精品一区 | 国产黄在线观看免费观看不卡 | 无码av岛国片在线播放 | 国产人妻人伦精品 | 国产av一区二区精品久久凹凸 | 国产亚洲精品久久久久久国模美 | 人人爽人人爽人人片av亚洲 | 成人综合网亚洲伊人 | 精品国产一区二区三区av 性色 | 亚洲a无码综合a国产av中文 | 亚洲日韩乱码中文无码蜜桃臀网站 | 国产九九九九九九九a片 | а天堂中文在线官网 | 天堂无码人妻精品一区二区三区 | 欧美刺激性大交 | 无码av中文字幕免费放 | 久久天天躁狠狠躁夜夜免费观看 | 丰满诱人的人妻3 | 麻豆国产丝袜白领秘书在线观看 | 伊人久久大香线蕉亚洲 | 岛国片人妻三上悠亚 | 国产无套粉嫩白浆在线 | 性色欲网站人妻丰满中文久久不卡 | 无码av最新清无码专区吞精 | 亚洲中文字幕久久无码 | 中文字幕av伊人av无码av | 99久久精品国产一区二区蜜芽 | 中文无码成人免费视频在线观看 | 中文字幕乱码人妻无码久久 | 97se亚洲精品一区 | 国产免费观看黄av片 | 亚洲精品成人av在线 | 亚洲综合色区中文字幕 | 一本大道伊人av久久综合 | 亚洲国产精品无码一区二区三区 | 97无码免费人妻超级碰碰夜夜 | 双乳奶水饱满少妇呻吟 | 色一情一乱一伦一视频免费看 | 99er热精品视频 | 亚洲一区二区三区含羞草 | 中文字幕 亚洲精品 第1页 | 人人妻人人澡人人爽精品欧美 | 熟女少妇在线视频播放 | 亚洲色偷偷偷综合网 | 两性色午夜免费视频 | 人人澡人人透人人爽 | 无码播放一区二区三区 | 人妻无码久久精品人妻 | 久久精品人人做人人综合 | 色诱久久久久综合网ywww | 日本一卡二卡不卡视频查询 | 窝窝午夜理论片影院 | 日本一卡2卡3卡四卡精品网站 | 色一情一乱一伦一区二区三欧美 | 好屌草这里只有精品 | 亚洲狠狠色丁香婷婷综合 | 四十如虎的丰满熟妇啪啪 | 久久国产精品偷任你爽任你 | 国产又粗又硬又大爽黄老大爷视 | 又湿又紧又大又爽a视频国产 | 国产精品国产自线拍免费软件 | 久久久久久久女国产乱让韩 | 国产综合在线观看 | 鲁一鲁av2019在线 | 一本久道高清无码视频 | 国内老熟妇对白xxxxhd | 亚洲成熟女人毛毛耸耸多 | 日产精品高潮呻吟av久久 | 精品国产乱码久久久久乱码 | 九九久久精品国产免费看小说 | 欧美阿v高清资源不卡在线播放 | 国产在线精品一区二区高清不卡 | 青春草在线视频免费观看 | 成人精品一区二区三区中文字幕 | 亚洲精品国偷拍自产在线麻豆 | 风流少妇按摩来高潮 | 波多野结衣 黑人 | 蜜臀av在线播放 久久综合激激的五月天 | 无码人妻精品一区二区三区下载 | 人人爽人人爽人人片av亚洲 | 又黄又爽又色的视频 | 97色伦图片97综合影院 | 日本精品人妻无码免费大全 | 亚洲色www成人永久网址 | 国产激情艳情在线看视频 | 精品欧洲av无码一区二区三区 | 国产三级久久久精品麻豆三级 | 77777熟女视频在线观看 а天堂中文在线官网 | 少妇人妻偷人精品无码视频 | 国产精品99爱免费视频 | 午夜精品一区二区三区的区别 | 麻豆av传媒蜜桃天美传媒 | 精品人人妻人人澡人人爽人人 | 亚洲aⅴ无码成人网站国产app | 中国大陆精品视频xxxx | 精品人妻av区 | 少妇太爽了在线观看 | 久久97精品久久久久久久不卡 | 伊人色综合久久天天小片 | 人人妻人人澡人人爽精品欧美 | 特黄特色大片免费播放器图片 | 色婷婷欧美在线播放内射 | 偷窥日本少妇撒尿chinese | 亚洲色偷偷男人的天堂 | 国内精品人妻无码久久久影院 | 国精产品一品二品国精品69xx | 精品乱子伦一区二区三区 | 久久人人97超碰a片精品 | 精品成在人线av无码免费看 | 欧美三级a做爰在线观看 | 在线成人www免费观看视频 | 国产肉丝袜在线观看 | 精品一区二区不卡无码av | 午夜丰满少妇性开放视频 | 色妞www精品免费视频 | 国产成人无码av一区二区 | 午夜成人1000部免费视频 | 国产福利视频一区二区 | 国产麻豆精品一区二区三区v视界 | 狠狠躁日日躁夜夜躁2020 | 图片小说视频一区二区 | 鲁鲁鲁爽爽爽在线视频观看 | 沈阳熟女露脸对白视频 | 成人av无码一区二区三区 | 午夜精品一区二区三区在线观看 | 国产精品久免费的黄网站 | 亚洲理论电影在线观看 | 人人澡人摸人人添 | 四虎影视成人永久免费观看视频 | 97夜夜澡人人双人人人喊 | 亚洲精品美女久久久久久久 | 欧美日韩一区二区免费视频 | 久久aⅴ免费观看 | 国产特级毛片aaaaaaa高清 | 高潮毛片无遮挡高清免费 | 亚洲经典千人经典日产 | 午夜丰满少妇性开放视频 | 欧美日韩人成综合在线播放 | 啦啦啦www在线观看免费视频 | 亚洲人交乣女bbw | 欧美熟妇另类久久久久久不卡 | av无码电影一区二区三区 | 久久久中文字幕日本无吗 | 亚洲国产精品无码一区二区三区 | 性色欲网站人妻丰满中文久久不卡 | 国产成人无码a区在线观看视频app | 亚洲乱码中文字幕在线 | 久久精品99久久香蕉国产色戒 | 人妻尝试又大又粗久久 | 老熟妇乱子伦牲交视频 | 日韩精品一区二区av在线 | 成人免费无码大片a毛片 | 国产女主播喷水视频在线观看 | 欧美人与物videos另类 | 爆乳一区二区三区无码 | 久9re热视频这里只有精品 | 久久久久久国产精品无码下载 | 色综合久久久无码网中文 | 国内精品人妻无码久久久影院 | 国模大胆一区二区三区 | 欧美阿v高清资源不卡在线播放 | 成人精品一区二区三区中文字幕 | 国产精品久久精品三级 | 国产成人人人97超碰超爽8 | 亚洲熟妇色xxxxx欧美老妇y | 免费男性肉肉影院 | 国产凸凹视频一区二区 | 熟妇人妻无码xxx视频 | 国产免费久久久久久无码 | 少妇性荡欲午夜性开放视频剧场 | 九九综合va免费看 | 欧美zoozzooz性欧美 | 国产成人无码a区在线观看视频app | 丰满肥臀大屁股熟妇激情视频 | 岛国片人妻三上悠亚 | 日韩av无码一区二区三区 | 久久久久成人片免费观看蜜芽 | 无码午夜成人1000部免费视频 | 天天拍夜夜添久久精品大 | 99在线 | 亚洲 | 欧美 丝袜 自拍 制服 另类 | 亚洲精品国产精品乱码视色 | 曰韩无码二三区中文字幕 | 国产精品无码永久免费888 | 性做久久久久久久久 | 国产午夜精品一区二区三区嫩草 | 人人妻人人藻人人爽欧美一区 | 精品亚洲成av人在线观看 | 欧美日韩一区二区免费视频 | 300部国产真实乱 | 高中生自慰www网站 | 国产成人人人97超碰超爽8 | 免费中文字幕日韩欧美 | 精品无码国产自产拍在线观看蜜 | 国产精品无码一区二区桃花视频 | 国产成人综合色在线观看网站 | 中文字幕亚洲情99在线 | 亚洲精品www久久久 | 亚洲性无码av中文字幕 | 日本va欧美va欧美va精品 | 99久久人妻精品免费二区 | 丰满少妇熟乱xxxxx视频 | 成人毛片一区二区 | 精品久久久无码人妻字幂 | 亚洲中文字幕在线无码一区二区 | 久久久成人毛片无码 | 色综合久久88色综合天天 | 日韩亚洲欧美中文高清在线 | 55夜色66夜色国产精品视频 | 欧洲欧美人成视频在线 | 亚欧洲精品在线视频免费观看 | 国产精品国产三级国产专播 | 亚洲乱码国产乱码精品精 | 欧美 亚洲 国产 另类 | 67194成是人免费无码 | 亚洲成a人片在线观看无码3d | 国产成人无码a区在线观看视频app | 国产乱人无码伦av在线a | 精品一区二区三区无码免费视频 | 欧美丰满老熟妇xxxxx性 | 色偷偷人人澡人人爽人人模 | 精品偷自拍另类在线观看 | 中文字幕乱妇无码av在线 | 一个人看的www免费视频在线观看 | 人人妻人人澡人人爽欧美一区九九 | 国产午夜精品一区二区三区嫩草 | 欧美国产亚洲日韩在线二区 | 国产精品资源一区二区 | 国产精品第一国产精品 | 永久黄网站色视频免费直播 | 亚洲欧美日韩成人高清在线一区 | 国产黄在线观看免费观看不卡 | 少妇被黑人到高潮喷出白浆 | 无码吃奶揉捏奶头高潮视频 | 蜜桃视频韩日免费播放 | 日日天日日夜日日摸 | 久久精品女人的天堂av | 无码av免费一区二区三区试看 | 日本一卡2卡3卡四卡精品网站 | 麻豆国产丝袜白领秘书在线观看 | 一本久道高清无码视频 | 狠狠噜狠狠狠狠丁香五月 | 熟女少妇在线视频播放 | 77777熟女视频在线观看 а天堂中文在线官网 | 亚洲国产精品成人久久蜜臀 | 蜜桃臀无码内射一区二区三区 | 精品无人国产偷自产在线 | 国产疯狂伦交大片 | 午夜精品久久久内射近拍高清 | 无遮无挡爽爽免费视频 | 亚洲精品鲁一鲁一区二区三区 | 亚洲码国产精品高潮在线 | 无码播放一区二区三区 | 国产精品久久国产三级国 | 最近免费中文字幕中文高清百度 | 国产亚洲欧美在线专区 | 荫蒂添的好舒服视频囗交 | 日韩无套无码精品 | 丰满少妇熟乱xxxxx视频 | 亚洲日本va午夜在线电影 | 国精产品一区二区三区 | 夜夜影院未满十八勿进 | 国产精品久久久久9999小说 | 欧美老妇交乱视频在线观看 | 伊人久久婷婷五月综合97色 | 亚洲一区二区观看播放 | 无码精品国产va在线观看dvd | 无码任你躁久久久久久久 | 最新国产乱人伦偷精品免费网站 | 国产在线精品一区二区高清不卡 | 天堂一区人妻无码 | 日本精品人妻无码77777 天堂一区人妻无码 | 亚洲欧美精品伊人久久 | 亚洲天堂2017无码中文 | 国内揄拍国内精品人妻 | 大肉大捧一进一出好爽视频 | 国产偷国产偷精品高清尤物 | 国产精品久久久久9999小说 | 国产艳妇av在线观看果冻传媒 | 亚洲小说春色综合另类 | 无码人妻丰满熟妇区毛片18 | 国产激情精品一区二区三区 | 国产激情精品一区二区三区 | 一区二区三区乱码在线 | 欧洲 | 国产人妻精品一区二区三区不卡 | 蜜桃臀无码内射一区二区三区 | 久久久av男人的天堂 | 亚洲另类伦春色综合小说 | 精品一区二区三区波多野结衣 | 亚洲一区二区三区无码久久 | 欧美 亚洲 国产 另类 | 全黄性性激高免费视频 | 最近的中文字幕在线看视频 | 两性色午夜免费视频 | 九九在线中文字幕无码 | 美女毛片一区二区三区四区 | 乱人伦人妻中文字幕无码久久网 | 伊人久久大香线蕉亚洲 | 88国产精品欧美一区二区三区 | 欧美亚洲日韩国产人成在线播放 | 少妇久久久久久人妻无码 | 欧美国产日韩久久mv | 无套内谢的新婚少妇国语播放 | 国产在线精品一区二区高清不卡 | 日韩在线不卡免费视频一区 | www国产亚洲精品久久久日本 | 人妻少妇精品无码专区二区 | 欧美日韩视频无码一区二区三 | 蜜臀aⅴ国产精品久久久国产老师 | 国产无遮挡又黄又爽又色 | 国产免费久久久久久无码 | 99er热精品视频 | 久久无码专区国产精品s | 性做久久久久久久久 | 日本护士xxxxhd少妇 | 自拍偷自拍亚洲精品被多人伦好爽 | 亚洲国产一区二区三区在线观看 | 亚洲男人av天堂午夜在 | 乱人伦中文视频在线观看 | 日本精品久久久久中文字幕 | 国产精品多人p群无码 | 久久99精品久久久久久动态图 | 亚洲人成网站色7799 | 熟妇激情内射com | 亚洲人成影院在线观看 | 欧洲熟妇色 欧美 | 少妇无套内谢久久久久 | 97人妻精品一区二区三区 | 青草视频在线播放 | 久久久久免费精品国产 | 特大黑人娇小亚洲女 | 国内老熟妇对白xxxxhd | 国产激情艳情在线看视频 | 日本丰满护士爆乳xxxx | www一区二区www免费 | 少妇被粗大的猛进出69影院 | 久久久久亚洲精品男人的天堂 | 中文字幕日韩精品一区二区三区 | 免费人成在线观看网站 | 男女猛烈xx00免费视频试看 | 亚洲精品无码国产 | 少妇高潮一区二区三区99 | 亚洲午夜无码久久 | 女人被男人爽到呻吟的视频 | 精品久久久无码中文字幕 | 国产精品无码永久免费888 | 午夜嘿嘿嘿影院 | 国产无套粉嫩白浆在线 | 蜜桃视频插满18在线观看 | 高中生自慰www网站 | 久久人人爽人人爽人人片av高清 | 樱花草在线社区www | 日本一卡二卡不卡视频查询 | 日本熟妇人妻xxxxx人hd | 67194成是人免费无码 | 国产精品丝袜黑色高跟鞋 | 国产人妻人伦精品1国产丝袜 | 性色av无码免费一区二区三区 | 久热国产vs视频在线观看 | 亚洲欧洲日本综合aⅴ在线 | 日日碰狠狠躁久久躁蜜桃 | 国产高清av在线播放 | 婷婷综合久久中文字幕蜜桃三电影 | 国产亚洲欧美日韩亚洲中文色 | 1000部啪啪未满十八勿入下载 | 蜜桃臀无码内射一区二区三区 | 双乳奶水饱满少妇呻吟 | 欧美老人巨大xxxx做受 | 日日鲁鲁鲁夜夜爽爽狠狠 | 精品无人区无码乱码毛片国产 | 国产成人精品必看 | 青青久在线视频免费观看 | 亚洲成av人片天堂网无码】 | 亚洲狠狠婷婷综合久久 | 丰满少妇人妻久久久久久 | 免费看男女做好爽好硬视频 | 狂野欧美性猛交免费视频 | 亚洲爆乳无码专区 | 免费无码的av片在线观看 | 欧美一区二区三区视频在线观看 | 成年美女黄网站色大免费全看 | 亚洲色偷偷偷综合网 | 无码av中文字幕免费放 | 亚洲综合无码一区二区三区 | 巨爆乳无码视频在线观看 | 性色欲网站人妻丰满中文久久不卡 | 丰满人妻精品国产99aⅴ | 樱花草在线播放免费中文 | 99久久精品日本一区二区免费 | 国产精品.xx视频.xxtv | 精品偷拍一区二区三区在线看 | 色综合久久久久综合一本到桃花网 | 在线a亚洲视频播放在线观看 | 国产农村妇女高潮大叫 | 青春草在线视频免费观看 | 久久国产精品_国产精品 | 国产另类ts人妖一区二区 | 亚洲一区二区三区偷拍女厕 | 国产成人无码一二三区视频 | 亚洲成av人综合在线观看 | 亚洲成av人在线观看网址 | 亚欧洲精品在线视频免费观看 | 理论片87福利理论电影 | 老子影院午夜伦不卡 | 午夜精品久久久久久久久 | 免费男性肉肉影院 | 强伦人妻一区二区三区视频18 | 日本一卡2卡3卡四卡精品网站 | 图片区 小说区 区 亚洲五月 | 国产精品美女久久久久av爽李琼 | 国产精品丝袜黑色高跟鞋 | 曰本女人与公拘交酡免费视频 | 无遮挡国产高潮视频免费观看 | 欧美午夜特黄aaaaaa片 | 亚洲另类伦春色综合小说 | 亚洲狠狠色丁香婷婷综合 | 欧美老妇与禽交 | 亚洲精品国产a久久久久久 | 无码精品人妻一区二区三区av | 中文字幕乱码人妻无码久久 | 欧美性黑人极品hd | 无码人妻出轨黑人中文字幕 | 乱码午夜-极国产极内射 | 无码av免费一区二区三区试看 | 无码人妻av免费一区二区三区 | 成人精品视频一区二区三区尤物 | 国精产品一区二区三区 | 秋霞特色aa大片 | 日日鲁鲁鲁夜夜爽爽狠狠 | 国产精品久久久久7777 | 美女极度色诱视频国产 | 亚洲区小说区激情区图片区 | 特黄特色大片免费播放器图片 | 国产精品无套呻吟在线 | 亚洲中文字幕乱码av波多ji | 国产三级久久久精品麻豆三级 | 日本爽爽爽爽爽爽在线观看免 | 亚洲国产精品成人久久蜜臀 | 久久久久亚洲精品男人的天堂 | 欧美激情内射喷水高潮 | 久久精品中文字幕大胸 | 精品久久久无码人妻字幂 | 无码人妻出轨黑人中文字幕 | 在线观看国产一区二区三区 | 欧美乱妇无乱码大黄a片 | 色综合久久久无码网中文 | 精品午夜福利在线观看 | 欧美老熟妇乱xxxxx | 亚洲aⅴ无码成人网站国产app | 亚洲区小说区激情区图片区 | 少妇无码吹潮 | 日本一区二区三区免费高清 | 激情亚洲一区国产精品 | 国产精品手机免费 | 久久无码专区国产精品s | 成人无码影片精品久久久 | 国产精品久久国产三级国 | 国产成人无码区免费内射一片色欲 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产精品无码一区二区三区不卡 | 夜精品a片一区二区三区无码白浆 | 99国产精品白浆在线观看免费 | 成人一区二区免费视频 | 美女毛片一区二区三区四区 | 少妇厨房愉情理9仑片视频 | 天海翼激烈高潮到腰振不止 | 国产高清av在线播放 | 一本久道久久综合狠狠爱 | 精品国产一区二区三区av 性色 | 青青草原综合久久大伊人精品 | 综合人妻久久一区二区精品 | 成年美女黄网站色大免费视频 | 国产办公室秘书无码精品99 | 国产精品福利视频导航 | 又湿又紧又大又爽a视频国产 | 色欲综合久久中文字幕网 | 人妻尝试又大又粗久久 | 无套内谢老熟女 | 色妞www精品免费视频 | 亚洲欧美综合区丁香五月小说 | 四虎影视成人永久免费观看视频 | 无码人妻av免费一区二区三区 | 国产超碰人人爽人人做人人添 | 宝宝好涨水快流出来免费视频 | 无码午夜成人1000部免费视频 | 亚洲色欲色欲天天天www | 在线播放免费人成毛片乱码 | 亚洲成a人片在线观看日本 | 国产国语老龄妇女a片 | 中文字幕无码免费久久9一区9 | 亚洲午夜久久久影院 | 国产精品久久福利网站 | 亚洲欧洲中文日韩av乱码 | 玩弄人妻少妇500系列视频 | 中文字幕人妻丝袜二区 | 精品无码一区二区三区的天堂 | 欧洲欧美人成视频在线 | 国精产品一品二品国精品69xx | 黑人巨大精品欧美一区二区 | 国产凸凹视频一区二区 | 永久免费观看国产裸体美女 | 亚洲成av人影院在线观看 | 午夜精品一区二区三区在线观看 | 国产三级精品三级男人的天堂 | 精品一二三区久久aaa片 | 精品无码成人片一区二区98 | 国产一精品一av一免费 | 伊人久久大香线蕉亚洲 | 午夜福利不卡在线视频 | 日本在线高清不卡免费播放 | 免费观看的无遮挡av | 日本精品少妇一区二区三区 | 成人影院yy111111在线观看 | 精品无码成人片一区二区98 | 国内精品久久久久久中文字幕 | 亚洲精品国产品国语在线观看 | 免费观看激色视频网站 | 欧美人与物videos另类 | 扒开双腿疯狂进出爽爽爽视频 | 永久黄网站色视频免费直播 | 精品无人区无码乱码毛片国产 | 国产 浪潮av性色四虎 | 99久久亚洲精品无码毛片 | 人妻aⅴ无码一区二区三区 | 免费无码av一区二区 | 中文字幕+乱码+中文字幕一区 | 理论片87福利理论电影 | 九九综合va免费看 | 扒开双腿疯狂进出爽爽爽视频 | 国产激情无码一区二区app | 大屁股大乳丰满人妻 | 欧美三级不卡在线观看 | 久久亚洲中文字幕无码 | 乱人伦人妻中文字幕无码久久网 | 亚洲成av人综合在线观看 | a片免费视频在线观看 | 内射老妇bbwx0c0ck | 人妻天天爽夜夜爽一区二区 | 国产精品第一国产精品 | 亚洲欧美国产精品久久 | 人妻少妇精品无码专区二区 | 亚洲啪av永久无码精品放毛片 | 精品欧美一区二区三区久久久 | 欧洲vodafone精品性 | 天天做天天爱天天爽综合网 | 六十路熟妇乱子伦 | 女人被爽到呻吟gif动态图视看 | 亚洲欧美日韩成人高清在线一区 | 男女性色大片免费网站 | 国产极品美女高潮无套在线观看 | 亚洲欧美中文字幕5发布 | 99久久婷婷国产综合精品青草免费 | 国产人妻人伦精品1国产丝袜 | 国产激情无码一区二区app | 国产猛烈高潮尖叫视频免费 | 亚洲中文字幕无码一久久区 | 动漫av网站免费观看 | 亚洲精品一区二区三区在线观看 | 一本久久a久久精品vr综合 | 麻豆国产丝袜白领秘书在线观看 | 国产av无码专区亚洲awww | 少妇性荡欲午夜性开放视频剧场 | 国产欧美亚洲精品a | 国精产品一区二区三区 | 日日摸夜夜摸狠狠摸婷婷 | 中文字幕精品av一区二区五区 | 久久国产精品偷任你爽任你 | 最新版天堂资源中文官网 | 国产麻豆精品精东影业av网站 | 老熟女重囗味hdxx69 | 又大又硬又黄的免费视频 | 国产97色在线 | 免 | 一区二区三区乱码在线 | 欧洲 | 天天摸天天透天天添 | 国产艳妇av在线观看果冻传媒 | 亚洲娇小与黑人巨大交 | 女高中生第一次破苞av | 久久综合九色综合欧美狠狠 | 国语精品一区二区三区 | 国产疯狂伦交大片 | 人妻天天爽夜夜爽一区二区 | 国产色精品久久人妻 | 亚洲s码欧洲m码国产av | 国产精品无套呻吟在线 | 97久久国产亚洲精品超碰热 | 国产美女极度色诱视频www | 国产精品高潮呻吟av久久4虎 | 无码纯肉视频在线观看 | 蜜臀av无码人妻精品 | 日日摸日日碰夜夜爽av | 久久综合激激的五月天 | 青青青爽视频在线观看 | 久久99精品久久久久久动态图 | 国产电影无码午夜在线播放 | 麻豆精品国产精华精华液好用吗 | 精品久久久久久人妻无码中文字幕 | 99精品无人区乱码1区2区3区 | 日本va欧美va欧美va精品 | 久久精品无码一区二区三区 | 日本又色又爽又黄的a片18禁 | 亚洲国产精品毛片av不卡在线 | 欧美丰满熟妇xxxx性ppx人交 | 又大又硬又黄的免费视频 | 国产色xx群视频射精 | 超碰97人人射妻 | 无码精品人妻一区二区三区av | 人妻无码久久精品人妻 | 99国产精品白浆在线观看免费 | 欧美日韩一区二区免费视频 | 精品熟女少妇av免费观看 | 日韩成人一区二区三区在线观看 | 99久久精品无码一区二区毛片 | 亚洲爆乳精品无码一区二区三区 | 三上悠亚人妻中文字幕在线 | 国产精品久久福利网站 | 国产内射老熟女aaaa | 乱中年女人伦av三区 | 欧美 亚洲 国产 另类 | 97精品人妻一区二区三区香蕉 | 西西人体www44rt大胆高清 | 成人精品视频一区二区 | 大肉大捧一进一出视频出来呀 | 国产疯狂伦交大片 | 欧美 日韩 人妻 高清 中文 | 精品国产青草久久久久福利 | 亚洲最大成人网站 | 欧美三级a做爰在线观看 | 夜夜影院未满十八勿进 | 国产午夜无码视频在线观看 | 国产激情无码一区二区 | 人妻有码中文字幕在线 | 人妻体内射精一区二区三四 | 久久国产精品萌白酱免费 | 亚洲成熟女人毛毛耸耸多 | 人妻天天爽夜夜爽一区二区 | 国产人妻精品一区二区三区不卡 | 欧美日韩人成综合在线播放 | 四虎永久在线精品免费网址 | 性欧美大战久久久久久久 | 欧美国产日产一区二区 | aⅴ亚洲 日韩 色 图网站 播放 | 天堂久久天堂av色综合 | 成熟女人特级毛片www免费 | 欧美日本精品一区二区三区 | 黑人巨大精品欧美黑寡妇 | 久久午夜无码鲁丝片午夜精品 | 乱人伦人妻中文字幕无码 | 小sao货水好多真紧h无码视频 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 人妻天天爽夜夜爽一区二区 | 一本久久a久久精品亚洲 | 久久99精品国产麻豆蜜芽 | 草草网站影院白丝内射 | 国产一区二区三区四区五区加勒比 | 日本熟妇乱子伦xxxx | 国产精品-区区久久久狼 | 婷婷色婷婷开心五月四房播播 | 久久99精品国产麻豆 | 欧美日韩视频无码一区二区三 | 精品久久久无码中文字幕 | 精品亚洲韩国一区二区三区 | 国产无套粉嫩白浆在线 | 性欧美疯狂xxxxbbbb | 中文精品无码中文字幕无码专区 | 色情久久久av熟女人妻网站 | 日韩av无码中文无码电影 | 成人精品天堂一区二区三区 | 亚洲国产成人a精品不卡在线 | 日本熟妇乱子伦xxxx | 欧美性生交活xxxxxdddd | 九九综合va免费看 | 久久久久久久女国产乱让韩 | 国产无av码在线观看 | 风流少妇按摩来高潮 | 强伦人妻一区二区三区视频18 | 丰满诱人的人妻3 | 国产超碰人人爽人人做人人添 | 久久精品女人天堂av免费观看 | 日本丰满护士爆乳xxxx | 国产av一区二区精品久久凹凸 | 四虎国产精品免费久久 | 久久久久久国产精品无码下载 | 欧美精品一区二区精品久久 | 99久久99久久免费精品蜜桃 | 国产人妻久久精品二区三区老狼 | 国产av无码专区亚洲a∨毛片 | 久久国语露脸国产精品电影 | 欧美丰满熟妇xxxx性ppx人交 | 正在播放老肥熟妇露脸 | 欧美人与牲动交xxxx | 欧美xxxx黑人又粗又长 | 日本精品少妇一区二区三区 | 精品久久久中文字幕人妻 | 性生交片免费无码看人 | 久青草影院在线观看国产 | 国产香蕉尹人视频在线 | 欧美黑人性暴力猛交喷水 | 国产一区二区三区四区五区加勒比 | 国精产品一区二区三区 | 九九综合va免费看 | 最近免费中文字幕中文高清百度 | 国产成人精品久久亚洲高清不卡 | 天天躁日日躁狠狠躁免费麻豆 | 日本精品人妻无码免费大全 | 日本在线高清不卡免费播放 | 成人免费视频视频在线观看 免费 | 日产精品99久久久久久 | 精品一区二区不卡无码av | 性色av无码免费一区二区三区 | 76少妇精品导航 | 久久久国产一区二区三区 | 国产精品无码一区二区桃花视频 | 激情国产av做激情国产爱 | 精品久久久久久人妻无码中文字幕 | 亚洲 激情 小说 另类 欧美 | 乱人伦人妻中文字幕无码久久网 | 九月婷婷人人澡人人添人人爽 | 午夜性刺激在线视频免费 | 日本一区二区三区免费高清 | 精品一区二区不卡无码av | 六十路熟妇乱子伦 | 波多野结衣 黑人 | 成人一区二区免费视频 | 精品 日韩 国产 欧美 视频 | 天天爽夜夜爽夜夜爽 | 欧美第一黄网免费网站 | 国产在线一区二区三区四区五区 | 又大又硬又黄的免费视频 | 成人欧美一区二区三区 | 无码人妻av免费一区二区三区 | 成熟女人特级毛片www免费 | 成人女人看片免费视频放人 | 国内丰满熟女出轨videos | 亚洲欧美日韩综合久久久 | 中文久久乱码一区二区 | 日本在线高清不卡免费播放 | 欧洲vodafone精品性 | 欧美成人免费全部网站 | 一个人免费观看的www视频 | 夜夜影院未满十八勿进 | 在线播放免费人成毛片乱码 | 中文字幕日韩精品一区二区三区 | 国产黄在线观看免费观看不卡 | 欧美三级不卡在线观看 | 国产97人人超碰caoprom | 高潮毛片无遮挡高清免费视频 | 欧美国产日韩亚洲中文 | 久久精品国产99久久6动漫 | 男人的天堂2018无码 | 亚洲一区二区三区播放 | 精品无码成人片一区二区98 | 麻豆精产国品 | 亚洲综合另类小说色区 | 亚洲一区av无码专区在线观看 | 国产在线一区二区三区四区五区 | 天天拍夜夜添久久精品大 | 少妇太爽了在线观看 | 欧美xxxxx精品 | 小泽玛莉亚一区二区视频在线 | 国内精品久久毛片一区二区 | 久精品国产欧美亚洲色aⅴ大片 | 亚洲日韩中文字幕在线播放 | 人妻与老人中文字幕 | 在线观看免费人成视频 | 国产综合色产在线精品 | 又湿又紧又大又爽a视频国产 | 夜先锋av资源网站 | 成在人线av无码免费 | 久久97精品久久久久久久不卡 | 国产亚洲tv在线观看 | 色欲av亚洲一区无码少妇 | 国产偷国产偷精品高清尤物 | а√天堂www在线天堂小说 | 熟妇激情内射com | 国产麻豆精品一区二区三区v视界 | 兔费看少妇性l交大片免费 | 国产suv精品一区二区五 | 国产乱人伦av在线无码 | 少妇性荡欲午夜性开放视频剧场 | 国产亚洲精品久久久ai换 | 国产精品99爱免费视频 | 欧美成人家庭影院 | 三级4级全黄60分钟 | 国产精品毛片一区二区 | 午夜精品久久久内射近拍高清 | 亚洲色欲色欲天天天www | 亚洲七七久久桃花影院 | 亚洲国产av精品一区二区蜜芽 | 性欧美牲交在线视频 | 欧美人与动性行为视频 | 人妻少妇被猛烈进入中文字幕 | 亚洲爆乳精品无码一区二区三区 | 天天做天天爱天天爽综合网 | 亚洲精品久久久久中文第一幕 | 精品国产av色一区二区深夜久久 | 精品 日韩 国产 欧美 视频 | 沈阳熟女露脸对白视频 | 国产无遮挡吃胸膜奶免费看 | 男人扒开女人内裤强吻桶进去 | 人人澡人人妻人人爽人人蜜桃 | 未满成年国产在线观看 | 亚洲精品国产第一综合99久久 | 少妇一晚三次一区二区三区 | 一二三四社区在线中文视频 | 久久99精品国产麻豆 | 激情人妻另类人妻伦 | 欧美性生交xxxxx久久久 | 国产农村妇女高潮大叫 | 熟妇女人妻丰满少妇中文字幕 | 亚洲区小说区激情区图片区 | 欧洲熟妇精品视频 | 亚洲一区二区三区偷拍女厕 | 撕开奶罩揉吮奶头视频 | 婷婷六月久久综合丁香 | 国产婷婷色一区二区三区在线 | 国产亚洲精品久久久久久久久动漫 | 日本丰满熟妇videos | 99久久久国产精品无码免费 | 中文久久乱码一区二区 | 国产午夜亚洲精品不卡 | 欧美精品无码一区二区三区 | 无人区乱码一区二区三区 | 国产人妻精品午夜福利免费 | 水蜜桃av无码 | 久久国产精品萌白酱免费 | 精品人人妻人人澡人人爽人人 | 久久综合狠狠综合久久综合88 | 激情综合激情五月俺也去 | 中文字幕色婷婷在线视频 | 国产人妻精品午夜福利免费 | 人人澡人人妻人人爽人人蜜桃 | 亚洲精品综合五月久久小说 | 欧美日本免费一区二区三区 | 日日碰狠狠丁香久燥 | 亚洲阿v天堂在线 | 亚洲欧洲日本综合aⅴ在线 | 日日摸夜夜摸狠狠摸婷婷 | 久久无码专区国产精品s | 国产舌乚八伦偷品w中 | 亚洲精品一区国产 | 国产人妻精品一区二区三区不卡 | 中文字幕无码乱人伦 | 午夜精品久久久久久久 | 蜜臀aⅴ国产精品久久久国产老师 | 嫩b人妻精品一区二区三区 | 国产熟女一区二区三区四区五区 | 久久精品女人的天堂av | 黄网在线观看免费网站 | 又紧又大又爽精品一区二区 | 久久人人爽人人爽人人片av高清 | 国产69精品久久久久app下载 | 亚洲狠狠婷婷综合久久 | 综合人妻久久一区二区精品 | 亚洲国产综合无码一区 | 日本大乳高潮视频在线观看 | 老熟妇仑乱视频一区二区 | 大屁股大乳丰满人妻 | 国产人妻人伦精品1国产丝袜 | 亚洲人成人无码网www国产 | 欧美老妇交乱视频在线观看 | 国产卡一卡二卡三 | 香蕉久久久久久av成人 | 国产乱子伦视频在线播放 | 丝袜足控一区二区三区 | 少女韩国电视剧在线观看完整 | 4hu四虎永久在线观看 | 人妻插b视频一区二区三区 | 偷窥日本少妇撒尿chinese | 全黄性性激高免费视频 | 日本一卡2卡3卡四卡精品网站 | 在线а√天堂中文官网 | 色婷婷久久一区二区三区麻豆 | 亚洲熟妇色xxxxx欧美老妇 | 国产亚洲美女精品久久久2020 | 亚洲综合另类小说色区 | 97精品国产97久久久久久免费 | 98国产精品综合一区二区三区 | 少女韩国电视剧在线观看完整 | 无码av岛国片在线播放 | 国精品人妻无码一区二区三区蜜柚 | 亚洲国产精品成人久久蜜臀 | 国产免费无码一区二区视频 | 任你躁在线精品免费 | 国产人妻精品一区二区三区 | 性啪啪chinese东北女人 | 欧美喷潮久久久xxxxx | 中文字幕无码日韩欧毛 | 成人aaa片一区国产精品 | 国产麻豆精品一区二区三区v视界 | 久久99久久99精品中文字幕 | 天堂亚洲免费视频 | 亚洲综合无码久久精品综合 | 一本色道久久综合亚洲精品不卡 | 国产乱人无码伦av在线a | 中文精品久久久久人妻不卡 | 成人av无码一区二区三区 | 麻豆av传媒蜜桃天美传媒 | 天堂久久天堂av色综合 | 亚洲经典千人经典日产 | 久久久精品人妻久久影视 | 大地资源中文第3页 | 国语精品一区二区三区 | 国产极品美女高潮无套在线观看 | 日韩在线不卡免费视频一区 | 强伦人妻一区二区三区视频18 | 日本在线高清不卡免费播放 | 无码午夜成人1000部免费视频 | 7777奇米四色成人眼影 | 人人妻人人澡人人爽欧美一区 | 午夜性刺激在线视频免费 | 国产sm调教视频在线观看 | 亚洲性无码av中文字幕 | 日本熟妇人妻xxxxx人hd | 国内丰满熟女出轨videos | 婷婷丁香五月天综合东京热 | 亚洲精品一区二区三区大桥未久 | 蜜桃臀无码内射一区二区三区 | 国产区女主播在线观看 | 国内综合精品午夜久久资源 | 蜜臀aⅴ国产精品久久久国产老师 | 日本va欧美va欧美va精品 | 少妇被黑人到高潮喷出白浆 | 国产色精品久久人妻 | 一本久道久久综合狠狠爱 | 中文字幕乱码亚洲无线三区 | 精品久久久中文字幕人妻 | 日韩av无码一区二区三区 | 国产亚洲人成a在线v网站 | 色综合久久88色综合天天 | 亚洲精品一区二区三区四区五区 | 欧美一区二区三区视频在线观看 | 色综合久久久无码网中文 | 天堂а√在线地址中文在线 | 亚洲成a人片在线观看无码 | 中文字幕av伊人av无码av | 久久综合狠狠综合久久综合88 | 国产成人无码一二三区视频 | 久久亚洲中文字幕无码 | 国产无遮挡又黄又爽免费视频 | 天天拍夜夜添久久精品大 | 粗大的内捧猛烈进出视频 | 日韩精品久久久肉伦网站 | 学生妹亚洲一区二区 | 天堂在线观看www | 2020久久香蕉国产线看观看 | 欧美怡红院免费全部视频 | 内射欧美老妇wbb | 久久精品成人欧美大片 | www国产亚洲精品久久久日本 | 日韩av激情在线观看 | 中文字幕人妻无码一夲道 | 精品熟女少妇av免费观看 | 国产一区二区三区精品视频 | 午夜精品一区二区三区的区别 | 亚洲a无码综合a国产av中文 | 国产av无码专区亚洲awww | a在线亚洲男人的天堂 | 久久精品女人的天堂av | 久久97精品久久久久久久不卡 | 日日天干夜夜狠狠爱 | 中文字幕色婷婷在线视频 | 色婷婷久久一区二区三区麻豆 | 无码精品国产va在线观看dvd | 欧美日韩一区二区综合 | 久久人人爽人人爽人人片av高清 | 中文精品久久久久人妻不卡 | 国产乡下妇女做爰 | 在线播放无码字幕亚洲 | 四虎国产精品免费久久 | 日本大香伊一区二区三区 | 成人精品天堂一区二区三区 | 国产超碰人人爽人人做人人添 | 久久婷婷五月综合色国产香蕉 | 在线视频网站www色 | 强辱丰满人妻hd中文字幕 | 中文字幕无码av激情不卡 | 精品久久久久久亚洲精品 | 午夜丰满少妇性开放视频 | 亚洲精品国产精品乱码不卡 | 亚洲娇小与黑人巨大交 | 国产精品久久久久久无码 | 国产福利视频一区二区 | 久久人人爽人人爽人人片ⅴ | 久久久久亚洲精品男人的天堂 | 久久zyz资源站无码中文动漫 | 麻豆md0077饥渴少妇 | 久久久精品欧美一区二区免费 | 国产凸凹视频一区二区 | 日韩欧美中文字幕公布 | 国产精品怡红院永久免费 | 色情久久久av熟女人妻网站 | 精品国产av色一区二区深夜久久 | 国产精品第一区揄拍无码 | 亚洲国产精品毛片av不卡在线 | 亚洲中文字幕久久无码 | 成年美女黄网站色大免费视频 | 久久伊人色av天堂九九小黄鸭 | 国产 精品 自在自线 | 精品久久久久久人妻无码中文字幕 | 人人妻人人澡人人爽人人精品浪潮 | aa片在线观看视频在线播放 | aⅴ亚洲 日韩 色 图网站 播放 | 十八禁真人啪啪免费网站 | 一本久道高清无码视频 | 中文字幕+乱码+中文字幕一区 | 亚洲成a人片在线观看日本 | 特大黑人娇小亚洲女 | 人人爽人人爽人人片av亚洲 | 97精品国产97久久久久久免费 | 久久 国产 尿 小便 嘘嘘 | 扒开双腿疯狂进出爽爽爽视频 | 少妇性l交大片欧洲热妇乱xxx | 久久精品国产99久久6动漫 | www国产亚洲精品久久久日本 | 欧美日韩人成综合在线播放 | 成人动漫在线观看 | 夜夜高潮次次欢爽av女 | 一本色道久久综合亚洲精品不卡 | 麻豆成人精品国产免费 | 中国女人内谢69xxxxxa片 | 久久zyz资源站无码中文动漫 | 永久免费精品精品永久-夜色 | 毛片内射-百度 | 色综合久久久久综合一本到桃花网 | 丰满诱人的人妻3 | 欧美黑人性暴力猛交喷水 | 在教室伦流澡到高潮hnp视频 | 久久成人a毛片免费观看网站 | 特大黑人娇小亚洲女 | 少妇被粗大的猛进出69影院 | 国产国产精品人在线视 | 免费国产黄网站在线观看 | 色一情一乱一伦一视频免费看 | 99久久精品午夜一区二区 | 国产精品无码mv在线观看 | 爆乳一区二区三区无码 | 亚洲码国产精品高潮在线 | 国产亚洲精品久久久久久国模美 | 国产精品99久久精品爆乳 | 国产激情艳情在线看视频 | 亚洲国产日韩a在线播放 | 国产av久久久久精东av | aa片在线观看视频在线播放 | 乱人伦人妻中文字幕无码久久网 | 国产无遮挡吃胸膜奶免费看 | 真人与拘做受免费视频一 | 无人区乱码一区二区三区 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 精品欧美一区二区三区久久久 | 日韩精品久久久肉伦网站 | 精品熟女少妇av免费观看 | 水蜜桃色314在线观看 | 纯爱无遮挡h肉动漫在线播放 | 国产精品香蕉在线观看 | 51国偷自产一区二区三区 | 55夜色66夜色国产精品视频 | 又大又硬又黄的免费视频 | 亚拍精品一区二区三区探花 | 天天拍夜夜添久久精品大 | 欧美黑人巨大xxxxx | 成人av无码一区二区三区 | 日本一区二区三区免费播放 | 一本久道久久综合婷婷五月 | 亚洲 另类 在线 欧美 制服 | 欧美肥老太牲交大战 | 久久精品国产亚洲精品 | 欧美怡红院免费全部视频 | 国产精品久久久久影院嫩草 | 国产情侣作爱视频免费观看 | √天堂资源地址中文在线 | 日本一区二区三区免费播放 | 97久久国产亚洲精品超碰热 | 色欲综合久久中文字幕网 | 好爽又高潮了毛片免费下载 | 欧美熟妇另类久久久久久不卡 | 亚洲国产一区二区三区在线观看 | 久久综合九色综合欧美狠狠 | 小鲜肉自慰网站xnxx | 亚洲第一网站男人都懂 | 日日夜夜撸啊撸 | 美女黄网站人色视频免费国产 | 麻豆蜜桃av蜜臀av色欲av | 亚无码乱人伦一区二区 | 樱花草在线播放免费中文 | 精品国产一区av天美传媒 | 欧美乱妇无乱码大黄a片 | 亚洲狠狠色丁香婷婷综合 | 久久综合色之久久综合 | 成人免费视频在线观看 | 欧美丰满熟妇xxxx性ppx人交 | 亚洲熟熟妇xxxx | 中文字幕+乱码+中文字幕一区 | 亚洲国产精品久久久久久 | 亚洲日本va午夜在线电影 | 精品少妇爆乳无码av无码专区 | 久久午夜无码鲁丝片 | 暴力强奷在线播放无码 | 狂野欧美激情性xxxx | 国产香蕉97碰碰久久人人 | 亚洲精品午夜国产va久久成人 | 亚洲色在线无码国产精品不卡 | 国产精品成人av在线观看 | 中文字幕中文有码在线 | 牲欲强的熟妇农村老妇女视频 | 性色欲网站人妻丰满中文久久不卡 | 天堂а√在线地址中文在线 | 日本饥渴人妻欲求不满 | 美女张开腿让人桶 | 成人一区二区免费视频 | 伊人久久婷婷五月综合97色 | 亚洲中文字幕在线无码一区二区 | 99久久精品无码一区二区毛片 | 无码成人精品区在线观看 | 日产精品高潮呻吟av久久 | 亚洲另类伦春色综合小说 | 又紧又大又爽精品一区二区 | 男女性色大片免费网站 | 久久 国产 尿 小便 嘘嘘 | 波多野结衣av一区二区全免费观看 | 水蜜桃亚洲一二三四在线 | 精品人妻中文字幕有码在线 | 日本免费一区二区三区最新 | 久久aⅴ免费观看 | 国产国产精品人在线视 | 四虎永久在线精品免费网址 | 色诱久久久久综合网ywww | 激情内射亚州一区二区三区爱妻 | 蜜臀av无码人妻精品 | 亚洲综合在线一区二区三区 | 欧美freesex黑人又粗又大 | 无人区乱码一区二区三区 | 欧美日韩亚洲国产精品 | 精品国偷自产在线视频 | 国产成人精品视频ⅴa片软件竹菊 | 麻豆md0077饥渴少妇 | 九九综合va免费看 | 国产人妖乱国产精品人妖 | 亚洲熟熟妇xxxx | 国产精品久久久久7777 | 国产 浪潮av性色四虎 | 亚洲日韩av片在线观看 | 在线а√天堂中文官网 | 少妇高潮喷潮久久久影院 | 鲁鲁鲁爽爽爽在线视频观看 | 欧美老妇交乱视频在线观看 | 久热国产vs视频在线观看 | yw尤物av无码国产在线观看 | 亚洲区欧美区综合区自拍区 | 国内精品人妻无码久久久影院蜜桃 | 国产在线一区二区三区四区五区 | 国产av剧情md精品麻豆 | 欧美激情一区二区三区成人 | 中国大陆精品视频xxxx | 午夜福利电影 | 亚洲日本va午夜在线电影 | 亲嘴扒胸摸屁股激烈网站 | 亚洲の无码国产の无码步美 | 国产成人精品一区二区在线小狼 | 国产午夜视频在线观看 | 国产高潮视频在线观看 | 亚洲一区二区三区 | 四虎国产精品一区二区 | 毛片内射-百度 | 国产高潮视频在线观看 | 波多野结衣 黑人 | 性史性农村dvd毛片 | 红桃av一区二区三区在线无码av | 女人被男人躁得好爽免费视频 | 国产乱子伦视频在线播放 | 人妻少妇精品视频专区 | 美女黄网站人色视频免费国产 | 色五月五月丁香亚洲综合网 | 精品人妻人人做人人爽夜夜爽 |