點擊上方“IT那活兒”公眾號,關注后了解更多內容,不管IT什么活兒,干就完了!!!
apiVersion: v1
kind: Pod
metadata:
//元數據
name: string
namespace: string
labels:
-name: string
annotations:
-name: string
spec:
containers:
//pod 中的容器列表,可以有多個容器
- name: string
//容器的名稱
image: string //容器中的鏡像
imagesPullPolicy: [Always|Never|IfNotPresent]//獲取鏡像的策略,默認值為Always,每次都嘗試重新下載鏡像
command: [string]
//容器的啟動命令列表(不配置的話使用鏡像內部的命令) args:
[string]
//啟動參數列表
workingDir: string
//容器的工作目錄 volumeMounts:
//掛載到到容器內部的存儲卷設置
-name: string
mountPath: string
//存儲卷在容器內部 Mount 的絕對路徑 readOnly: boolean
//
默認值為讀寫
ports: //容器需要暴露的端口號列表
-name: string
containerPort: int //容器要暴露的端口
hostPort: int //容器所在主機監聽的端口(容器暴露端口映射到宿主機的端口,設置hostPort 時同一臺宿主機將不能再啟動該容器的第 2 份副本)
protocol: string
//TCP 和 UDP,默認值為 TCP env:
//容器運行前要設置的環境列表
-name: string value: string
resources:
limits:
//資源限制,容器的最大可用資源數量 cpu: Srting
memory: string
requeste:
//資源限制,容器啟動的初始可用資源數量 cpu: string
memory: string
livenessProbe:
//pod 內容器健康檢查的設置 exec:
command: [string] //exec 方式需要指定的命令或腳本 httpGet:
//通過 httpget 檢查健康
path: string port: number host: string scheme: Srtring httpHeaders:
- name: Stirng value: string
tcpSocket:
//通過 tcpSocket 檢查健康
port: number initialDelaySeconds: 0//首次檢查時間 timeoutSeconds: 0
//檢查超時時間
periodSeconds: 0
//檢查間隔時間
successThreshold: 0
failureThreshold: 0 securityContext:
//安全配置
privileged: falae
restartPolicy: [Always|Never|OnFailure]//重啟策略,默認值為 Always
nodeSelector: object //節點選擇,表示將該 Pod 調度到包含這些 label 的 Node 上,以key:value 格式指定
imagePullSecrets:
-name: string
hostNetwork: false
//是否使用主機網絡模式,棄用 Docker 網橋,默認否
volumes: //在該 pod 上定義共享存儲卷列表
-name: string emptyDir: {} hostPath:
path: string secret:
secretName: string item:
-key: string path: string
configMap: name: string items:
-key: string
path: string
apiVersion: v1 kind: Pod metadata:
name: mytomcat labels:
name: mytomcat spec:
containers:
- name: mytomcat image: tomcat ports:
- containerPort: 8000
apiVersion: v1 kind: Pod metadata:
name: myweb labels:
name: tomcat-redis
spec:
containers:
-name: tomcat image: tomcat ports:
-containerPort: 8080
-name: redis image: redis ports:
-containerPort: 6379
3)創建
Heapster:集群中各 node 節點的 cAdvisor 的數據采集匯聚系統,通過調用 node 上 kubelet 的 api,再通過 kubelet 調用 cAdvisor 的 api 來采集所在節點上所有容器的性能數據。Heapster 對性能數據進行聚合,并將結果保存到后端存儲系統,heapster 支持多種后端存儲系統,如 memory,Influxdb 等。
Influxdb:分布式時序數據庫(每條記錄有帶有時間戳屬性),主要用于實時數據采集,時間跟蹤記錄,存儲時間圖表,原始數據等。Influxdb 提供 rest api 用于數據的存儲與查詢。
Grafana:通過 dashboard 將 Influxdb 中的時序數據展現成圖表或曲線等形式,便于查看集群運行狀態。
[root@kubenode1 influxdb]# sed -i s|gcr.io/google_containers/heapster-grafana-
amd64:v4.4.3|netonline/heapster-grafana-amd64:v4.4.3|g grafana.yaml
[root@kubenode1 influxdb]# sed -i 43s|# value:|value:|g grafana.yaml
[root@kubenode1 influxdb]# sed -i 44s|value:|# value:|g grafana.yaml
[root@kubenode1 influxdb]# cat grafana.yaml
……
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: monitoring-grafananamespace: kube-system
spec:
replicas: 1
template:
metadata:
labels:
task: monitoring
k8s-app: grafana
spec:
containers:
- name: grafana
image: netonline/heapster-grafana-amd64:v4.4.3
ports:
- containerPort: 3000
protocol: TCP
volumeMounts:
- mountPath: /etc/ssl/certs
name: ca-certificates
readOnly: true
- mountPath: /var
name: grafana-storage
env:
- name: INFLUXDB_HOST
value: monitoring-influxdb
- name: GF_SERVER_HTTP_PORT
value: "3000"
# The following env variables are required to make Grafana accessible
via
# the kubernetes api-server proxy. On production clusters, we
recommend
# removing these env variables, setup auth for grafana, and expose
the grafana
# service using a LoadBalancer or a public IP.
- name: GF_AUTH_BASIC_ENABLED
value: "false"
- name: GF_AUTH_ANONYMOUS_ENABLED
value: "true"
- name: GF_AUTH_ANONYMOUS_ORG_ROLE
value: Admin
- name: GF_SERVER_ROOT_URL
# If youre only using the API Server proxy, set this value instead:
value: /api/v1/namespaces/kube-system/services/monitoring-
grafana/proxy
# value: /
volumes:
- name: ca-certificates
hostPath:
path: /etc/ssl/certs
- name: grafana-storage
emptyDir: {
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/129488.html
摘要:有很大一部分的休息時間都用來完成了我的第一本掘金小冊從上手到實踐小冊已經正式上線,特意送上各位小伙伴一份禮物,小冊折優惠。 時間飛逝,轉眼今年又要結束了。感謝還在關注的小伙伴,今年確實更新很少,能不取關的都是真愛... 今年發生了很多事情,留著過幾天年終總結的時候再說。有很大一部分的休息時間都用來完成了我的第一本掘金小冊 《Kubernetes 從上手到實踐》 showImg(http...
摘要:有很大一部分的休息時間都用來完成了我的第一本掘金小冊從上手到實踐小冊已經正式上線,特意送上各位小伙伴一份禮物,小冊折優惠。 時間飛逝,轉眼今年又要結束了。感謝還在關注的小伙伴,今年確實更新很少,能不取關的都是真愛... 今年發生了很多事情,留著過幾天年終總結的時候再說。有很大一部分的休息時間都用來完成了我的第一本掘金小冊 《Kubernetes 從上手到實踐》 showImg(http...
摘要:有很大一部分的休息時間都用來完成了我的第一本掘金小冊從上手到實踐小冊已經正式上線,特意送上各位小伙伴一份禮物,小冊折優惠。 時間飛逝,轉眼今年又要結束了。感謝還在關注的小伙伴,今年確實更新很少,能不取關的都是真愛... 今年發生了很多事情,留著過幾天年終總結的時候再說。有很大一部分的休息時間都用來完成了我的第一本掘金小冊 《Kubernetes 從上手到實踐》 showImg(http...
摘要:曾為美國谷歌集群管理組核心成員,主要參與開發集群管理系統。保證系統升級軟硬件錯誤等均能及時被發現并處理,谷歌集群能小時不間斷工作。關于集群管理經驗,首先一定要專注于持久的運維自動化工具開發。 本文僅用于學習和交流目的,不得用于商業目的。非商業轉載請注明作譯者、出處,并保留本文的原始鏈接:http://www.ituring.com.cn/art... 訪談嘉賓: 鄧德源, 才云科技CT...
摘要:曾為美國谷歌集群管理組核心成員,主要參與開發集群管理系統。保證系統升級軟硬件錯誤等均能及時被發現并處理,谷歌集群能小時不間斷工作。關于集群管理經驗,首先一定要專注于持久的運維自動化工具開發。 本文僅用于學習和交流目的,不得用于商業目的。非商業轉載請注明作譯者、出處,并保留本文的原始鏈接:http://www.ituring.com.cn/art... 訪談嘉賓: 鄧德源, 才云科技CT...
摘要:本文內容節選自由主辦的第七屆,架構師高欣分享的的實踐實錄。當然,在部署完成后,我們要做一個監測以便掌握它的運行狀況。規劃配置運行環境在正式部署前,還要考慮如何規劃并配置好運行環境。在使用部署時,可以利用這些命令做驗證,檢驗部署是否正常。 showImg(https://segmentfault.com/img/bVblRHj?w=2880&h=1920); 本文內容節選自由msup主辦...
閱讀 1347·2023-01-11 13:20
閱讀 1685·2023-01-11 13:20
閱讀 1133·2023-01-11 13:20
閱讀 1860·2023-01-11 13:20
閱讀 4101·2023-01-11 13:20
閱讀 2705·2023-01-11 13:20
閱讀 1386·2023-01-11 13:20
閱讀 3599·2023-01-11 13:20