摘要:總結本次鏡像化大概花了一周的時間,包括測試和解決一些坑,很多知識點包括原來的項目都不是太熟悉,所以記錄一下,可能回頭會發現這些很,但是相信對一些人還是有用的。
背景
手里有一個web項目,代碼按照前端代碼庫、后端代碼庫分別在GitHub上,分散帶來的結果是,不容易持續集成,比如你可能需要很多的job去保證一個項目的正常運作,但是這個項目也不是特別大,所以嘗試將代碼融合,于此同時將代碼docker化,用于持續部署。
技術架構原來的代碼使用gunicorn+gevent+supervisor+flask+DB的架構;具體的細節如下:
本地服務器搭建了一個nginx域名服務器,里面區分PC端還是手機端;
訪問域名通過nginx,訪問前端靜態頁面的內容
靜態頁面中加載指定地址的數據,提供數據的服務由flask后端提供接口;
后端提供的接口,通過訪問redis緩存和mongodb數據庫,返回相應的數據;
上篇文章說了flask項目是怎么拆分和組合的,但是上次僅僅是使用docker,多個容器之間使用的--link連接起來的,本篇文章將介紹如何使用docker-compose代替原來的多個docker命令;
docker compose是什么可以自行搜索,我直接上我的docker-compose.yml
version: "3" services: flask: image: "flask:latest" restart: always depends_on: - mongoDB - redisDB tty: true stdin_open: false environment: SLEEP_SECOND: 10 container_name: flask logging: driver: "json-file" options: max-size: "200M" max-file: "10" command: "gunicorn manage:app -k gevent -w 4 -b 0.0.0.0" volumes: - $HOME/logs:/app/logs
networks: - inline-network ports: - "8000:8000" matrix: image: "flask:latest" restart: always depends_on: - mongoDB - redisDB tty: true stdin_open: false environment: SLEEP_SECOND: 10 container_name: matrix command: "flask matrix" volumes: - $HOME/logs:/app/logs - /etc/localtime:/etc/localtime networks: - inline-network broadcast: image: "flask:latest" restart: always depends_on: - mongoDB - redisDB tty: true stdin_open: false environment: SLEEP_SECOND: 10 container_name: broadcast command: "flask broadcast" volumes: - $HOME/logs:/app/logs - /etc/localtime:/etc/localtime networks: - inline-network redisDB: image: "redis:latest" container_name: redis restart: always networks: inline-network: aliases: - redis ports: - "6379:6379" mongoDB: image: "mongo:latest" restart: always container_name: mongo ports: - "27017:27017" volumes: - /var/lib/mongo:/data/db networks: inline-network: aliases: - mongo networks: inline-network: driver: "bridge" ```
解釋:所有的啟動的dontainer都在inline-network網絡環境中,所以可以直接使用aliases指定的名字作為數據庫連接時候的host,本來是不打算將數據庫的端口的,只給flask用,但是后面由于切換的時候是現切換數據庫,在切換后段flask的鏡像,所以就將數據庫端口和宿主機綁定了。
其中flask、matrix、broadcast,都是之前代碼中的功能,使用supervisor啟動的,現在多帶帶啟動三個docker進程去完成。
前端docker前端的PC端和移動端,都使用npm構建成dist文件,然后通過nginx定向到指定的dist文件內容就可以,所以我們對前端的代碼也進行了docker化,使用的是nginx;
dockerfile:
FROM nginx:1.15-alpine COPY dist/ /usr/share/nginx/html COPY default.conf /etc/nginx/conf.d/default.conf ENTRYPOINT nginx -g "daemon off;"
default.conf
server { listen 80; server_name localhost; #charset koi8-r; #access_log /var/log/nginx/host.access.log main; location / { root /usr/share/nginx/html; index index.html index.htm; try_files $uri $uri/ /index.html; } #error_page 404 /404.html; # redirect server error pages to the static page /50x.html # error_page 500 502 503 504 /50x.html; location = /50x.html { root /usr/share/nginx/html; } }
PC端和移動端使用的dockerfile和default.conf都是上面的;
在服務其部署的時候,只需要部署域名服務,將PC端和移動端的docker鏡像映射到宿主機的8088和8087端口,服務器nginx配置中根據PC請求和移動端的請求,定位到指定的PC/移動端nginx鏡像即可。
總結本次鏡像化大概花了一周的時間,包括測試和解決一些坑,很多知識點包括原來的項目都不是太熟悉,所以記錄一下,可能回頭會發現這些很LOW,但是相信對一些人還是有用的。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/27872.html
摘要:背景手里有一個項目,代碼按照前端代碼庫后端代碼庫分別在上,分散帶來的結果是,不容易持續集成,比如你可能需要很多的去保證一個項目的正常運作,但是這個項目也不是特別大,所以嘗試將代碼融合,于此同時將代碼化,用于持續部署。 背景 手里有一個web項目,代碼按照前端代碼庫、后端代碼庫分別在GitHub上,分散帶來的結果是,不容易持續集成,比如你可能需要很多的job去保證一個項目的正常運作,但是...
摘要:背景手里有一個項目,代碼按照前端代碼庫后端代碼庫分別在上,分散帶來的結果是,不容易持續集成,比如你可能需要很多的去保證一個項目的正常運作,但是這個項目也不是特別大,所以嘗試將代碼融合,于此同時將代碼化,用于持續部署。 背景 手里有一個web項目,代碼按照前端代碼庫、后端代碼庫分別在GitHub上,分散帶來的結果是,不容易持續集成,比如你可能需要很多的job去保證一個項目的正常運作,但是...
摘要:背景手里有一個項目,代碼按照前端代碼庫后端代碼庫分別在上,分散帶來的結果是,不容易持續集成,比如你可能需要很多的去保證一個項目的正常運作,但是這個項目也不是特別大,所以嘗試將代碼融合,于此同時將代碼化,用于持續部署。 背景 手里有一個web項目,代碼按照前端代碼庫、后端代碼庫分別在GitHub上,分散帶來的結果是,不容易持續集成,比如你可能需要很多的job去保證一個項目的正常運作,但是...
摘要:總結本次鏡像化大概花了一周的時間,包括測試和解決一些坑,很多知識點包括原來的項目都不是太熟悉,所以記錄一下,可能回頭會發現這些很,但是相信對一些人還是有用的。 背景 手里有一個web項目,代碼按照前端代碼庫、后端代碼庫分別在GitHub上,分散帶來的結果是,不容易持續集成,比如你可能需要很多的job去保證一個項目的正常運作,但是這個項目也不是特別大,所以嘗試將代碼融合,于此同時將代碼d...
閱讀 2882·2021-09-28 09:36
閱讀 3608·2021-09-27 13:59
閱讀 2484·2021-08-31 09:44
閱讀 2278·2019-08-30 15:54
閱讀 2352·2019-08-30 15:44
閱讀 1180·2019-08-30 13:45
閱讀 1223·2019-08-29 18:38
閱讀 1207·2019-08-29 18:37