VPGAME的Kubernetes遷移實踐

echa攻城獅 發佈 2020-03-11T12:38:36+00:00

通過增加metadata.annotations 為 service.beta.kubernetes.io/alicloud-loadbalancer-address-type: intranet 可以在對該 Service 進行創建的同時創建一個阿里雲內網 SLB 作為對該 S

VPGAME 是集賽事運營、媒體資訊、大數據分析、玩家社群、遊戲周邊等為一體的綜合電競服務平台。總部位於中國杭州,在上海和美國西雅圖分別設立了電競大數據研發中心和 AI 研發中心。本文將講述 VPGAME 將伺服器遷移至 Kubernetes 的過程。

背景

隨著容器技術的日趨成熟,公司近期計劃將服務遷移至容器環境,通過 Kubernetes 對容器進行調度、編排和管理。並藉此機會,對服務進行標準化,優化整個 CI/CD 的流程,提高服務部署的效率。

CI/CD 工具的選擇

CI/CD 工具上,我們選擇了 GitLab-CI。GitLab-CI 就是一套配合 GitLab 使用可持續集成系統,以完成代碼提交之後的安裝依賴、編譯、單元測試、lint、鏡像構建以及發布等工作。

GitLab-CI 完美地和 GitLab 進行集成,在使用的時候只需要安裝配置 gitlab-runner 即可。GitLab-Runner 在向 GitLab 完成註冊後可以提供進行 CI/CD 操作的環境,負責從 GitLab 中拉取代碼,根據代碼倉庫中配置的 gitlab-ci.yml ,執行相應的命令進行 CI/CD 工作。

相比於 Jenkins,GitLab-CI 配置簡單,只需在工程中配置 gitlab-ci.yml 文件完成 CI/CD 流程的編寫,不需要像在 Jenkins 里一樣配置 webhook 回調地址,也不需要 Jenkins 新建這個項目的編譯配置。並且個人認為 GitLab 的 CI/CD 過程顯示比 Jenkins 更加美觀。當然 Jenkins 依靠它豐富的插件,可以配置很多 GitLab-CI 不存在的功能。按照現在我們的需求, GitLab-CI 簡單易用,在功能也滿足我們的需求。

服務運行環境

容器環境優點

傳統的服務部署方式是在作業系統中安裝好相應的應用依賴,然後進行應用服務的安裝,這種部署方式的缺點是將服務的程序、配置、依賴庫以及生命周期與宿主機作業系統緊密地耦合在一起,對服務的升級、擴縮容、遷移等操作不是十分便利。

容器的部署方式則是以鏡像為核心,在代碼進行編譯構建時,將應用程式與應用程式運行所需要的依賴打包成一個鏡像,在部署階段,通過鏡像創建容器實例完成服務的部署和運行。從而實現以應用為中心的管理,容器的隔離性實現了資源的隔離,由於容器不需要依賴宿主機的作業系統環境,所以可以很好地保證開發、測試和生產環境的一致性。此外,由於構建好的鏡像是不可變的,並且可以通過 tag 進行版本控制,所以可以提供可靠、頻繁的容器鏡像構建和部署,亦可方便及快速進行回滾操作。

Kubernetes 平台功能

Kubernetes(簡稱 k8s),作為一個容器調度、編排和管理平台,可以在物理或虛擬機集群上調度和運行應用程式容器,提供了一個以容器為核心的基礎架構。通過 Kubernetes,對容器進行編排和管理,可以:

  • 快速、可預測地部署服務
  • 擁有即時擴展服務的能力
  • 滾動升級,完成新功能發布
  • 優化硬體資源,降低成本

阿里雲容器服務優勢

我們在服務遷移中選用了阿里雲的容器服務,它基於原生 Kubernetes 進行適配和增強,簡化集群的搭建和擴容等工作,整合阿里雲虛擬化、存儲、網絡和安全能力,打造雲端最佳的 Kubernetes 容器化應用運行環境。在便捷性上,可以通過 Web 介面一鍵完成 Kubernetes 集群的創建、升級以及節點的擴縮容。功能上,在網絡、存儲、負載均衡和監控方面與阿里雲資源集成,在遷移過程中可以最小化減少遷移帶來的影響。

此外,在選擇集群創建時,我們選擇了託管版 Kubernetes,只需創建 Worker 節點,Master 節點由容器服務創建並託管。如此一來,我們在 Worker 節點的規劃與資源隔離上還是具備自主性和靈活性的同時不需要運維管理 Kubernetes 集群 Master 節點,可以將更多的精力關注在應用服務上。

GitLab Runner 部署

GitLab CI 工作流程

GitLab CI 基本概念

在介紹 GitLab CI 之前,首先簡單介紹一下 GitLab CI 里的一些基本概念,具體如下:

  • Pipeline:Gitlab CI 里的流水線,每一次代碼的提交觸發 GitLab CI 都會產生一個 Pipeline。
  • Stage:每個 Pipeline 由多個 Stage 組成,並且每個 Stage 是有先後順序的。
  • Job:GitLab CI 里的最小任務單元,負責完成具有一件事情,例如編譯、測試、構建鏡像等。每個 Job 都需要指定 Stage ,所以 Job 的執行順序可以通過制定不同的 Stage 來實現。
  • GitLab Runner:是具體執行 Job 的環境,每個 Runner 在同一時間只能執行一個 Job。
  • Executor:每個 Runner 在向 GitLab 註冊的時候需要指定 Executor,來決定通過何種類型的執行器來完成 Job。

GitLab CI 的工作流程

當有代碼 push 到 GitLab 時,就會觸發一個 Pipeline。然後進行編譯,測試和鏡像構建等操作等操作,其中每一步操作都為一個 Job。在 CD 階段,會將 CI 階段構建出來的結果根據情況部署到測試環境或生產環境。

GitLab Runner 介紹

Gitlab Runner 分類

GitLab 中有三種類型的 Runner ,分別為:

  • shared:所有項目使用
  • group:group下項目使用
  • specific:指定項目使用

我們可以根據需要向 GitLab 註冊不同類型的 Runner,註冊的方式是相同的。

Gitlab Runner 工作過程

Runner 首先會向 GitLab 發起註冊請求,請求內容中包含 token、tag 等信息,註冊成功後 GitLab 會向 Runner 返回一個 token,後續的請求,Runner 都會攜帶這個請求。

註冊成功後,Runner 就會不停的向 GitLab 請求 Job,時間間隔是 3s。若沒有請求到 Job,GitLab 返回 204 No Content。如果請求到 Job,GitLab 會把 Job 信息返回回來,Runner 在接收到 Job 之後,會向 GitLab 發送一個確認請求,同時更新任務的狀態。之後,Runner 開始 Job 的執行, 並且會定時地將中間數據,以 Patch 請求的方式發送給 GitLab。

GitLab Runner 的 Executor

Runner 在實際執行 Job 時,是通過調用 Executor 來完成的。Runner 在註冊時提供了 SSH、Shell、Docker、docker-ssh、VirtualBox、Kubernetes 等不同類型的 Executor 來滿足不同的場景和需求。

其中我們常用的有 Shell 和 Docker 等 Executor,Shell 類型主要是利用 Runner 所在主機的環境進行 Job的執行。而 Docker 類型的 Executor 在每個 Job 開始時,拉取鏡像生產一個容器,在容器里完成 Job,在 Job 完成後,對應的容器就會被銷毀。由於 Docker 隔離性強、輕量且回收,我們在使用時選用 Docker 類型的 Executor 去執行 Job,我們只要提前做好 Job 所需環境的 Docker 鏡像,在每個 Job 定義好 image 即可使用對應的環境,操作便捷。

GitLab Runner 安裝與配置

Docker 安裝

由於我們需要使用 Docker 類型的 Executor,所以需要在運行 Runnner 的伺服器上先安裝 Docker,具體步驟如下(CentOS 環境):

安裝需要的軟體包,yum-util 提供 yum-config-manager 功能,另外兩個是 DeviceMapper 驅動依賴:

yum install -y yum-utils device-mapper-persistent-data lvm2

設置 yum 源:

yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo

安裝 Docker:

yum install docker-ce -y

啟動並加入開機啟動:

systemctl start dockersystemctl enable docker

Gitlab runner 安裝與啟動

執行下面的命令進行 GitLab Runner 的安裝和啟動:

`curl -L https://packages.gitlab.com/install/repositories/runner/gitlab-runner/script.rpm.sh | sudo bashsudo yum install gitlab-runner -ygitlab-runner start`

GitLab Runner 註冊與配置更新

啟動 GitLab Runner 後還需要向 GitLab 進行註冊,在註冊前需要從 GitLab 里查詢 token。不同類型的 Runner 對應的 token 獲取的路徑不同。shared Runner 需要 admin 權限的帳號,按如下方式可以獲取對應的 token。

其他兩種類型在對應的頁面下( group 或 project 主頁)的 setting—>CI/CD—>Runner 可以獲取到 token。

Runner 的註冊方式分為交互式和非交互式兩種。其中交互式註冊方式,在輸入 gitlab-runner register 命令後,按照提示輸入註冊所需要的信息,包括 gitlab url、token 和 Runner 名字等。這邊個人比較推薦非交互式命令,可以事先準備好命令,完成一鍵註冊,並且非交互式註冊方式提供了更多的註冊選項,可以滿足更多樣化的需求。

按如下示例即可完成一個 Runner 的註冊:

  1. gitlab-runner register --non-interactive \
  2. --url "http://git.xxxx.cn" \
  3. --registration-token "xxxxxxxxxxx" \
  4. --executor "docker" \
  5. --docker-image alpine:latest \
  6. --description "base-runner-docker" \
  7. --tag-list "base-runner" \
  8. --run-untagged="true" \
  9. --docker-privileged="true" \
  10. --docker-pull-policy "if-not-present" \
  11. --docker-volumes /etc/docker/daemon.json:/etc/docker/daemon.json \
  12. --docker-volumes /etc/gitlab-runner/key/docker-config.json:/root/.docker/config.json \
  13. --docker-volumes /etc/gitlab-runner/find_diff_files:/usr/bin/find_diff_files \
  14. --docker-volumes /etc/gitlab-runner/key/id_rsa:/root/.ssh/id_rsa \
  15. --docker-volumes /etc/gitlab-runner/key/test-kube-config:/root/.kube/config

我們可以通過 --docker-pull-policy 指定 Executor 執行 Job 時 Dokcer 鏡像下載策略。--docker-volumes 指定容器與宿主機(即 Runner 運行的伺服器)的文件掛載映射關係。上面掛載的文件主要是用於 Runner 在執行 Job 時,運用的一些 key,包括訪問 GitLab、Docker Harbor 和 Kubernetes 集群的 key。當然,如果還有其他文件需要共享給容器,可以通過 --docker-volumes 去指定。

/etc/docker/daemon.json 文件主要為了可以以 http 方式訪問 docker horbor 所做的設置:

{ "insecure-registries" : ["http://docker.vpgame.cn"] }

完成註冊後,重啟 Runner 即可:

gitlab-runner restart

部署完成後,可以在 GitLab 的 Web 管理介面查看到不同 Runner 的信息。

此外,如果一台服務需要註冊多個 Runner ,可以修改 /etc/gitlab-runner/config.toml 中的 concurrent 值增加 Runner 的並發數,修改完之後同樣需要重啟 Runner。

Docker 基礎鏡像製作

為了滿足不同服務對運行環境的多樣化需求,我們需要為不同語言的服務提前準備不同的基礎鏡像用於構建鏡像階段使用。此外,CI/CD 所需要的工具鏡像也需要製作,作為 Runner 執行 Job 時生成容器所需要的 Docker 鏡像。

所有的鏡像都以編寫 Dockerfile 的形式通過 GitLab 進行管理,並且我們編寫了 .gitlab-ci.yml 文件,使得每次有 Dockerfile 新增或者修改就會觸發 Pipeline 進行鏡像的構建並上傳到 Harbor 上。這種管理方式有以下優點:

  • 按照一定規則自動構建鏡像,可以快速便捷地新建和更新鏡像
  • 根據規則可以找到鏡像對應的 Dockerfile,明確鏡像的具體組成
  • 團隊成員可以通過提交 Merge Request 自由地構建自己需要的鏡像

鏡像分類

  • 運行時基礎鏡像:提供各個語言運行時必須的工具和相應的 package。
  • CI 鏡像:基於運行時基礎鏡像,添加單元測試、lint、靜態分析等功能,用在 CI/CD 流程中的 test 環節。
  • 打包上線鏡像:用在 CI/CD 流程中的 build 和 deploy 環節。

Dockerfile目錄結構

每個文件夾都有 Dockerfile 來描述鏡像的基本情況,其中包含了 Java、PHP、Node 和 Go 等不同語言的運行時基礎鏡像和 CI 鏡像,還有 docker-kubectl 這類工具鏡像的 Dockerfile。

以 PHP 鏡像為例:

php/ 
   ├── 1.0 
   │   ├── Dockerfile 
   │   ├── ci-1.0 
   │   │   └── Dockerfile 
   │   ├── php.ini 
   │   ├── read-zk-config 
   │   ├── start_service.sh 
   │   └── www.conf 
   └── nginx 
       ├── Dockerfile 
       ├── api.vpgame.com.conf 
       └── nginx.conf

該目錄下有一個名為 1.0 的文件夾,裡面有一個 Dockerfile 用來構建 php fpm 運行時基礎進行鏡像。主要是在 php:7.1.16-fpm-alpine3.4 加了我們自己定製化的文件,並指定工作目錄和容器初始命令。

  1. FROM php:7.1.16-fpm-alpine3.4

  2. RUN sed -i 's/dl-cdn.alpinelinux.org/mirrors.aliyun.com/g' /etc/apk/repositories\
  3. && apk upgrade --update && apk add --no-cache --virtual build-dependencies $PHPIZE_DEPS \
  4. tzdata postgresql-dev libxml2-dev libmcrypt libmcrypt-dev libmemcached-dev cyrus-sasl-dev autoconf \
  5. && apk add --no-cache freetype libpng libjpeg-turbo freetype-dev libpng-dev libjpeg-turbo-dev libmemcached-dev \
  6. && cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime \
  7. && echo "Asia/Shanghai" > /etc/timezone \
  8. && docker-php-ext-configure gd \
  9. --with-gd \
  10. --with-freetype-dir=/usr/include/ \
  11. --with-png-dir=/usr/include/ \
  12. --with-jpeg-dir=/usr/include/ \
  13. && docker-php-ext-install gd pdo pdo_mysql bcmath opcache \
  14. && pecl install memcached apcu redis \
  15. && docker-php-ext-enable memcached apcu redis \
  16. && apk del build-dependencies \
  17. && apk del tzdata \
  18. && rm -rf /var/cache/apk/* \
  19. && rm -rf /tmp/* \
  20. && rm -rf /working/* \
  21. && rm -rf /usr/local/etc/php-fpm.d/*

  22. COPY start_service.sh /usr/local/bin/start_service.sh
  23. COPY read-zk-config /usr/local/bin/read-zk-config
  24. COPY php.ini /usr/local/etc/php/php.ini
  25. COPY www.conf /usr/local/etc/php-fpm.d/www.conf
  26. WORKDIR /work
  27. CMD ["start_service.sh"]

在 1.0/ci-1.0 還有一個 Dockerfile,是用來構建 PHP 在進行單元測試和 lint 操作時所使用的 CI 鏡像。可以看到它基於上面的基礎運行時鏡像增加其他工具來進行構建的。

  1. FROM docker.vpgame.cn/infra/php-1.0

  2. ENV PATH="/root/.composer/vendor/bin:${PATH}"
  3. ENV COMPOSER_ALLOW_SUPERUSER=1

  4. RUN mkdir -p /etc/ssh && echo "StrictHostKeyChecking no" >> /etc/ssh/ssh_config
  5. RUN apk --update add --no-cache make libc-dev autoconf gcc openssh-client git bash &&\
  6. echo "apc.enable_cli=1" >> /usr/local/etc/php/conf.d/docker-php-ext-apcu.ini
  7. RUN pecl install xdebug && docker-php-ext-enable xdebug &&\
  8. echo -e "\nzend_extension=xdebug.so" >> /usr/local/etc/php/php.ini
  9. RUN wget https://vp-infra.oss-cn-beijing.aliyuncs.com/gitlab-ci/software/download/1.6.5/composer.phar -O /bin/composer && \
  10. chmod +x /bin/composer && \
  11. composer config -g -q repo.packagist composer https://packagist.laravel-china.org
  12. RUN composer global require -q phpunit/phpunit:~5.0 squizlabs/php_codesniffer:~3.0

  13. WORKDIR /

  14. CMD ["/bin/bash"]

另外 Nginx 目錄下同樣有 Dockerfile,來定製化我們 PHP 項目所需要的 Nginx 鏡像。

在 GitLab 里第一次增加新的 Dockerfile 或者更改 Dockerfile 時,會觸動 Pipeline 自動進行鏡像的構建並上傳的我們私有的 Docker Harbor 上。

鏡像自動構建基本原理

由於各個鏡像通過 Dockerfile 進行管理, Master 分支有新的合併,可以通過 git diff 命令找出合併前後新增或更新的 Dockerfile,然後根據這些 Dockerfile 依據一定的命名規則構建鏡像,並上傳到 Docker Harbor 上。

上面命令中 finddifffiles 基於 git diff 命令找出合併前後有差異的文件。

加速 tips

  • Alpine Linux Package Management(APK)鏡像地址:http://mirrors.aliyun.com
  • 一些海外軟體下載會比較慢,可以先下載下來上傳至阿里雲 OSS 後下載。Dockerfile 使用阿里雲 OSS 作為下載源,減少構建鏡像時間。

基於 .gitlab-ci.yml 的 CI/CD 流程

在完成 GitLab Runner 以及 Docker 基礎鏡像的製作之後,我們便可以進行 CI/CD 流程來完成代碼更新之後的單元測試、lint、編譯、鏡像打包以及部署等工作。通過 GitLab CI 進行 CI/CD 的操作只需要在代碼倉庫里編輯和維護一個 .gitlab-ci.yml 文件,每當代碼有更新,GitLab CI 會讀取 .gitlab-ci.yml 里的內容,生成一條 Pipeline 進行 CI/CD 的操作。.gitlab-ci.yml 的語法比較簡單,基於 yaml 語法進行 Job 的描述。我們把 CI/CD 流程中所需要完成的任務拆分成文件里的 Job,只要對每個 Job 完成清晰的定義,便可形成一套合適高效並具有普適性的 CI/CD 流程。

定義 stages

stages 是一個非常重要的概念, 在 .gitlab-ci.yml 中進行全局定義, 在定義 Job 時指定其中的值來表明 Job 所處的 stage。而在 stages 里元素的順序定義了 Job 的執行順序:所有在相同 stage 的 Job 會並行執行,只有當前 stage 的所有成功完成後,後面 stage 的 Job 才會去執行。

例如,定義如下 stages:

`stages:

  • build
  • test
  • deploy`
  1. 首先,所有 build 里的 Job 會並行執行;
  2. 當 build 里所有 Job 執行成功, test 里所有 Job 會並行執行;
  3. 如果 test 里所有 Job 執行成功, deploy 里所有 Job 會並行執行;
  4. 如果 deploy 里所有 Job 執行成功, 當前 Pipeline 會被標記為 passed;
  5. 當某個 stage 的 Job 執行失敗, Pipeline 會標記為為 failed,其後續stage 的 Job 都不會被執行。

Job 的描述

Job 是 .gitlab-ci.yml 文件中最重要的組成部分,所有的 CI/CD 流程中所執行的任務均可以需要通過定義 Job 來實現。具體來說,我們可以通過關鍵字來對每一個 Job 進行描述。由於 Job 中的關鍵字眾多,並且用法比較豐富,這邊針對我們自己實戰中的一個 Job 來進行說明。

  1. unittest:
  2. stage: test
  3. image: docker.vpgame.cn/infra/php-1.0-ci-1.1
  4. services:
  5. - name: docker.vpgame.cn/infra/mysql-5.6-multi
  6. alias: mysql
  7. - name: redis:4.0
  8. alias: redis_default
  9. script:
  10. - mv .env.tp .env
  11. - composer install --no-dev
  12. - phpunit -v --coverage-text --colors=never --coverage-html=coverage --stderr
  13. artifacts:
  14. when: on_success
  15. paths:
  16. - vendor/
  17. - coverage/
  18. expire_in: 1 hour
  19. coverage: '/^\s*Lines:\s*\d+.\d+\%/'
  20. only:
  21. - branches
  22. - tags
  23. tags:
  24. - base-runner

上面的 Job 主要完成了單元測試的功能,在起始行定義了 Job 的名稱。下面我們來解釋 Job 每個關鍵字的具體含義。

stage,定義了 Job 所處的 stage,值為定義在全局中 stages 里的值。

image,指定了 Runner 運行所需要的鏡像,這個鏡像是我們之前製作的基本鏡像。通過該鏡像運行的 Docker 即是 Job 運行的環境。

services,Runner 所運行的 Docker 所需要的連接依賴,在這邊分別定義了 MySQL 和 Redis,在 Job 運行時會去連接這兩個鏡像生成的 Docker。

script,Job 運行的具體的命令 ,通過 Shell 來描述。此 Job 中的 script 主要完成了代碼的編譯和單元測試。

artifacts,主要是將此 Job 中完成的結果打包保存下來,可以通過 when 指定何時保存,path 定義了保存的文件路徑, expire_in 指定了結果保存的有效期。與之對應的是 dependencies 參數,如果其他 Job 需要此 Job 的 artifacts ,只需要在 Job 按照如下定義即可。

`dependencies:

  • unittest`

only 關鍵字指定了 Job 觸發的時機,該例子中說明只有分支合併或者打 tag 的情況下,該 Job 才會被觸發。

與 only 相對還有 except 關鍵字來排除觸發 Job 某些情況。此外 only 還支持正則表達式,比如:

  1. job:
  2. only:
  3. - /^issue-.*$/
  4. except:
  5. - branches

這個例子中,只有以 issue- 開頭 tag 標記才會觸發 Job。如果不加 except 參數,以 issue- 開頭的分支 或者 tag 標記會會觸發 Job。

tags,tags關鍵字主要是用來指定運行的 Runner 類型。在我們實際運用中,部署測試環境和生產環境所採用的 Runner 是不一樣的,它們是通過不同的 tag 去標識區分。

所以,我們在 Job 定義中,通過 tags 指定 Runner 的值,來指定所需要的 Runner。

我們可以看到 Job 的定義非常的清晰和靈活,關於 Job 的使用遠不止這些功能,更詳細的用法可以參考 GitLab CI/CD 官方文檔。

CI/CD 流程編排

在清楚了如何描述一個 Job 之後,我們通過定義一個個 Job,並進行編排形成 Pipelines。因為我們可以描述設定 Job 的觸發條件,所以通過不同的條件可以觸發形成不一樣的 Pipelines。

在 PHP 項目 Kubernetes 上線過程中,我們規定了合併 Master 分支會進行 lint、unitest、build-test 以及 deploy-test 四個 Job。

在測試環境驗證通過之後,我們再通過打 tag 進行正式環境的上線。此處的 Pipelines 包含了 unittest、build-pro 和 deploy-pro 三個 Job。

build stage:

  1. \# Build stage

  2. .build-op:
  3. stage: build
  4. dependencies:
  5. - unittest
  6. image: docker.vpgame.cn/infra/docker-kubectl-1.0
  7. services:
  8. - name: docker:dind
  9. entrypoint: ["dockerd-entrypoint.sh"]
  10. script:
  11. - echo "Image name:" ${DOCKER_IMAGE_NAME}
  12. - docker build -t ${DOCKER_IMAGE_NAME} .
  13. - docker push ${DOCKER_IMAGE_NAME}
  14. tags:
  15. - base-runner

  16. build-test:
  17. extends: .build-op
  18. variables:
  19. DOCKER_IMAGE_NAME: ${DOCKER_REGISTRY_PREFIX}/${CI_PROJECT_PATH}:${CI_COMMIT_REF_SLUG}-${CI_COMMIT_SHORT_SHA}
  20. only:
  21. - /^testing/
  22. - master

  23. build-prod:
  24. extends: .build-op
  25. variables:
  26. DOCKER_IMAGE_NAME: ${DOCKER_REGISTRY_PREFIX}/${CI_PROJECT_PATH}:${CI_COMMIT_TAG}
  27. only:
  28. - tags

在這邊,由於 build 階段中測試環境和生產環境進行鏡像打包時基本操作時是相同的,都是根據 Dockerfile 進行鏡像的 build 和鏡像倉庫的上傳。這裡用到了一個 extend 參數,可以減少重複的 Job 描述,使得描述更加地簡潔清晰。

我們先定義一個 .build-op 的 Job,然後 build-test 和 build-prod 都通過 extend 進行繼承,可以通過定義關鍵字來新增或覆蓋 .build-op 中的配置。比如 build-prod 重新定義了變量( variables)DOCKER_IMAGE_NAME以及觸發條件(only)更改為了打 tag 。

這邊我們還需要注意到的是在定義 DOCKER_IMAGE_NAME 時,我們引用了 GitLab CI 自身的一些變量,比如 CI_COMMIT_TAG 表示項目的 commit 的 tag 名稱。我們在定義 Job 變量時,可能會引用到一些 GitLab CI 自身變量,關於這些變量的說明可以參考 GitLab CI/CD Variables 中文文檔。

deploy stage:

  1. \# Deploy stage
  2. .deploy-op:
  3. stage: deploy
  4. image: docker.vpgame.cn/infra/docker-kubectl-1.0
  5. script:
  6. - echo "Image name:" ${DOCKER_IMAGE_NAME}
  7. - echo ${APP_NAME}
  8. - sed -i "s~__NAMESPACE__~${NAMESPACE}~g" deployment.yml service.yml
  9. - sed -i "s~__APP_NAME__~${APP_NAME}~g" deployment.yml service.yml
  10. - sed -i "s~__PROJECT_NAME__~${CI_PROJECT_NAME}~g" deployment.yml
  11. - sed -i "s~__PROJECT_NAMESPACE__~${CI_PROJECT_NAMESPACE}~g" deployment.yml
  12. - sed -i "s~__GROUP_NAME__~${GROUP_NAME}~g" deployment.yml
  13. - sed -i "s~__VERSION__~${VERSION}~g" deployment.yml
  14. - sed -i "s~__REPLICAS__~${REPLICAS}~g" deployment.yml
  15. - kubectl apply -f deployment.yml
  16. - kubectl apply -f service.yml
  17. - kubectl rollout status -f deployment.yml
  18. - kubectl get all,ing -l app=${APP_NAME} -n $NAMESPACE

  19. \# Deploy test environment
  20. deploy-test:
  21. variables:
  22. REPLICAS: 2
  23. VERSION: ${CI_COMMIT_REF_SLUG}-${CI_COMMIT_SHORT_SHA}
  24. extends: .deploy-op
  25. environment:
  26. name: test
  27. url: http://example.com
  28. only:
  29. - /^testing/
  30. - master
  31. tags:
  32. - base-runner

  33. \# Deploy prod environment
  34. deploy-prod:
  35. variables:
  36. REPLICAS: 3
  37. VERSION: ${CI_COMMIT_TAG}
  38. extends: .deploy-op
  39. environment:
  40. name: prod
  41. url: http://example.com
  42. only:
  43. - tags
  44. tags:
  45. - pro-deploy

與 build 階段類似,先先定義一個 .deploy-op 的 Job,然後 deploy-test 和 deploy-prod 都通過 extend 進行繼承。

.deploy-op 主要完成了對 Kubernetes Deployment 和 Service 模板文件的一些變量的替換,以及根據生成的 Deployment 和 Service 文件進行 Kubernetes 服務的部署。

deploy-test 和 deploy-prod 兩個 Job 定義了不同變量(variables)以及觸發條件(only)。除此之外, deploy-prod 通過 tags 關鍵字來使用不同的 Runner,將部署的目標集群指向給生產環境的 Kubernetes。

這裡還有一個關鍵字 environment 需要特別說明,在定義了 environment 之後,我們可以在 GitLab 中查看每次部署的一些信息。除了查看每次部署的一些信息之外,我們還可以很方便地進行重新部署和回滾。

可以看到,通過對 Job 的關鍵字進行配置,我們可以靈活地編排出我們所需要的 CI/CD 流程,非常好地滿足多樣化的場景。

Deployment 與 Service 配置

在 CI/CD 流程中完成 Docker 鏡像的打包任務之後需要將服務所對應的鏡像部署到 Kubernetes 集群中。Kubernetes 提供了多種可以編排調度的資源對象。首先,我們簡單了解一下 Kubernetes 中的一些基本資源。

Kubernetes 基本資源對象概覽

Pod

Pod 作為無狀態應用的運行實體是其中最常用的一種資源對象, Kubernetes 中資源調度最小的基本單元,它包含一個或多個緊密聯繫的容器。這些容器共享存儲、網絡和命名空間,以及如何運行的規範。

在 Kubernetes 中, Pod 是非持久的,會因為節點故障或者網絡不通等情況而被銷毀和重建。所以我們在 Kubernetes 中一般不會直接創建一個獨立的 Pod,而是通過多個 Pod 對外提供服務。

ReplicaSet

ReplicaSet 是 Kubernetes 中的一種副本控制器,控制由其管理的 Pod,使 Pod 副本的數量維持在預設的個數。ReplicaSets 可以獨立使用,但是在大多數場景下被 Deployments 作為協調 Pod 創建,刪除和更新的機制。

Deployment

Deployment 為 Pod 和 ReplicaSet 提供了一個聲明式定義方法。通過在 Deployment 中進行目標狀態的描述,Deployment controller 會將 Pod 和 ReplicaSet 的實際狀態改變為所設定的目標狀態。Deployment 典型的應用場景包括:

  • 定義 Deployment 來創建 Pod 和 ReplicaSet
  • 滾動升級和回滾應用
  • 擴容和縮容
  • 暫停和繼續 Deployment

Service

在 Kubernetes 中,Pod 會被隨時創建或銷毀,每個 Pod 都有自己的 IP,這些 IP 也無法持久存在,所以需要 Service 來提供服務發現和負載均衡能力。Service 是一個定義了一組 Pod 的策略的抽象,通過 Label Selector 來確定後端訪問的 Pod,從而為客戶端訪問服務提供了一個入口。每個 Service 會對應一個集群內部的 ClusterIP,集群內部可以通過 ClusterIP 訪問一個服務。如果需要對集群外部提供服務,可以通過 NodePort 或 LoadBalancer 方式。

deployment.yml 配置

deployment.yml 文件用來定義 Deployment。首先通過一個簡單的 deployment.yml 配置文件熟悉 Deployment 的配置格式。

上圖中 deployment.yml 分為8個部分,分別如下:

  1. apiVersion 為當前配置格式的版本
  2. kind 指定了資源類型,這邊當然是 Deployment
  3. metadata 是該資源的元數據,其中 name 是必需的數據項,還可以指定 label 給資源加上標籤
  4. spec 部分是該 Deployment 的規格說明
  5. spec.replicas 指定了 Pod 的副本數量
  6. spec.template 定義 Pod 的基本信息,通過 spec.template.metadata 和 spec.template.spec 指定
  7. spec.template.metadata 定義 Pod 的元數據。至少需要定義一個 label 用於 Service 識別轉發的 Pod, label 是通過 key-value 形式指定的
  8. spec.template.spec 描述 Pod 的規格,此部分定義 Pod 中每一個容器的屬性,name 和 image 是必需項

在實際應用中,還有更多靈活個性化的配置。我們在 Kubernetes 的部署實踐中制定了相關的規範,在以上基礎結構上進行配置,得到滿足我們實際需求的 deployment.yml 配置文件。

在 Kubernetes 的遷移實踐中,我們主要在以下方面對 Deployment 的配置進行了規範的約定:

文件模板化

首先我們的 deployment.yml 配置文件是帶有變量的模版文件,如下所示:

  1. apiVersion: apps/v1beta2
  2. kind: Deployment
  3. metadata:
  4. labels:
  5. app: __APP_NAME__
  6. group: __GROUP_NAME__
  7. name: __APP_NAME__
  8. namespace: __NAMESPACE__

APPNAME__、__GROUPNAMENAMESPACE 這種形式的變量都是在 CI/CD 流程中會被替換成 GitLab 每個 project 所對應的變量,目的是為了多了 project 用相同的 deployment.yml 文件,以便在進行 Kubernetes 遷移時可以快速複製,提高效率。

服務名稱

  • Kubernetes 中運行的 Service 以及 Deployment 名稱由 GitLab 中的 groupname 和 projectname 組成,即 {{groupname}}-{{projectname}},例:microservice-common。此名稱記為 app_name,作為每個服務在 Kubernetes 中的唯一標識。這些變量可以通過 GitLab-CI 的內置變量中進行獲取,無需對每個 project 進行特殊的配置。
  • Lables 中用於識別服務的標籤與 Deployment 名稱保持一致,統一設置為 app:{{app_name}}。

資源分配

節點配置策略,以項目組作為各項目 Pod 運行在哪些 Node 節點的依據,屬於同一項目組的項目的 Pod 運行在同一批 Node 節點。具體操作方式為給每個 Node 節點打上形如 group:__GROUP_NAME__ 的標籤,在 deployment.yml 文件中做如下設置進行 Pod 的 Node 節點選擇:

  1. ...
  2. spec:
  3. ...
  4. template:
  5. ...
  6. spec:
  7. ...
  8. affinity:
  9. nodeAffinity:
  10. requiredDuringSchedulingIgnoredDuringExecution:
  11. nodeSelectorTerms:
  12. - matchExpressions:
  13. - key: group
  14. operator: In
  15. values:
  16. - __GROUP_NAME__
  17. ...

資源請求大小,對於一些重要的線上應用,limit 和 request 設置一致,資源不足時 Kubernetes 會優先保證這些 Pod 正常運行。為了提高資源利用率。對一些非核心,並且資源不長期占用的應用,可以適當減少 Pod 的 request,這樣 Pod 在調度時可以被分配到資源不是十分充裕的節點,提高使用率。但是當節點的資源不足時,也會優先被驅逐或被 oom kill。

健康檢查(Liveness/Readiness)配置

Liveness 主要用於探測容器是否存活,若監控檢查失敗會對容器進行重啟操作。Readiness 則是通過監控檢測容器是否正常提供服務來決定是否加入到 Service 的轉發列表接收請求流量。Readiness 在升級過程可以發揮重要的作用,防止升級時異常的新版本 Pod 替換舊版本 Pod 導致整個應用將無法對外提供服務的情況。

每個服務必須提供可以正常訪問的接口,在 deployment.yml 文件配置好相應的監控檢測策略。

  1. ...
  2. spec:
  3. ...
  4. template:
  5. ...
  6. spec:
  7. ...
  8. containers:
  9. - name: fpm
  10. livenessProbe:
  11. httpGet:
  12. path: /__PROJECT_NAME__
  13. port: 80
  14. initialDelaySeconds: 3
  15. periodSeconds: 5
  16. readinessProbe:
  17. httpGet:
  18. path: /__PROJECT_NAME__
  19. port: 80
  20. initialDelaySeconds: 3
  21. periodSeconds: 5
  22. ...
  23. ...

升級策略配置

升級策略我們選擇 RollingUpdate 的方式,即在升級過程中滾動式地逐步新建新版本的 Pod,待新建 Pod 正常啟動後逐步 kill 掉老版本的 Pod,最終全部新版本的 Pod 替換為舊版本的 Pod。

我們還可以設置 maxSurge 和 maxUnavailable 的值分別控制升級過程中最多可以比原先設置多出的 Pod 比例以及升級過程中最多有多少比例 Pod 處於無法提供服務的狀態。

日誌配置

採用 log-tail 對容器日誌進行採集,所有服務的日誌都上報到阿里雲日誌服務的一個 log-store中。在 deployment.yml 文件里配置如下:

  1. ...
  2. spec:
  3. ...
  4. template:
  5. ...
  6. spec:
  7. ...
  8. containers:
  9. - name: fpm
  10. env:
  11. - name: aliyun_logs_vpgame
  12. value: stdout
  13. - name: aliyun_logs_vpgame_tags
  14. value: topic=__APP_NAME__
  15. ...
  16. ...

通過設置環境變量的方式來指定上傳的 Logstore 和對應的 tag,其中 name 表示 Logstore 的名稱。通過 topic 欄位區分不同服務的日誌。

監控配置

通過在 Deployment 中增加 annotations 的方式,令 Prometheus 可以獲取每個 Pod 的業務監控數據。配置示例如下:

  1. ...
  2. spec:
  3. ...
  4. template:
  5. metadata:
  6. annotations:
  7. prometheus.io/scrape: "true"
  8. prometheus.io/port: "80"
  9. prometheus.io/path: /{{ project_name }}/metrics
  10. ...

其中 prometheus.io/scrape: "true" 表示可以被 Prometheus 獲取,prometheus.io/port 表示監控數據的埠,prometheus.io/path 表示獲取監控數據的路徑。

service.yml 配置service.yml 文件主要對 Service 進行了描述。

  1. apiVersion: v1
  2. kind: Service
  3. metadata:
  4. annotations:
  5. service.beta.kubernetes.io/alicloud-loadbalancer-address-type: intranet
  6. labels:
  7. app: __APP_NAME__
  8. name: __APP_NAME__
  9. namespace: __NAMESPACE__
  10. spec:
  11. ports:
  12. - port: 80
  13. protocol: TCP
  14. targetPort: 80
  15. selector:
  16. app: __APP_NAME__
  17. type: LoadBalancer
    對 Service 的定義相比於 Deoloyment 要簡單的多,通過定義 spec.ports 的相關參數可以指定 Service 的對外暴露的埠已經轉發到後端 Pod 的埠。spec.selector 則是指定了需要轉發的 Pod 的 label。

另外,我們這邊是通過負載均衡器類型對外提供服務,這是通過定義 spec.type 為 LoadBalancer 實現的。通過增加 metadata.annotations 為 service.beta.kubernetes.io/alicloud-loadbalancer-address-type: intranet 可以在對該 Service 進行創建的同時創建一個阿里雲內網 SLB 作為對該 Service 請求流量的入口。

如上圖所示,EXTERNAL-IP 即為 SLB 的 IP。

總結

在以上工作的基礎上,我們對各個服務劃分為幾類(目前基本上按照語言進行劃分),然後為每一類中的服務通過 .gitlab-ci.yml 制定一套統一的 CI/CD 流程,與此相同的,同一類中的服務共用一個 Deployment 和 Service 模板。這樣我們在進行服務遷移到 Kubernetes 環境時可以實現快速高效地遷移。

當然,這只是遷移實踐路上邁出的第一步,在 Kubernetes 中的服務的穩定性、性能、自動伸縮等方面還需要更深入地探索和研究。

關鍵字: