弄了下 GitLab CI 做持续集成,躺了些坑,稍微记录下。
安装 gitlab-ci-multi-runner
因为 GitLab CI 是通过 GitLab Runner 来构建任务的,所以我们必须在服务器或者开发机跑 GitLab Runner,GitLab CI 本身是管理各个项目的构建状态。安装如下:
# for CentOS
$ curl -L https://packages.gitlab.com/install/repositories/runner/gitlab-ci-multi-runner/script.rpm.sh | bash
$yum install gitlab-ci-multi-runner
# for MacOS
brew install gitlab-ci-multi-runner
注册、启动 Runner
注册并启动 Runner 跟 GitLab CI 绑定连接。我这里只用 Specific Runner,在 GitLab 设置的 CI/CD Pipelines 中可以看到 Specific Runner 的 setup 说明,下面的 url 和 token 是注册时要用到的
$ gitlab-ci-multi-runner register
根据提示分别输入 url,token,runner executor(我用 docker),因为是 node 项目,image 我用了 node:latest
注册完成,启动 Runner
$ gitlab-ci-multi-runner install
$ gitlab-ci-multi-runner start
这时候可以在 GitLab 中看到 Runner 的状态为 online 了
配置 .gitlab-ci.yml
然后我们需要在项目中新建
.gitlab-ci.yml
,来实现代码合并更新后自动执行任务,我主要做的任务是打包并同步相关文件到服务器。我的 .gitlab-ci.yml
配置大致如下:image: node:latest
stages:
- build
- deploy
cache:
paths:
- node_modules/
build:
before_script:
- npm install
stage: build
only:
- master
script:
- npm run build
deploy:
before_script:
- apt-get update && apt-get upgrade -y && apt-get dist-upgrade -y && apt-get install -y rsync
- 'which ssh-agent || ( apt-get update -y && apt-get install openssh-client -y )'
- eval $(ssh-agent -s)
- ssh-add <(echo "$SSH_PRIVATE_KEY")
- mkdir -p ~/.ssh
- '[[ -f /.dockerenv ]] && echo -e "Host *\\n\\tStrictHostKeyChecking no\\n\\n" > ~/.ssh/config'
stage: deploy
only:
- master
script:
- bash deploy.sh
这里遇到的坑主要是 deploy 这一步,主要是设置问题,我用的
rsync
来同步,需用服务器的 ssh private key,在你生成 key 后,需要把 public key 放到 authorized_keys 中。
SSH Key 的配置介绍参考官方文档。
拿到服务器的 ssh private key 后,需要配置到 GitLab 的 Secret Variables 中,添加 variable,key 为
SSH_PRIVATE_KEY
,Value 为你的 ssh private key。
这样,每次更新代码后我就不用去管打包发布了。
Refs.
------------
用 GitLab CI 进行持续集成
从 GitLab 8.0 开始,GitLab CI 就已经集成在 GitLab 中,我们只要在项目中添加一个
.gitlab-ci.yml
文件,然后添加一个 Runner,即可进行持续集成。 而且随着 GitLab 的升级,GitLab CI 变得越来越强大,本文将介绍如何使用 GitLab CI 进行持续集成。一些概念
在介绍 GitLab CI 之前,我们先看看一些持续集成相关的概念。
Pipeline
一次 Pipeline 其实相当于一次构建任务,里面可以包含多个流程,如安装依赖、运行测试、编译、部署测试服务器、部署生产服务器等流程。
任何提交或者 Merge Request 的合并都可以触发 Pipeline,如下图所示:
任何提交或者 Merge Request 的合并都可以触发 Pipeline,如下图所示:
Stages
Stages 表示构建阶段,说白了就是上面提到的流程。
我们可以在一次 Pipeline 中定义多个 Stages,这些 Stages 会有以下特点:
我们可以在一次 Pipeline 中定义多个 Stages,这些 Stages 会有以下特点:
- 所有 Stages 会按照顺序运行,即当一个 Stage 完成后,下一个 Stage 才会开始
- 只有当所有 Stages 完成后,该构建任务 (Pipeline) 才会成功
- 如果任何一个 Stage 失败,那么后面的 Stages 不会执行,该构建任务 (Pipeline) 失败
因此,Stages 和 Pipeline 的关系就是:
Jobs
Jobs 表示构建工作,表示某个 Stage 里面执行的工作。
我们可以在 Stages 里面定义多个 Jobs,这些 Jobs 会有以下特点:
我们可以在 Stages 里面定义多个 Jobs,这些 Jobs 会有以下特点:
- 相同 Stage 中的 Jobs 会并行执行
- 相同 Stage 中的 Jobs 都执行成功时,该 Stage 才会成功
- 如果任何一个 Job 失败,那么该 Stage 失败,即该构建任务 (Pipeline) 失败
所以,Jobs 和 Stage 的关系图就是:
GitLab Runner
简介
理解了上面的基本概念之后,有没有觉得少了些什么东西 —— 由谁来执行这些构建任务呢?
答案就是 GitLab Runner 了!
答案就是 GitLab Runner 了!
想问为什么不是 GitLab CI 来运行那些构建任务?
一般来说,构建任务都会占用很多的系统资源 (譬如编译代码),而 GitLab CI 又是 GitLab 的一部分,如果由 GitLab CI 来运行构建任务的话,在执行构建任务的时候,GitLab 的性能会大幅下降。
一般来说,构建任务都会占用很多的系统资源 (譬如编译代码),而 GitLab CI 又是 GitLab 的一部分,如果由 GitLab CI 来运行构建任务的话,在执行构建任务的时候,GitLab 的性能会大幅下降。
GitLab CI 最大的作用是管理各个项目的构建状态,因此,运行构建任务这种浪费资源的事情就交给 GitLab Runner 来做拉!
因为 GitLab Runner 可以安装到不同的机器上,所以在构建任务运行期间并不会影响到 GitLab 的性能~
因为 GitLab Runner 可以安装到不同的机器上,所以在构建任务运行期间并不会影响到 GitLab 的性能~
安装
安装 GitLab Runner 太简单了,按照着 官方文档 的教程来就好拉!
下面是 Debian/Ubuntu/CentOS 的安装方法,其他系统去参考官方文档:
下面是 Debian/Ubuntu/CentOS 的安装方法,其他系统去参考官方文档:
注册 Runner
安装好 GitLab Runner 之后,我们只要启动 Runner 然后和 CI 绑定就可以了:
- 打开你 GitLab 中的项目页面,在项目设置中找到 runners
- 运行
sudo gitlab-ci-multi-runner register
- 输入 CI URL
- 输入 Token
- 输入 Runner 的名字
- 选择 Runner 的类型,简单起见还是选 Shell 吧
- 完成
当注册好 Runner 之后,可以用
sudo gitlab-ci-multi-runner list
命令来查看各个 Runner 的状态:.gitlab-ci.yml
简介
配置好 Runner 之后,我们要做的事情就是在项目根目录中添加
当我们添加了
.gitlab-ci.yml
文件了。当我们添加了
.gitlab-ci.yml
文件后,每次提交代码或者合并 MR 都会自动运行构建任务了。
还记得 Pipeline 是怎么触发的吗?Pipeline 也是通过提交代码或者合并 MR 来触发的!
那么 Pipeline 和
其实
那么 Pipeline 和
.gitlab-ci.yml
有什么关系呢?其实
.gitlab-ci.yml
就是在定义 Pipeline 而已拉!基本写法
我们先来看看
.gitlab-ci.yml
是怎么写的:
写起来很简单吧!用
每个 job 中可以可以再用
job 里面的
stages
关键字来定义 Pipeline 中的各个构建阶段,然后用一些非关键字来定义 jobs。每个 job 中可以可以再用
stage
关键字来指定该 job 对应哪个 stage。job 里面的
script
关键字是最关键的地方了,也是每个 job 中必须要包含的,它表示每个 job 要执行的命令。
回想一下我们之前提到的 Stages 和 Jobs 的关系,然后猜猜上面例子的运行结果?
根据我们在
stages
中的定义,build
阶段要在 test
阶段之前运行,所以 stage:build
的 jobs 会先运行,之后才会运行 stage:test
的 jobs。常用的关键字
下面介绍一些常用的关键字,想要更加详尽的内容请前往 官方文档
stages
定义 Stages,默认有三个 Stages,分别是
build
, test
, deploy
。types
stages
的别名。before_script
定义任何 Jobs 运行前都会执行的命令。
after_script
要求 GitLab 8.7+ 和 GitLab Runner 1.2+
定义任何 Jobs 运行完后都会执行的命令。
variables && Job.variables
要求 GitLab Runner 0.5.0+
定义环境变量。
如果定义了 Job 级别的环境变量的话,该 Job 会优先使用 Job 级别的环境变量。
如果定义了 Job 级别的环境变量的话,该 Job 会优先使用 Job 级别的环境变量。
cache && Job.cache
要求 GitLab Runner 0.7.0+
定义需要缓存的文件。
每个 Job 开始的时候,Runner 都会删掉
如果有些文件 (如
这样很不方便,因此我们需要对这些文件进行缓存。缓存了的文件除了可以跨 Jobs 使用外,还可以跨 Pipeline 使用。
每个 Job 开始的时候,Runner 都会删掉
.gitignore
里面的文件。如果有些文件 (如
node_modules/
) 需要多个 Jobs 共用的话,我们只能让每个 Job 都先执行一遍 npm install
。这样很不方便,因此我们需要对这些文件进行缓存。缓存了的文件除了可以跨 Jobs 使用外,还可以跨 Pipeline 使用。
具体用法请查看 官方文档。
Job.script
定义 Job 要运行的命令,必填项。
Job.stage
定义 Job 的 stage,默认为
test
。Job.artifacts
定义 Job 中生成的附件。
当该 Job 运行成功后,生成的文件可以作为附件 (如生成的二进制文件) 保留下来,打包发送到 GitLab,之后我们可以在 GitLab 的项目页面下下载该附件。
注意,不要把
当该 Job 运行成功后,生成的文件可以作为附件 (如生成的二进制文件) 保留下来,打包发送到 GitLab,之后我们可以在 GitLab 的项目页面下下载该附件。
注意,不要把
artifacts
和 cache
混淆了。实用例子
下面给出一个我自己在用的例子:
上面的配置把一次 Pipeline 分成五个阶段:
- 安装依赖(
install_deps
) - 运行测试(
test
) - 编译(
build
) - 部署测试服务器(
deploy_test
) - 部署生产服务器(
deploy_production
)
设置
注意,我这里用 GitLab Runner 所在的服务器作为测试服务器。
Job.only
后,只有当 develop 分支和 master 分支有提交的时候才会触发相关的 Jobs。注意,我这里用 GitLab Runner 所在的服务器作为测试服务器。
No comments:
Post a Comment