It's been a while to have something dockerized and deploy it in a production ready environment. To shape up my DevOp skills, I will try to set up a new ECS environment and blog what I did along the way. The application I am working on is built on top of the latest Nuxt JS. So, If you happened to follow something similar path, hope you find this somewhat helpful to better understand an option that I came up with.
Things that I have on my mind
Build a front-end universal app using the latest NuxtJS and Vuetify and some other goodies I can think of.
Build a back-end API using the latest Laravel 6
Deploy the front-end to AWS ECS/Fargate
Deploy the back-end to AWS EB
What I'd like to address this time is #3. The rest of the list have been addressed already and I've got solid work experience on the topics. When you have your own Docker container ready to use, you can deploy it to AWS ECS within a short period of time. you can even deploy it to AWS Elastic Beanstalk. But, ECS/Fargate route is what I've chosen to go with this time. To have a basic setup, read the article below along. Its step by step explanation is easy to follow.
As with many other things in IT, however, there're a lot more to come. This one is no exception. Take a look at the following article written specifically on how to deploy NuxtJS app to ECS. The writer mentioned about runtime environment variable injection for the sake of security.
With my current project, I've set up the following 5 variables in AWS System Manager Parameter Store. As you can see I added a prefix (prod-) to all of 'em.
So that I can easily write a rule to have an access right in the following fashion.
But then, I confronted unexpected runtime environment variable issue with NuxtJS. A funny thing is that I've got no issues whatsoever on my local PC. But, NuxtJS didn't read the run-time environment variables in the production environment. WTF?! After further investigation,
I found the issue thread in its GitHub repo. As a workaround I was able to get around the problem by using samtgarson/nuxt-env and adding additional logic to my code base. Now, I can inject run-time environment variables with the package. As described in several posts in the thread, either ctx.app.$env.XXX or this.$env.XXX works depending on the usage.
Dockerizing Nuxt SSR app and deploy it to AWS ECS/Fargate
brew install awscli 명령으로 설치했다. IAM 사용자 생성 후, configuration 해야만 된다.
RDB 생성
Poorman’s DB Client 인 Sequel Pro 를 사용하는 탓에 Free Tier 에 맞는 template 을 사용하여, RDB 를 생성시 MySQL 5.7 버젼을 선택했다. Public accessibility 은 YES 로 설정하여, Mac 에서 접속이 가능토록 했다. (지금까지의 설정으로 외부 접속이 가능한듯 싶었으나, 인바운드 3306 포트를 연 커스텀 VPC security group 을 추가하지 않으면 접속이 불가능 했다. default security group 의 인바운드/아웃바운드 규칙을 보면 wide-open 으로 되어있기 때문에, 접속이 불가능한 이유가 명쾌하게 이해되지 않지만, anyway 새로운 인프라마다 필요한 security group 을 추가해야 한다고 경험상 알고 있다. 가령 redis 는 redis_sg 를 추가하고 rdb 는 rdb_sg 를 추가한다.)
Elastic Beanstalk 앱 생성
Web Server 환경으로 콘솔의 요구사항을 입력하여, High availability 설정 preset 을 선택하면 Application Load Balancer 를 포함하는 PHP v7.3 앱 환경을 생성할 수 있는데, 이 설정은 production 이라는 이름으로 생성했다. 다른 모든 옵션은 default 로 설정했다. 로드 밸런서가 만들어지면, Route53 과 Aliased A 레코드를 넣어서 연결하면 된다. ACM (Amazon Certificate Manager) 으로 설정하면 https 에 필요한 certificate 에 필요한 CNAME 레코드 생성과 자동갱신등이 지원되므로 관리적인 측면에서 상당히 편리하다.
EB CLI 설치 및 IAM 메뉴에서 사용자 생성
eb init 을 이용하여, 최초 초기화를 하려 했을때, credentials 을 설정하지 않았다는 에러메시지가 나왔다. IAM 메뉴로 이동할 차례이다. Add user 메뉴에서 관리자 계정을 생성한다. 이를 통하여, Access key ID 와 Secret access key 를 받는다. 이는 eb CLI 의 aws-access-id 와 aws-secret-key 로 대응된다. (이런 이름의 불일치는 attention to detail competency 가 떨어져 보이지만, anyway.) 이제, 코드 베이스에 .elasticbeanstalk 폴더가 생성된 것이 보인다.
EB 가 생성한 EC2 는 S3 와 SQS 에 대한 access 권한이 있어야 하는데, 이는 IAM 메뉴의 Roles 항목에서 aws-elasticbeanstalk-ec2-role 에 추가했다.
AWS Console 에서 production 환경 변경
production > configuration 에 container option 을 보면, Document root 옵션이 있는데, 이를 /public 으로 수정했다.
ElastiCache Redis 설정
PHP 의 Redis 라이브러리인 predis/predis 가 버려진 프로젝트가 되었기에, EB 환경에 php-redis/php-redis 를 소스 설치를 위한 아래의 설정을 추가했다. Redis 설정은 간단하므로 생략한다. 다만, redis-sg 를 만들어서, 인바운드 port 를 열어두는 걸 잊지 말자. 아, 그리고 Laravel config/app.php 파일의 facade alias 인 Redis 를 클래스 충돌을 방지하기 위해 RedisManager 로 변경하라는 매뉴얼의 조언도 따랐다.
# these commands run before the application and web server are
# set up and the application version file is extracted.
commands:
01_redis_install:
# run this command from /tmp directory
cwd: /tmp
# don't run the command if phpredis is already installed (file /etc/php.d/redis.ini exists)
test: '[ ! -f /etc/php.d/redis.ini ] && echo "phpredis extension not installed"'
# executed only if test command succeeds
command: |
wget https://github.com/phpredis/phpredis/zipball/master -O phpredis.zip \
&& unzip -o phpredis.zip \
&& cd phpredis-* \
&& phpize \
&& ./configure \
&& make \
&& make install \
&& echo extension=redis.so > /etc/php.d/redis.ini
AWS s3
모두 default 옵션을 선택후, 버킷의 public access 설정을 아래의 링크를 참조하여 셋팅했다.
지금까지의 작업으로, EB 를 이용하여 하나의 코드베이스로 작업되어 있는 API 및 back-office 앱을 배포했고, 최소한의 기능이 정상 동작하는 것을 확인했다. 하지만, 아래와 같은 작업들이 추가로 진행되어야만 하는데, 이를 위한 필요한 설정 등은 기회가 되면 다음번에 올려보기로 한다.
Laravel 앱을 백앤드로 사용하는 안드로이드 프로젝트에서, 인앱결제 후 결제정보를 백앤드 API 을 이용하여 시스템에 반영하고 있었는데, 어느새 해당 API 를 임의로 호출하는 해킹 시도가 발생했다. 인앱 결제의 유효성 검증 단계 없이 저장하는 이런 보안에 취약한 API 를 위하여, 영수증 토큰값을 구글 API 를 통해 결제가 유효한지 검사하는 검증 로직과, 정기적으로 환불/주문취소/지불거절을 통해 무효화된 과거 인앱 주문에 대한 관리 로직을 추가했는데, 이번 포스팅에서 그 내용을 살펴본다.
아래 링크로 이동 하면 구글 개발자 콘솔상에서 해야할 내용들을 찾아볼 수 있다. (지만, 내용이 많고 장황한 설명이 제공되어, 원하는 내용을 한눈에 확인하기는 쉽지 않다.)
개발자 콘솔에 설정 > API 액세스 메뉴에서, 이미 등록된 OAuth 클라이언트와 서비스 계정이 없다면, 새롭게 만든다. 기등록된 서비스 계정이 있더라도, 해당 계정에 재무정보를 볼수 있는 권한이 없다면 해당 권한을 추가한다.
콘솔상에서, 서비스 계정을 생성시 다운받은 JSON credentials 파일은 서버의 적당한 위치에 복사하도록 한다. (본인의 경우 S3 에 저장한 다음, deploy 시에 base_path() 위치로 복사하는 방법을 사용했다.)
이제 구글 Play API 를 통하여 정상적인 결제 요청인지를 검증하는 API 와, 취소된 결제 리스트를 받아오는 API 를 위한 핸들러를 만들어야 하는데, 구글에서 제공하는 아래 패키지를 추가하면, OAuth 토큰 관리 등에 관한 로직을 직접 만들지 않아도 되므로, 간단히 작성할 수 있다.
composer require google/apiclient
위 패키지를 설치 후, 작성한 핸들러의 내용은 아래와 같다.
<?php
namespace App\Services;
use Exception;
use Google_Client;
use Google_Exception;
use Google_Service_AndroidPublisher;
class GooglePaymentHandler
{
private $client;
private $service;
public function __construct(Google_Client $client)
{
$this->client = $client;
$this->client->addScope(['https://www.googleapis.com/auth/androidpublisher']);
$this->client->setAuthConfig(base_path() . '/google.credentials.json');
$this->client->setIncludeGrantedScopes(true);
}
/**
* 결제 검증 API
* @param string $appName, (e.g. `개나소나`)
* @param string $productCode, 안드로이드 상품코드 (e.g. `com.whatever.history.06`)
* @param string $purchaseToken, 안드로이드 결제 영수증 코드
* @return object|null
* @throws Google_Exception
*/
public function verify(string $appName, string $productCode, string $purchaseToken): ?object
{
$this->client->setApplicationName = $appName;
$this->service = new Google_Service_AndroidPublisher($this->client);
return $this->service->purchases_products->get(
$this->getPackageName($appName), // com.some.thing
$productCode,
$purchaseToken
);
}
/**
* 취소한 결제 리스트 API
* @param string $appName
* @return object|null
* @throws Exception
*/
public function voidedPurchases(string $appName): ?object
{
$this->client->setApplicationName = $appName;
$this->service = new Google_Service_AndroidPublisher($this->client);
return $this->service->purchases_voidedpurchases->listPurchasesVoidedpurchases(
$this->getPackageName($appName) // com.some.thing
);
}
/**
* convert app-name to package-name (com.some.thing)
*
* @param string $appName
* @return string|null
*/
private function getPackageName(string $appName): ?string
{
if ($appName === '개나소나') {
return 'com.some.thing.xxx';
}
if ($appName === '돈크라이') {
return 'com.some.thing.yyy';
}
if ($appName === '함흥차사') {
return 'com.some.thing.zzz';
}
return null;
}
}
일반적이라면, verify() API 의 경우, 매 결제 요청시마다 호출하여, 그 validity 를 검사하도록 만들고, voidedPurchases() API 의 경우, CRON scheduler 로 등록한 Console Command 로 새벽시간에 1번 호출되도록 하여, 무효화된 결제에 관련된 사용자 구매 상태를 보정하도록 하면 되겠다.
ansible 설치 후 로컬 PC 에 한것과 마찬가지로 /etc/ansible/digital_ocean.ini 와 /etc/ansible/digital_ocean.py 파일을 복사 후, jenkins 사용자 계정으로 Ansible 플레이북 (/home/jenkins/.ansible/deloy.yml) 이 정상적으로 실행되는지 확인한다.
위의 수동명령으로, api01 서버에 rolling deployment 실행을 할 수 있었다면, 라라벨 앱의 root 폴더에 있는 Jenkinsfile 의 25번째 라인에 deploy 스크립트 실행이 안되도록 comment out 시킨 부분을 찾아 # 문자를 삭제한다. 이렇게 함으로써, 새로운 commit 이 master 브랜치에 푸쉬될 때마다 새로운 도커 이미지가 api01 서버에 deploy 되는 것까지의 CI/CD 과정이 마무리 되는 것이다.
이제 마지막으로 api01 서버에 HTTPS 연결을 위하여, certbot 를 설치하고 nginx 설정을 변경해보자. Docker Swarm 모드로 nginx reverse proxy 를 설치할 때의 설정과 크게 다르지 않다.
Let’s Encrypt and Certbot
비영리 인터넷 보안 연구 그룹(ISRG)이 제공하는 Let’s Encrypt 를 사용하여, 90 일간 유효한 무료 Certificate 을 사용하면, 무료로 HTTPS 접속을 하도록 웹서버 설정이 가능하다. 이를 사용하기 위한 Python 스크립트 Certbot 과 Nginx 설정에 대한 훌륭한 문서들은 다양하게 존재하므로, 그 내용들은 아래의 링크들을 읽어보기 바란다.
일반적으로 Let’sEcrypt 인증방법은 DNS 인증방법이나, Webroot 방식을 선택하는데, 전자의 경우, 아래의 예시에서 처럼 certbot/certbot 도커 이미지를 이용하여 명령을 내리고, 해당 domain 의 DNS 에 TXT 레코드를 추가/수정하는데, 자동화를 위해서는 Terraform 명령을 실행하는 shell script 를 만들고 –manual-auth-hook 을 사용할 수 있다. 아니면, 후자의 방법을 선택하면 되는데, 이에 대한 설명은 위 레퍼런스 리스트 마지막 글에 자세히 설명되어 있어 생략한다.
/opt/conf.d/proxy.conf 를 업데이트 했다면, 아래의 일련의 Docker 명령들을 다시 실행한다.
정상적으로 설정이 되었다면 브라우져 주소창에 https://api.example.com 을 입력하거나, 그냥 api.example.com 를 입력하면, nginx 에 의해 자동으로 https 리다이렉트된 https://api.example.com 주소에서, 정상적으로 앱이 실행되고 있음을 확인할 수 있다.
Jenkins 초기화면에서 Create New Jobs 를 누르고, Multibranch Pipeline 을 선택한다. 그 다음 입력화면에서, 프로젝트 이름, GitHub project URL, GitHub hook trigger for GITScm polling, Pipeline script 등 자신의 Jenkins 가 픽업해야할 GitHub 프로젝트에 대한 내용을 입력한다.
이 부분이 번거롭다 생각들면, Blue Ocean 플럭인을 설치 후, 왼쪽 메뉴바에서 Open Blue Ocean 메뉴를 선택 후,
새로운 Github Pipeline 생성,
Github 페이지에서 Personal Access Token (Jenkins Blue Ocean 에 해당 링크가 나온다.) 를 생성후, 해당 토큰값을 입력,
Github 사용자명을 선택하고 리파지토리 스캔 후 Jenkinsfile 이 있는 자신의 프로젝트 선택
과정을 걸쳐 GitHub 프로젝트를 선택할 수도 있다.
💡 ./Jenkinsfile
Jenkinsfile 파일은 Jenkins 의 파이프라인 즉, build => test => package => deploy 단계별 동작을 정의하는 파일이며, 프로젝트 root 에 아래와 같은 내용으로 만든다. (Jenkins classic theme 에서는 Pipeline 을 선택하면 BRANCH_NAME 환경변수가 셋팅되지 않으므로, Multibranch pipeline 이나 Freestyle 을 지정해야 하며, 임산부나 심신이 미약한 사용자는 셋팅이 좀더 쉬운 Blue Ocean 플럭인의 사용을 추천한다.)
#!/usr/bin/env groovy
node('master') {
try {
stage('build') {
git url: '[email protected]:jinseokoh/nuxt-app-backend.git'
sh "./h start"
sh "./h composer install"
// .env for testing
sh "cp .env.example .env"
sh "./h artisan key:generate"
}
stage('test') {
sh "APP_ENV=testing ./h test"
}
stage('package') {
if ("${env.BRANCH_NAME}" == 'master') {
sh './docker/build'
}
}
stage('deploy') {
// sh "/usr/bin/ansible-playbook /opt/deploy.yml -i /etc/ansible/digital_ocean.py"
sh "echo 'WE ARE DEPLOYING'"
}
} catch (error) {
throw error
} finally {
sh "./h stop"
}
}
위 Jenkinsfile 를 보면 BRANCH_NAME 이 master 인 경우에, ./docker/build 라 명명된 스크립트를 실행하여, 새로운 도커 이미지를 빌드하는 내용이 있는데, 이 스크립트는
현재 master 브랜치의 최신 소스코드 내용을 appRoot/docker/app/packaged 라는 하위 폴더에 다운
해당 폴더에 composer 로 dependency 설치
DO Spaces 로 부터 production 용 .env 파일 다운
새로운 Docker 이미지 빌드 및 Docker registry 로 해당 이미지 푸시
해당 폴더 삭제
와 같은 일련의 동작을 하도록 지정한 스크립트이며, 아래에 첨부한 내용과 같다.
💡 appRoot/docker/build
#!/usr/bin/env bash
# bail out on first error
set -e
# get the directory of the build script
DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
# get the current git commit sha
HASH=$(git rev-parse HEAD)
# package the app
cd $DIR/../
git archive --format=tar --worktree-attributes $HASH | tar -xf - -C $DIR/app/packaged
# production build steps
cd $DIR/app/packaged
./h composer install --no-dev
# get the production .env
s3cmd get s3://example-env/.env.production .env --force
# build the docker image with the latest code
cd $DIR/app
docker build \
-t registry.example.com/jinseokoh/laravel-app:latest \
-t registry.example.com/jinseokoh/laravel-app:$HASH .
# push images to private docker registry
docker push registry.example.com/jinseokoh/laravel-app:latest
docker push registry.example.com/jinseokoh/laravel-app:$HASH
# clean up packaged directory
cd $DIR/app
PWD=$(pwd)
if [ "$PWD" == "$DIR/app" ]; then
docker run --rm -w /opt -v $(pwd):/opt ubuntu:18.04 bash -c "rm -rf packaged"
mkdir packaged
touch packaged/.gitkeep
fi
Private Docker Registry
따라서, 빌드한 도커 이미지를 저장할 private docker registry 가 필요하다. private docker registry 을 생성하는 방법은 다양한 옵션이 가능하지만, 개인적으로는 아래와 같은 간단한 절차로 Docker Registry 를 별도의 DO 인스턴스에 만들어, https://registry.example.com 라는 주소에 접속할 수 있도록 만들었다.
물론, 장기적인 운영을 하다보면, 일정 갯수 이상의 이미지를 보관할 필요는 없으므로, private docker registry 의 house keeping 을 해줄 필요가 있을 터이나, 이 문서의 scope 을 벗어나는 내용이므로, 실제 도커 레지스트리 운영에 관심이 있다면 아래 링크를 참고하기 바란다.
이제 GitHub 에 새로운 commit 을 push 하거나, Build Now 메뉴를 클릭하면, 아래 이미지와 같이 파이프라인별 진행 상황을 볼 수 있다.
젠킨스 Classic Theme 동작 화면
만일, Jenkins Blue Ocean 플럭인을 선택하였다면, 아래와 같은 보다 개선된 UI 를 볼 수 있다.
Jenkins Blue Ocean 파이프라인화면
젠킨스 CI/CD 과정이 처음으로 성공하였다면, 빌딩된 도커이미지가 private docker registry 에 {“repositories”:[“jinseokoh/laravel-app”]} 와 같이 등록된 것을 볼 수 있어야만 하며, Jenkins 인스턴스에서도 그 이미지가 아래처럼 리스팅 되어야만 한다.
Jenkins 인스턴스에서 docker images 확인
지금까지의 파이프라인 동작으로, GitHub 계정의 Laravel PHP 앱 프로젝트 리포에 master 브랜치를 배포하면, Jenkins 가 그것을 픽업하여 Jenkins 인스턴스의 Docker 환경에서 테스트를 진행하고, 오류가 발생하지 않으면 Docker 이미지를 빌드한 다음, 별도의 인스턴스에 구축한 private docker registry 에 푸쉬하는 과정을 살펴보았다. 이제 프로덕션 코드를 위한 새로운 인스턴스가 필요하다.
Deploy Laravel-app to production droplet
프로덕션용 Laravel PHP 앱이 빌딩되어 도커 이미지로 registry 에 푸쉬되었다면, 그 이미지를 실행할 “Docker 가 설치된 인스턴스”에 배포해야 하는데, 그 인스턴스는 이미 앞서 언급했 듯, Terraform/Ansible 조합을 이용하여 생성한다. 이전 Terraform 포스팅 설명 내용과 함께 비교해 보면, 각각의 차이점을 볼 수 있는 좋은 예시가 되리라 본다.
Terraform
이전 포스팅에서는, 테라폼 변수 내용을 명령행 인자로 넘겨주는 방법을 쓴 것에 비해, 이번에는 테라폼 변수 내용을 terraform.tfvars 파일에 작성하고 이를 픽업하도록 만드는 방법을 사용했다.
💡 terraform.tfvars
아래와 같이, terraform.tfvars 을 작성한다. 이 파일 이름을 .gitignore 에 등록하여 유출을 막도록 하자. fingerprint# 값은 DO 에 등록된 SSH public 키의 해쉬값이다. (즉 3개의 머신으로부터, 새롭게 만들어지는 DO 인스턴스에 SSH 접속이 가능하도록 만들기 위함이다.)
위 설정을 갖고 terraform init, terraform plan, terraform apply 를 차례로 진행하면 api01 라는 이름의 인스턴스를 생성할 수 있다. 다음으로, 이 인스턴스의 설정을 위해 Ansible 을 사용해보자.
Ansible to the rescue!
아직 Ansible 을 설치하지 않았다면 homebrew 를 이용하여 설치하고, /etc/ansible 폴더에 Ansible 에서 배포하는 DigitalOcean external inventory script (digital_ocean.py 와 digitial_ocean.ini) 를 아래 링크로부터 복사한 다음, pip install requests 명령을 내리면 필요한 디펜던시들이 설치된다.
nginx reverse proxy 설정 파일이 이미 인스턴스 안에 존재하므로, 현재 그 인스턴스에서 실행중인 컨테이너를 중단 (docker stop app) 하고, 삭제 (docker rm -v app) 한 다음, 아래의 커맨드라인 Docker 명령을 하나씩 실행해 보자.
이전과 마찬가지로, 브라우저를 이용하여 http://api.example.com 주소로 접속해 보면 Laravel PHP 앱이 정상 동작하는 것을 확인할 수 있어야 한다. nginx reverse proxy 가 제대로 동작한다면, 마지막으로, 새로운 도커 이미지가 만들어질때마다 어떻게 rolling deployment 작업을 수행할지 각 단계별 수행 내용들을 생각해 보자.
PHP 앱의 latest 이미지를 registry 로부터 다운
새롭게 다운받은 이미지로 도커 컨테이너 실행
nginx 가 트래픽을 새로 실행한 도커 컨테이너로 보내도록 config 변경 후 재실행
이전 컨테이너 실행 중단/제거 후 이미지 삭제
위 리스트에 나열된 작업들을 차례대로 수행하는 것이 바로 rolling deployment 를 수행하는 것이며, 이를 위한 bash 스크립트는 이미 작성하여, 위 playbook.yml 64~68 번째줄의 task 로, /opt/deploy 위치에 복사해 놓았다. 그 내용을 살펴보면 아래와 같다.
💡 /opt/deploy
주석문의 번호와 위 설명 리스트의 번호가 일치하므로 참고한다.
#!/usr/bin/env bash
APP_CONTAINER=$(sudo docker ps -a -q --filter="name=app")
NEW_CONTAINER="app`date '+%y%m%d%H%M%S'`"
REGISTRY="registry.hanlingo.com/jinseokoh/laravel-app"
DANGLING_IMGS=$(sudo docker image ls -f "dangling=true" -q)
RUNNING_IMG=$(sudo docker inspect $(sudo docker ps -a -q --filter="name=app") | grep -m 1 -o 'sha256[^"]*')
CURRENT_IMG=$(sudo docker image inspect $REGISTRY | grep -m 1 -o 'sha256[^"]*')
# 1) pull the latest image
sudo docker pull $REGISTRY
# avoid deployment if running image is latest
if [ "$CURRENT_IMG" == "$RUNNING_IMG" ]; then
echo "The latest image is already in use."
exit 0
fi
# 2) spin off new instance
NEW_APP_CONTAINER=$(sudo docker run -d --network=app-network --restart=unless-stopped --name="$NEW_CONTAINER" $REGISTRY)
# wait for processes to boot up
sleep 5
echo "Started new container $NEW_APP_CONTAINER"
# 3) update nginx
sudo sed -i "s/server app.*/server $NEW_CONTAINER:80;/" /opt/conf.d/proxy.conf
# config test
sudo docker exec nginx nginx -t
NGINX_STABLE=$?
if [ $NGINX_STABLE -eq 0 ]; then
# reload nginx
sudo docker kill -s HUP nginx
# 4) stop older instance
sudo docker stop $APP_CONTAINER
sudo docker rm -v $APP_CONTAINER
echo "Removed old container $APP_CONTAINER"
# cleanup
if [ ! -z "$DANGLING_IMGS" ]; then
sudo docker image rm $DANGLING_IMGS
fi
else
echo "ERROR: nginx config test failed."
exit 1
fi
api01 인스턴스에 접속 후 커맨드라인에서 /opt/deploy 라는 명령을 내리면, 아래 스크린 샷에서 확인 할 수 있는 것 처럼 새로운 도커 이미지로 rolling update 가 이뤄지는 것을 볼 수 있다.
업데이트 전후 docker ps 실행 화면
따라서, Jenkins 인스턴스에서 api01 인스턴스에 존재하는 /opt/deploy script 를 실행시길 방법이 필요한데, 이는 ansible 을 사용하여 다음과 같이 작성했다.
💡 deploy.yml
로컬 PC 에서 아래와 같이 ansible playbook 명령을 실행하면, Ansible 을 이용하여, api01 인스턴스의 deploy 스크립트를 실행할 수 있음을 확인할 수 있다.
이 글은 이전 포스팅에서 만든 Jenkins 에 연결할 Laravel PHP 앱의 dockerization 과정을 설명하고, 이후 Docker 를 활용한 Jenkins 의 CI/CD 파이프라인을 만들기 위한 준비 내용을 정리한다. 맥사용자가 최신 Docker Desktop for Mac CE 인 v2.0을 설치했다는 가정하에 설명한다.
Bash_it 사용자?
잠깐! 만일 맥에서, bash_it 을 사용하는 사용자가 docker 용 bash completion script 를 추가하려면, ~/.bash_it/custom 폴더에 custom.prompt.bash 파일을 아래처럼 만들고
약 1분 정도의 시간이 경과하면, Docker is up and running! 이라는 피드백이 나오고, DO 콘솔 화면을 통해서 인스턴스가 생성된 것을 확인할 수 있다.
docker-machine env registry 명령을 입력하면 아래와 유사한 인스턴스의 정보가 보여진다.
export DOCKER_TLS_VERIFY="1"
export DOCKER_HOST="tcp://134.209.xx.xx:2376"
export DOCKER_CERT_PATH="/Users/chuck/.docker/machine/machines/registry"
export DOCKER_MACHINE_NAME="registry"
# Run this command to configure your shell:
# eval $(docker-machine env registry)
docker-machine ssh registry 명령으로 registry 라고 명명된 인스턴스에 접속할 수 있고, docker-machine rm registry 명령으로 해당 인스턴스를 제거할 수 도 있다. docker-machine create 명령이 수행한 내용들을 정리해보면, 아래와 같다.
docker-machine create 커맨드와 같이 제공한 옵션을 사용하여, 우리가 지정한 인스턴스 리젼과, 지정한 인스턴스 크기, 지정한 인스턴스 OS 를 갖는 droplet 을 DO 에 생성
Docker daemon 을 설치
~/.docker/machine/machines/registry 폴더의 certificate 으로 tcp://134.209.xx.xx:2376 주소로 접속이 가능하도록 설정
나의 PC 에서 해당 인스턴스로 ssh 접속을 할 수 있도록 나의 ~/.ssh/id_rsa.pub 을 해당 인스턴스 root 계정 ~/.ssh/authorized_keys 에 추가
docker-01 로 명명된 DO 인스턴스 생성 후 접속화면
위 스크린 샷에서 보이는 것 처럼, 로컬 PC 의 Docker client 가 docker-machine 으로 프로비젼닝한 원격 DO 인스턴스(여기서는 docker-01 로 명명)에 접속하여 원하는 docker 명령을 실행할 수도 있다.
이 도커 머신으로 생성한 인스턴스는, 비교적 셋업이 간단한 private docker registry 로 사용할 예정이다.
DO 1 Click Droplet Images
프로덕션용 Laravel PHP 앱을 배포하려면, 프로덕션 환경에서 사용할 MySQL, Redis, Elasticsearch, MongoDB 등 의 서비스 인프라를 어떻게 사용할 지 고민할 때가 올 것이다.
로컬 이나 테스트 환경에서는 Docker official 이미지들을 이용하지만, 프로덕션 환경에서는 대부분 경우, managed service 의 이용을 권장한다. 비교적 소규모 프로젝트 또는 managed service 를 fully 지원하지 않는 cloud service provider 를 이용하는 경우, Terraform/Ansible 을 사용하는 것이 적합하겠지만, DO 의 경우 1 Click droplet image 배포가 가능하여, DO Marketplace 에서 제공되는 MySQL 5.7 이미지를 사용하여 설치해 보았다. (참고로 최근 DO 도 Managed Databases 서비스가 GA 로 확대되었는데, 아직 MySQL 은 지원하지 않는다.)
해당 MySQL 이미지 설치 후, 고려사항은 아래와 같다.
Ubuntu 18.04 MySQL 5.7 의 root 사용자 auth plugin 은 기본적으로 mysql_native_password 가 아니라 auth_socket 으로 지정되어 있으므로, 로컬 PC 의 TablePlus 나 Sequel Pro 와 같은 DB 클라이언트에 접속을 위한 설정에 참고.
mysql_secure_installation 명령을 실행하여, secure 한 설정으로 변경.
해당 DO 이미지는 MySQL 이외에 phpMyAdmin, Apache 등이 기본 제공되므로 다음 명령들로 제거.
apt purge phpmyadmin*
apt purge apache*
apt purge php*
apt autoremove
MySQL 8.0 과는 달리 MySQL 5.7의 character set 디폴트 값은 UTF8 이기때문에, 데이터베이스 생성시, create database something character set UTF8mb4 collate utf8mb4_bin 처럼 옵션값을 오버라이딩.
다음 명령으로 localhost 나 private network 으로 접속할 수 있는 사용자 추가.
GRANT ALL ON . TO 'user'@'localhost' IDENTIFIED BY 'your-password';
GRANT ALL ON . TO 'user'@'10.130.0.0/255.255.0.0' IDENTIFIED BY 'your-password';
Laravel 환경변수 .env 의 mysql 접속주소는 private network 주소로 전달.
설명을 하다보니 CI 에 필요한 dockerization 에 대한 이야기를 하려던 원래 의도와는 달리, MySQL 환경설정에 관련 내용을 이야기 하며 off the track 으로 빠져버렸는데, 이 문서에서 설명하고자 하는 scope 밖의 내용이므로, MySQL 와 Redis 인스턴스 설치에 대한 이야기는 여기까지로 마치고, private network 으로 접속가능하고 firewall 로 접속 제한된 프로덕션 MySQL 과 Redis 인스턴스가 어딘가에 존재 한다고 가정하겠다.
Configure Laravel app with Docker
이제 다시 본론으로 돌아와서, Laravel 프로젝트(루트폴더가 appRoot 라고 가정)에 아래와 같이 Docker 관련 폴더를 만든다.
php-fpm 의 설정의 경우, supervisor 에 의해 구동되므로 foreground 로 실행하는 옵션과, 에러 로그를 /dev/stderr 에 해당하는 /proc/self/fd/2 로 지정한 내용이 전부다.
;;;;;;;;;;;;;;;;;;;;;
; FPM Configuration ;
;;;;;;;;;;;;;;;;;;;;;
; All relative paths in this configuration file are relative to PHP's install
; prefix (/usr). This prefix can be dynamically changed by using the
; '-p' argument from the command line.
[global]
pid = /run/php/php7.3-fpm.pid
error_log = /proc/self/fd/2
daemonize = no
include=/etc/php/7.3/fpm/pool.d/*.conf
💡 appRoot/docker/app/supervisord.conf
supervisor 설정내용은, Docker 가 이 이미지를 실행할때, supervisor 를 daemon 모드가 아닌 foreground 로 실행하라는 옵션과, nginx 와 php-fpm 7.3 을 실행하면서, 해당 로그는 파일이 아닌 텍스트 스트림으로 지정하는 옵션이 추가되었다.
자, 이제 프로젝트의 루트에 h 라는 이름의 헬퍼 스크립트를 만들어 보겠다. 이 스크립트는 각기 다른 실행환경에서의 적절한 커맨드 옵션을 많은 타이핑 없이 쉽게 입력할 수 있는 헬퍼 shell 커맨드이다. 아래의 내용으로 파일을 만든 뒤 chmod +x h 명령으로 실행 속성을 준다.
#!/usr/bin/env bash
export APP_PORT=${APP_PORT:-80}
export DB_PORT=${DB_PORT:-3306}
if [ $# -gt 0 ];then
docker-compose "[email protected]"
else
docker-compose ps
fi
이제 ./h up -d 이나 ./h down 등의 명령으로 서비스를 올리거나 내릴 수 있다.
앱 컨테이너의 내용을 살펴보려면 ./h run --rm app ls -al
라라벨 artisan CLI 명령으로 마이그레이션 명령을 내리려면, ./h run --rm app php artisan migrate
와 같이 사용할 수 있다. 현재까지는 명령 입력시 장황한 키입력의 개선이 거의 없지만, 이글의 후반부에서, 좀 더 개선된 내용을 살펴보겠다.
💡 appRoot/docker-compose.ci.yml
여기까지 도달했다면 Jenkins 에서, Continuous Integration 을 위해 사용할 docker-compose.ci.yml 파일을 만들고, 아래 내용을 입력한다.
기존의 docker-compose.yml 에서, 젠킨스가 테스트를 돌릴경우 불필요한, port binding 이 삭제되었고, phpunit 을 사용시 MySQL 대신 Sqlite3 을 사용할 것이기 때문에 mysql 서비스 관련내용도 삭제된 내용이다. (Redis 는 unit-test 에서 사용할 것을 대비 남겨둠. 테스트를 위한 minimum system requirement 라고 보면된다.)
💡 appRoot/docker-compose.dev.yml
내친김에 로컬 개발 환경을 위한 docker-compose.dev.yml 파일도 만들고, 그 내용은 위에서 작성한 docker-compose.yml 파일을 그대로 카피한다. (docker-compose.yml 파일은 프로덕션 배포용으로 개선할 예정이다.)
💡 appRoot/h (개선안)
위에서 작성했던 같단한, 헬퍼 스크립트를 아래와 같이 확장했다.
#!/usr/bin/env bash
# set environment variables
export APP_PORT=${APP_PORT:-80}
export DB_PORT=${DB_PORT:-3306}
# set default options
STAGE="dev"
TTY=""
# set CI options (if BUILD_NUMBER exists, it's Jenkins)
if [ ! -z "$BUILD_NUMBER" ]; then
STAGE="ci"
TTY="-T"
fi
DOCKER_COMPOSE="docker-compose -f docker-compose.$STAGE.yml"
if [ $# -gt 0 ]; then
if [ "$1" == "start" ]; then
$DOCKER_COMPOSE up -d
elif [ "$1" == "stop" ]; then
$DOCKER_COMPOSE down
elif [ "$1" == "artisan" ]; then
shift 1
$DOCKER_COMPOSE run --rm $TTY app php artisan "[email protected]"
elif [ "$1" == "composer" ]; then
shift 1
$DOCKER_COMPOSE run --rm $TTY app composer "[email protected]"
elif [ "$1" == "phpunit" ] || [ "$1" == "test" ]; then
shift 1
$DOCKER_COMPOSE run --rm $TTY app ./vendor/bin/phpunit "[email protected]"
elif [ "$1" == "a" ]; then
shift 1
$DOCKER_COMPOSE exec app php artisan "[email protected]"
elif [ "$1" == "c" ]; then
shift 1
$DOCKER_COMPOSE exec app composer "[email protected]"
elif [ "$1" == "p" ] || [ "$1" == "t" ]; then
shift 1
$DOCKER_COMPOSE exec app ./vendor/bin/phpunit "[email protected]"
else
$DOCKER_COMPOSE "[email protected]"
fi
else
docker-compose ps
fi
이제 아래와 같은 짧은 명령행 타이핑만으로도, docker-compose 관련 루틴한 명령들의 수행이 가능해져서, 보다 수월한 dockerized 환경내의 코딩이 가능하다.
./h start — dev 환경 spin off
./h stop — dev 환경 spin down
./h artisan tinker — tinker 실행
./h composer – composer 실행
./h test — test 실행
Jenkins 실행시에는 BUILD_NUMBER 라는 환경변수가 자동으로 설정되는데, 이를 detect 하여 로컬 환경인지 아니면 Jenkins 환경인지를 구분할 수가 있다. 따라서, ./h 스크립트는 BUILD_NUMBER 환경변수가 설정되어 있는지 아닌지를 검사하여,
BUILD_NUMBER 환경변수 있으면, docker-compose.ci.yml
BUILD_NUMBER 환경변수 없으면, docker-compose.dev.yml
자동으로 자기 환경에 맞는 yaml 파일을 픽업하고, 필요한 컨테이너들만 실행한다. 따라서, 로컬 개발용 PC 에서나, Jenkinsfile 에서 편하게 사용할 수 있다.
다음 포스팅에서는 Jenkins 에 Laravel PHP 앱 프로젝트를 등록하고 Jenkinsfile 에서 Pipeline 단계별 동작들을 어떻게 지정하는지 살펴보겠다.