LCL Engineers' Blog

夜行バス比較なび(高速バス比較)・格安移動・バスとりっぷを運営する LCLの開発者ブログ

gradle-play-publisherを利用したGoogle Play申請の自動化

新年早々ですが、先日 Andriod版「高速バス比較 」アプリをリリースしました。

圧倒的なバス便の掲載数に、わかりやすい最安値比較、細かい条件での検索など、高速バス・夜行バスを探すためにはなくてないらないアプリです。

play.google.com

f:id:lcl-engineer:20170108005847p:plain

なお、iOS版は昨年の7月にリリースしており、現在では10万以上のダウンロードをしていただいております。

高速バス比較 - 国内の路線と最安値を検索するアプリ on the App Store

さて、今回はAndriod版アプリの開発で行った、Google Play申請の自動化について、ご紹介します。

自動化のメリット

申請は、Google Play Developer Consoleから、必要な情報を入力し、画像をアップロード、APKのアップロードをすれば行えます。複雑なUIでもないので、それほど手間でもありません。

ただ、エンジニアであれば、ありとあらゆるデータをgitでバージョン管理して、全ての操作をコマンドで行いたいと考えるかと思います。アプリ説明や画像の軽微な変更する場合、目視では「変更点どこ?」ってなりますが、gitだと明確ですし、コマンド操作ができれば、CIサービスとの連携で誰でも申請ができるようになります。

自動化で利用するツール

Google Play Developer APIを利用することで、申請を自動化できます。申請ツールは、APIを利用して自作もできますが、gradelプラグインであるgradle-play-publisherを利用しました。

GitHub - Triple-T/gradle-play-publisher: Gradle Plugin to upload your APK and metadata to the Google Play Store

弊社であまり凝った利用はしていませんが、gradle-play-publisherではほぼ必要な機能はそろってると感じてます。

fastlaneのsupplyも良いとの噂を聞くので、iOS版のfastlaneに慣れている場合はこちらもおすすめです。

fastlane/supply at master · fastlane/fastlane · GitHub

事前準備

まず、APIの認証キーを取得する必要があります。これが結構面倒です。

以下を参考にJSONキーを取得します。

Getting Started  |  Google Play Developer API  |  Google Developers

アプリの新規作成はできないため、初回はWebコンソール上からアプリの情報を登録しておきます。

gradle-play-publisherのインストール

build.gradleに下記を追加して、gradle syncします。

buildscript {

    repositories {
        mavenCentral()
    }

    dependencies {
        // ...
        classpath 'com.github.triplet.gradle:play-publisher:1.1.5'
    }
}
apply plugin: 'com.github.triplet.play'
play {
    jsonFile = file("json keyのファイルパス")
}

gradlew tasksを実行すると、Play Store tasksが追加されています。( productFlavorsの定義によって追加されるタスクは異なります)

./gradlew tasks

Play Store tasks
----------------
bootstrapProductReleasePlayResources - Downloads the play store listing for the ProductRelease build. No download of image resources. See #18.
generateProductReleasePlayResources - Collects play store resources for the ProductRelease build
publishApkProductRelease - Uploads the APK for the ProductRelease build
publishListingProductRelease - Updates the play store listing for the ProductRelease build
publishProductRelease - Updates APK and play store listing for the ProductRelease build

Google Playに登録されているデータをダウンロードする

bootstrapReleasePlayResourcesタスクを実行すると、現在 Google Playへ登録されているデータをダウンロードできます。ただし、現時点のバージョンでは画像ファイルはダウンロードできません。

./gradlew bootstrapProductReleasePlayResources

実行すると以下のファイル・ディレクトリが生成されます。

f:id:lcl-engineer:20170108220548p:plain

画像はダウンロードされないので、生成されたディレクトリにファイルを追加します。申請に最低限必要なファイルは、以下の3種類です。

f:id:lcl-engineer:20170108233052p:plain

Google Playに申請情報をアップロードする

デフォルトの状態だと、画像ファイルがアップロードされてないため、build.gradleに「uploadImages = true 」を追加します。

play {
    jsonFile = file("json keyのファイルパス")
    uploadImages = true
}

publishListingReleaseタスクを実行すると、各種ファイルで定義された情報・配置された画像がGoogle Playへ登録されます。

./gradlew publishListingProductRelease

Google PlayにAPKをアップロードする

APKは、手動でアップロードをすると、誤ったAPKを登録してしまうミスが発生しうるので、必ず自動化したいところです。gradle-play-publisherでは、publishApkReleaseタスクでAPKをアップロードできます。

./gradlew publishApkProductRelease

build.gradleに「track = 'beta' 」を追加すると、Beta版としてAPKを登録できます。trackには、「'production'o r 'rollout' or 'beta' or 'alpha'」のいずれかが指定できます。

play {
    track = 'beta' 
    jsonFile = file("json keyのファイルパス")
    uploadImages = true
}

まとめ

上記で記載したとおり、gradle-play-publisherでは非常に簡単に自動化が可能です。リリース時のストレスを少しでも下げるために、申請作業は必ず自動化をおすすめします。

Visual RegressionテストによるWebデザイン崩れの防止

明けましておめでとうございます。

エンジニアブログを初めて、ちょうど1年になりました。 去年はなんとか月に1記事が書ける程度でしたが、今年は月に最低5記事は書いていきます。

今年最初の記事としては、弊社で最近取り組んでいる「Visual Regressionテスト」について紹介します。

Visual Regressionテストとは

私自身は馴染みのない言葉でしたが、以下のサイト等を見ると「Webページのスクリーンショットを以前のバージョンと比べて、ピクセルレベルでの差分を検出するテスト手法」と定義されているようです。

HTML,CSSの修正では、予期せぬ部分に影響することがよくあると思います。それを防ぐために手動によるテストだけに頼ると、サイトの規模が大きくなるにつれてコストが増加しますし、軽微な差であれば目視では気づけ無いこともあります。

一方、 Visual Regressionテストは、低コストで確実に差分を検出することが可能です。例えば、以下のような目視では気づきにくい微妙な差も、スクリーンショットを比較すれば明確に分かります。

f:id:lcl-engineer:20161204105203p:plain

実装方法

Visual Regressionテストの実装は、PhantomCSSやBackstopJSを利用すると比較的容易です。

GitHub - Huddle/PhantomCSS: Visual/CSS regression testing with PhantomJS techblog.lclco.com

上記の記事の通り、弊社も以前はBackstopJSを利用していましたが、後述の確認レポート等を作成するために、使い慣れたRubyを中心とした以下の技術を用いています。

  • Ruby + Capybara + Poltergeist
    • Webページアクセス、スクリーンショット取得
  • Rmagick
    • 差分画像の生成、画像の差異情報の取得
  • Amazon S3
    • スクリーンショットの保存
  • PostgreSQL
    • テスト結果の保存

テストの流れ

テストの流れは下記のようになっており、担当者はHubotに命令と、実行結果の確認だけすれば良いだけです。

  1. 実装担当者が、Hubot に命令しテストJOBの実行
  2. 各ページのスクリーンショットを取得し差分比較
  3. 結果をS3,DBに保存
  4. 結果レポートのURLをチャットへ通知
  5. 実装担当者が、結果を確認する

各所について、補足していきます。

テスト実行のタイミング

当初、GitへのPUSHをトリガーに自動でテストを実行していましたが、WIP段階でのPUSHや、関係のないサーバサイドの修正でもテストが実行され、チャットへの通知が煩雑になりました。

現在は、以下のタイミングで実行しています。

  • 開発中は、任意タイミングで実行 ( Hubotに実行命令を出す)
  • Staging環境へのデプロイ時には自動実行

テスト対象ページ

予期しないページへの影響を検出するのが、目的の一つであるため、全てのページをテスト対象にするべきと考えてます。(検索ページなどパターンが多すぎるページは、代表ページのみに絞る)

弊社では、GoogleスプレッドシートでサイトのURL一覧を管理しており、そのシートをからにテスト対象URLを取得しています。新しいページを作成する場合は、このシートをメンテナンスする運用にしているため、シートに追加すれば自動的にテスト対象に加わるようになっています。

比較対象

Visual Regressionテストでは、何を正として比較するのが重要であり、比較対象は以下の条件が必要と考えています。

  • 比較元は、正しい仕様が実装されている
  • 比較元と比較先は、同一のデータソースを元にページが生成される。(動的ページの場合は、データソースを同じにしなければ、データによる差異が大量に発生してしまいます)

弊社では、実行されるタイミングによって、比較対象を変更しています。

  • 開発中の実行時は、現在のブランチの環境*1とStaging環境を比較
  • Stagingのデプロイ時の実行時は、前回のStaging環境での実行結果とデプロイ後のStaging環境の実行結果を比較

テスト対象となる全ての環境は、同一のデータベースを参照しており、Staging環境はProduction環境と同じmasterブランチのコードで動いています。これは、masterブランチのコードは正しい仕様であるという前提に立っています。一度masterに不具合が混入した場合、気づかなければ今後も間違い続けるという問題を抱えており、それをガードする仕組みは現在も検討中です。

スクリーンショットの差分比較

スクリーンショットの取得は、poltergeistのsave_screenshotを利用しています。

GitHub - teampoltergeist/poltergeist: A PhantomJS driver for Capybara

スクリーンショットの差分比較は、Rmagickのcompositeを利用しています。 比較元・比較先の画像から、差分画像が作成されます。

before_image = Magick::ImageList.new("/tmp/before.jpg")
current_image = Magick::ImageList.new("/tmp/current.jpg")

diff_image = before_image.composite(current_image, 0, 0, Magick::DifferenceCompositeOp)

差分画像は、黒のピクセルが一致、黒以外が不一致箇所として生成されます。

f:id:lcl-engineer:20170102195616p:plain

また、differenceメソッドで差異の数値を求めることも可能です。戻り値の結果が0でなければ差異ありと判断しています。

before_image = Magick::ImageList.new("/tmp/before.jpg")
current_image = Magick::ImageList.new("/tmp/current.jpg")
diff_rate = before_image.difference(current_image)
pp diff_rate
> [4129.06884765625, 0.03533638422297351, 1.0]

テスト結果の確認

Visual Regressionテストでは、発生した差分が適切かどうかの最終チェックは目視になってしまうため、できるだけ簡単に結果が確認できる仕組みが重要だと考えてます。

弊社では、テスト結果をS3,DBに保存し、Web上で一覧表示できるようにしています。(テスト完了後に、確認用URLがチャット通知されます)

f:id:lcl-engineer:20170102200308p:plain (左から差分画像、比較元、比較先)

また、ページごとの差分値も表示し、デフォルトは差分なしの画像は表示されません。担当者は、チャットに通知された確認用のURLを開いて、差分がある画像をさっと結果を確認するだけでチェックが完了します。

最後に、実装する上でのTIPSをいくつかご紹介いたします。

Ajaxの実行完了を待つ

Ajaxを利用して非同期でページを組み立てている場合は、全てのAjaxの完了を待ってスクリーンショットを取得する必要があります。 jQueryを利用している場合は、以下のようにjQueryの実行完了までwaitさせるとAjax実行後の画面が取得できます。

loop until finished_all_ajax_requests?(session)

def self.finished_all_ajax_requests?(session)
    return true if session.evaluate_script('jQuery.active').nil?
    session.evaluate_script('jQuery.active').zero?
end

一部のエリアだけスクリーンショットを取得する

save_screenshotメソッドの引数に、CSS selectorを記載すると該当箇所のスクリーンショットが取得できます。

save_screenshot('/path/to/file.png', :selector => '#id').

動的な広告を除外する

ページ上に動的な広告を表示していると、アクセスするたびに表示される広告が異なり、毎回差分として検出されてしまいます。

poltergeist 1.10から追加されたホワイトリスト・ブラックリスト機能で、広告が配信されるシステムのドメインを除去することで、この問題の対策ができます。

弊社では、ホワイトリストに自ドメインと外部JS・画像配信で利用しているいくつかのCDNを追加しています。

session.driver.browser.url_whitelist = ["テスト対象ドメイン","xxx"]

また、余計なファイルのロードも抑制できることで、テスト時間の短縮につながります。

まとめ

Visual Regressionテストを運用してから、テスト工数の削減ができ、何よりも安心してリリースができるようになりました。特にリファクタリングをする際に有用で、思い切ったリファクタリングに取り組めるようになりました。Visual Regressionテストは、一度仕組みを作ってしまえば、あまり運用コストもかからず、一定の品質担保に役立ちます。本記事が、皆様の参考に少しでもなれば幸いです。

*1:ブランチをPUSHすると、テストサーバにそのブランチ専用の環境を生成するようにしています。これについては別途記事を書きたいと思います。

リモートワークへの取り組み

この記事はリモートワーク Advent Calendar 2016 - Adventar 25日目の記事です。

弊社におけるリモートワークの事例や普段の取り組みを見波が紹介したいと思います。

基本的なルール

細かい部分は割愛しますが大まかには以下のようなルールで運用しています。

  • 7:00-22:00の間で8時間働く(11:00-15:00のコアタイムは意識する。オフィスは10:00-19:00)
  • 前日までにリモートワークの予定をカレンダーに登録してチャットで申告する
  • 当日に勤務開始時に予定の勤務時間をチャットで申告する

週一でリモートワークする日を決めている人や午前はリモートで午後は出社してオフィスで働く人もいます。1名(私のことですが)は地方在住でフルリモートで勤務しています。

様々な活用事例

前述のとおりリモートワークといってもやり方や目的が異なります。その具体例を挙げていきます。

集中できる

メンバーから物理的に話しかけられることがなくなるので自分の作業に集中することができます。オフィスの開始時間より早く開始すればチャットによるやり取りも不要になるので重めの設計や実装も捗ります。

時間を有効に使える

まず通勤時間が0になります。これに加えて比較的フレキシブルなルールで運用しているためうまく時間をやりくりすることで自分の時間を有意義に過ごしたり急な家庭の体調不良にも対応ができます。例えば早めの勤務にして家族と夕食を共にしてから勉強会に参加したり、子どもが保育園で熱を出しても中断して迎えに行き、家族が帰ってきたら子守をバトンタッチしてすぐに仕事を再開できます。

地方在住でも働ける

今のところまだ私だけなのですがフルリモートでの勤務も実践しています。弊社は東京にオフィスにあり私は長野県に住んでいます。中途採用でリモートワークを前提として入社しました。最初の数ヶ月はオフィスで勤務をして、その後リモートワークに移行しました。現在は月一くらいの頻度で社内のイベント等に合わせて出社してしています。自分が住みたい場所に住みながらやりたい仕事・魅力的なサービスに携わることができるのは幸せなことです。

どうやって実現しているのか

メリットが多いリモートワークですが、よく挙げられるデメリットとしてオフィスとリモートでの情報の乖離があります。オフィスの口頭でのやりとりがリモートワーカーには共有されない、リモートワーカーの様子や進捗が見えないといった話はよく耳にします。このようなデメリットを下記のように解消しています。

すべてを記録する

弊社ではYouTrack(JetBrains製のIssue Tracking System)を利用しています。これを間接部門も含めて全社的に使用しています。タスクは全てIssueになっておりコミュニケーションは各Issueのスレッド上で行われます。たとえ口頭でのやりとりが発生してもその内容をIssueに記載するので場所に関係なく把握できるようになっています。また、メンバーとのやりとりが無くても状況や進捗にアップデートがあったら細かくIssueを更新します。逆に進捗がないという場合でも行き詰まっている点や確認事項をコメントしてメンバーに助けを求めます。 このようにリモートワークに関係なくすべてを記録することでオフィスでもリモートでもやり方を変えずに仕事をすることができています。

チャットを活用

近頃はSlackが主流のようですが弊社ではChatworkを利用しています。メンバーとの細かな調整やすぐに回答をもらいたいことはチャットで行います。デプロイやテスト環境の起動もチャットのbot経由で行うようにしており誰が何をしているのかがより把握しやすくなっています。また、本番環境等での作業をする場合も何かあったらすぐに他のメンバーがサポートできるように逐次作業内容とその結果をチャットで実況します。

ビデオ会議

リモートからミーティングに参加が必要な場合はZoomを使ってビデオ会議(音声のみ場合もあり)をしています。エンジニアは週一で定例ミーティングを設けているのでリモートワークの私もそれなりの頻度でメンバーの声を聞くことができチームとしての距離を遠くに感じることなくほど良いバランスを保つのに一役買っています。

おわりに

まだまだ課題や改善点は多くありますが、以上のようにオフィスでもリモートでも同じように働けるようなプロセスを確立しています。前回私が出社したときもミーティングが少し円滑になったくらいでリモートワークをしている普段とほぼ変わらぬ仕事の進め方ができました。

おわりのおわりに

個人的にリモートワークによる一番の恩恵は毎日家族と夕食をともにすることができ、子どもと過ごす時間も増えたことです。これまでの社会人生活の中でワークライフバランスが一番良い状態です。 LCLでは家族とごはんを食べたり、自分の時間を有意義に過ごしつつサービスを共に良くしてくれる仲間を募集中です。 ご興味がある方は是非採用ページからご応募お待ちしております。

株式会社LCL(エルシーエル)

Bitrise + GradleでAndroidアプリのCI環境構築

弊社では、Bitriseを利用してAndroidアプリのCI環境を構築しています。まだまだBitriseを利用している事例は少ないので、簡単にご紹介いたします。

なお、Bitriseを利用したiOSアプリのCI環境構築については、以下の記事で紹介しています。 techblog.lclco.com

前提条件

  • Gradle(gradlew)でビルドができること

初期設定

まずは、新規作成〜ビルド(apkの作成)までの手順を紹介いたします。

アプリの作成

Bitriseでは、まずビルド等の対象アプリを登録する必要があります。 [Add new app] をクリックすると、ウィザード画面が表示されます。

f:id:lcl-engineer:20161127155850p:plain

以下のマニュアルに沿って、進めればよいので詳細は割愛します。

Creating your first App on Bitrise · Bitrise

Workflowの作成

アプリ作成後のWorkflowはデフォルトでは、このような状態になっています。この時点で、ビルドに必要な基本的な流れは網羅しています。

f:id:lcl-engineer:20161127162140p:plain

Gradleで実行するタスクは、以下の箇所で設定します。

f:id:lcl-engineer:20161127162343p:plain

上記のテキストボックスにタスクを直接入力してもよいですが、GRADLE_TASKという環境変数に設定することもできます。

f:id:lcl-engineer:20161127162813p:plain

環境変数の設定画面で、ビルドタスクを入力します。複数のビルドを実行する場合は、半角スペースで区切りで入力します。

f:id:lcl-engineer:20161127162925p:plain

ビルドする

以上で設定は完了で、あとは[Start a build] ボタンでビルドが行えます。

f:id:lcl-engineer:20161127163227p:plain

BitriseでSigned APKを作成する

keystoreファイルをBitrise上に登録することで、リポジトリにkeystoreファイルを保存することなく、Signed APKを作成できます。

keystoreファイルの登録

Workflowの[Code signing & Files]メニューから、ファイルをアップロードします。

f:id:lcl-engineer:20161127164313p:plain

ファイルをアップロードするとパスワード等の情報の入力画面になります。 必要な情報を入力し、[Save metadata]で保存します。

f:id:lcl-engineer:20161127165232p:plain

この画面で登録した情報は、各項目に記載されている環境変数( $BITRISED_ANDROID_XXX)でアクセスできます。

File Downloader Stepの追加

Bitrise上に登録したkeystoreファイルは、ビルド時にダウンロードが必要です。その為に、File Downloaderというステップを追加します。

今回は、Git Clone の Stepの後に追加します。(Gradle の実行前ならどの場所でも良いはずです)

f:id:lcl-engineer:20161127170245p:plain

f:id:lcl-engineer:20161127170059p:plain

続いて、 File Downloader Stepへ変数を設定します。

  • Download source url には、 $BITRISEIO_ANDROID_KEYSTORE_URL を設定
  • Download destination pathには、任意パスを設定(ここでは、$HOME/keystores/release.jks を設定)

f:id:lcl-engineer:20161127170431p:plain

build.gradleの編集

Bitrise上で登録したkeystoreを利用するように、signingConfigsを書き換えます。

signingConfigs {
    release {
        keyAlias System.getenv("BITRISEIO_ANDROID_KEYSTORE_ALIAS")
        keyPassword System.getenv("BITRISEIO_ANDROID_KEYSTORE_PRIVATE_KEY_PASSWORD")
        storeFile file(System.getenv("HOME") + "/keystores/release.jks") // File Downloaderで指定したパス
        storePassword System.getenv("BITRISEIO_ANDROID_KEYSTORE_PASSWORD")
    }
}

以上で完了です。Gradleでリリースビルドを行うと、Signed APKが生成できます。

まとめ

Bitriseを使えば、単純なビルド環境だけならすぐに用意できます。無料プランもありますので、CI環境未構築の方は、最初のステップとして是非利用してみてください。

Hubot + Jenkins + Mackerelを利用したデプロイの見える化

弊社では最近、今更ながらHubotを利用したデプロイを行うようにしました。

なぜ今更ながら取り組んだのかも踏まえて、構成などを簡単に紹介いたします。

導入の背景

Hubot導入前は、以下のような流れでデプロイを行っていました。

  1. デプロイ担当者が、Google Analyticsのアクティブユーザを確認
  2. アクティブユーザが規定の数より少なければ、Jenkinsのビルドを手動で実行

この方法でも手間はそれほどかからないのですが、チーム・サービスの拡大によっていくつか問題が見えてきました。

ミスが起こりやすい

運営するサービス数の増加に伴い、Jenkinsのデプロイビルドも増えてきました。そうすると、弊社サービス「夜行バス比較なび」のデプロイをする際に、別サービス「格安移動」のデプロイビルドを実行してしまうなど単純なミスが発生するようになりました。

状況が見えない

最近リモートワークを行うメンバーが増え、Chatworkがコミュニケーションの主体となっています。そのため、前述のようなミスが発生したとき、以下のような状態になってました。

デプロイ担当: 夜行バス比較なびのデプロイします。
私: お願いします。
・・・
私: 格安移動のデプロイビルドが実行されているみたいですけど、間違ってないですか?
・・・
・・・
私: 大丈夫でしょうか?
・・・
デプロイ担当: 間違って実行してしまったので確認してましたが、特に悪影響ありませんでした。

この場合、リモートのメンバーは特に状況が見えづらく、不安になることが定期的に有りました。 このような問題から、ミスが発生しづらく・状況が見えるデプロイの仕組みへ変える必要があるとの考えに至りました。

デプロイ構成

f:id:lcl-engineer:20161024003432p:plain

  1. Chatworkでデプロイを命令を行う。
  2. Hubotがmackerelから現在のサイトのリクエスト数を取得する。
  3. HubotがJenkinsのデプロイビルドを実行する。
  4. Jenkinsが各サーバに対してデプロイを実行する。

各サイトのNginxのログは、エラー数の監視のためmackerelに随時送信しており、mackerel APIを利用してデプロイ時点でのリクエスト数を取得しています。リクエスト数が規定より多い場合は、デプロイを控えるようにしています

Chatworkでのやりとりは、以下のようになってます。

f:id:lcl-engineer:20161030172757p:plain

構築手順

Hubotのインストールや、基本的な利用法は割愛します。

ChatworkとHubotの連携

Chatwork APIを利用するためには申請が必要です。かれこれ2年以上プレビュー版ですが、問題なく使えます。以下のサイトから申請して、APIトークンを取得します。

チャットワークAPIドキュメント

ChatworkとHubotの連携は、adapterが用意されているのでそれを利用します。

npm install hubot-chatwork --save

環境変数にChatwork APIの情報を設定します。

# 取得したAPI TOKEN
export HUBOT_CHATWORK_TOKEN="XXXXXXXXXXXXXXXXX" 
# 監視するルームID。カンマ区切りで複数指定、botユーザをルームに所属させる必要あり。
export HUBOT_CHATWORK_ROOMS="111111,22222" 
# 1時間当たりのリクエスト数。APIは、5分間100回までの制限あり。
export HUBOT_CHATWORK_API_RATE="500"

以下のコマンドで実行。引数 -n でbot名称を設定

bin/hubot -a chatwork -n hubot

正しく設定が行われていれば、ping に応答があります。

f:id:lcl-engineer:20161030183455p:plain

mackerelとHubotの連携

事前に、Nginxのアクセスログをmackerelに投稿しておきます。

fluentdでサービスメトリックを投稿する - Mackerel ヘルプ

投稿したメトリクスは、APIで取得できます。

curl -X GET -H "X-Api-Key: <API_KEY>" "https://mackerel.io/api/v0/services/xxxxx/metrics?name=nginx_access_num.2xx_count&from=1476325055&to=1476325055"

サービスメトリック - Mackerel API ドキュメント (v0)

Hubotから直近の時刻を指定して上記APIを実行すれば、デプロイ時点でのアクセス数が取得できます。

JenkinsとHubotの連携

Jenkinsの認証を有効にしている場合は、以下の記事などを参考に外部からAPIを実行できるようにしておきます。弊社では、Hubot専用のユーザを作成し、限定されたビルドのみ実行を許可しています。

Jenkins のジョブを外部からビルドするには API Token を利用する - @kyanny's blog

HubotからJenkinsビルド実行は、以下のコードが利用できます。JOBのURLなど必要に応じて適宜修正します。

hubot-scripts/jenkins.coffee at master · github/hubot-scripts · GitHub

Jenkinsの情報は、Chatwork同様に環境変数に設定しておきます。

export HUBOT_JENKINS_URL="[JENKINS_URL]"
export HUBOT_JENKINS_AUTH="[ユーザID]:[パスワード or API TOKEN]"

以上でHubotと各サービスの連携は完了です。Hubotへの命令コマンドに応じて、適切な処理を組み合わせれば、デプロイまでの一連の流れが行えます。

導入の効果

見える化は、各自の行動にたよらず「強制的に見えるようにする」という仕組みづくりが重要ですが、以前までは、デプロイ担当者がチャットに状況を流していたので、結局は個々人による行動に依存していました。 今回、デプロイの全ての状況が"強制的に"チャット上に流れるようになったため、確実に見える仕組みが実現できました。

全ての流れが見えるようになったおかげで、まずデプロイが圧倒的にスムーズになりました。さらに、新しいメンバーでもどのようにデプロイが行われているかが、容易に把握できるようになりました。実際にやってみると、他にも応用したい案が多くでてきたので、今後もHubotを育てていきたいと考えています。

弊社では、エンジニアがより働きやすく・成長できる環境を日々検討していますので、ご興味がある方は是非採用ページからご応募お待ちしております。

株式会社LCL(エルシーエル)

LCLエンジニアのオフィス環境

f:id:lcl-engineer:20161015165208j:plain

弊社は、今年の8月に勝どきにあるトリトンスクエア 40Fにオフィスを移転しました。

移転してから2ヶ月ほどたちましたので、今回は新オフィスを簡単に紹介したいと思います。

景色

40Fだけあって、東京湾を一望できます。目を休めるためにも、たまに眺めてます。

f:id:lcl-engineer:20161014230926j:plain

f:id:lcl-engineer:20161014222939j:plain

カフェスペース

専用のカフェスペースがあり、KUREAという本格派のエスプレッソマシンが用意されています。

www.unimat-life.co.jp

エスプレッソ、カフェラテ、ココア、日本茶など、9種類のドリンクが誰でも飲み放題になってます。

f:id:lcl-engineer:20161014230917j:plain

近くにはくつろげるスペースがあり、ここにはコンセントも設置されているので、コーヒーを飲みながら気分転換に仕事をしているメンバーも多くいます。

f:id:lcl-engineer:20161014230932j:plain

ミーティングスペース

用途に応じて、ミーティング場所が選べるように、色々なタイプのミーティングスペースを用意しています。

こちらは会議室タイプで、主に来客用として利用しています。会議室でミーティングをすると、どうしても会議時間が長くなりがちなので、社内の打ち合わせではなるべく利用しないようにしています。

f:id:lcl-engineer:20161014230922j:plain

こちらは,執務室内にある打ち合わせコーナーです。予約不要で使いたいときにすぐに使えるため、多くの打ち合わせはここで行っています。他にも同タイプの打ち合わせが3つほどあります。

f:id:lcl-engineer:20161017005556p:plain

リラックスして打ち合わせできる土足禁止エリアもあります。ブレスト的な打ち合わせをする場合は、大体この場所でやってます。

MTG以外にもノートPCでリラックスしながらプログラミングをしたり、昼休みには各自が読書したりなどにも活用されています。

f:id:lcl-engineer:20161016004921j:plain

執務エリア

執務エリアは一般的な島形式の配置にしています。 背中合わせでメンバーを配置することで、何かあったときに簡単に相談できるようにしています。

また、移動式のテレビモニタも配備しています。 Applet TVが接続されており、各メンバーのディスプレイをすぐに映せるため、簡単な確認・共有は移動せずこの場所で行っています。 ( エンジニアPCは全員Macです)

f:id:lcl-engineer:20161018090201p:plain

一人あたりのエリアは、iMac27インチと25インチディスプレイを配置してもまだ余裕があるぐらい広く確保されています。

f:id:lcl-engineer:20161017235536j:plain

集中したいときに、周囲から遮断できるブースも設けています。集中してドキュメントをまとめ上げるなど、普段とは異なるタスクを行うときに、この場所を利用することが多いです。

f:id:lcl-engineer:20161017235224j:plain

最後に

新オフィスのご紹介をしましたが、仕事をする上では働き方・仕事内容がより重要だとも考えております。

弊社では、エンジニアがより働きやすく・成長できる環境を日々検討していますので、ご興味がある方は是非採用ページからご応募お待ちしております。

株式会社LCL(エルシーエル)

pgpool-IIでストリーミング・レプリケーションへ対応する

以下の記事に続いて、pgpool-II+ストリーミング・レプリケーション構成について紹介致します。 (だいぶ時間が空いてしまいましたが。。)

pgpool-II 入門(インストールと簡易設定) - LCL エンジニアブログ

説明に利用する環境

  • PostgreSQL 9.4
  • pgpool-II 3.5.2

pgpool-IIのストリーミング・レプリケーション対応

ストリーミング・レプリケーション自体は、Web上で有用な記事が多く出てきているので説明を割愛します。特に以下の記事を参考にさせていただきました。

pgpool-IIをストリーミング・レプリケーションへ対応するには、pgpool.confを次のように設定します。

load_balance_modeをonにします。

load_balance_mode = on

master_slave_modをonにし、master_slave_sub_modeをstreamに指定します。

master_slave_mode = on
master_slave_sub_mode = 'stream'

backend_hostnameに各DBサーバの接続情報を設定します。

backend_hostname0 = '192.168.56.100'
backend_port0 = 5432
backend_weight0 = 5
backend_flag0 = 'ALLOW_TO_FAILOVER'

上記がDBサーバ1台分の接続情報のセットです。 末尾の数字を1,2,3と増やしていくことで、接続させるDBサーバを増やすことができます。

backend_weightで指定した値が、SQLを振り分ける比率となります。 例えば、以下のように設定すると、5:6:7の比率で振り分けが行われます。

backend_hostname0 = '192.168.56.100'
backend_weight0 = 5

backend_hostname1 = '192.168.56.101'
backend_weight1 = 6

backend_hostname2 = '192.168.56.102'
backend_weight2 = 7

上記で一通りの設定は完了です。

pgpool-IIを起動し、pgpool_statusファイルを確認すると、各ノードへの接続ステータスが確認できます。 設定したノードの行数だけステータスが表示され、全て「up」になっていれば正常です。

# cat /var/log/pgpool/pgpool_status
up
up
up

md5認証への対応

PostgreSQLの認証に md5認証を利用していると、pgpool-II側で更に追加設定が必要となります。

まず、pgpoo.confのenable_pool_hbaをonにします。

enable_pool_hba = on

pg_md5というコマンドで、認証ファイルを生成します。 usernameの引数には、PostgreSQLへ接続するユーザ・パスワードを指定します。

pg_md5 --md5auth --username=test password

実行すると、pool_passwdファイルが生成されます。

#  cat /etc/pgpool-II/pool_passwd
test:md587f77988ccb5aa917c93201ba314fcd4

続いて、pool_hba.confにPostgreSQLへの接続情報を定義します。

host    testdb           test         127.0.0.1/32       md5
host    testdb           test         ::1/128               md5

以上で完了です。

まとめ

pgpool-IIでのストリーミングレプリケーション対応には、今回紹介しなかった「オンラインリカバリ」など他に有用な機能がありますので、より詳しく知りたい人は公式マニュアルもご参照ください。