書籍「Mackerel サーバ監視[実践]入門」執筆成功

執筆成功と言いつつ、自分は元となった連載記事をいくつか書いただけで、書籍化にあたってはプロフィールを書く以外のことは何もしていません。気づいたら、書籍を初執筆していたことになりました。

書籍「Mackerel サーバ監視[実践]入門」を執筆しました | おそらくはそれさえも平凡な日々

僕のおすすめは、9章 付録です。Mackerelのアーキテクチャから、ペパボさんとガイアックスさんの事例といった、内部システムの話とお客様のおもしろい応用事例が載っています。よくみると、はてなのインフラ環境―自作サーバから自作コンテナまでという節で、drootが紹介されていたりします。

書籍にできるレベルまでまとめることで、社内のエンジニアがMackerelのキャッチアップをするのにも非常に良質な資料となっています。

自分が書いた連載記事

Go言語をほぼ毎日書いている話 (序)

はてなの京都オフィスで開催された そうだ Go、京都。 - connpass にて、「Go言語をほぼ毎日書いている話(序)」というふわっとした話をしました。いわゆる Write Code Every Dayという活動ですね。 タイトルに(序)と付けているのは、書き始めてまだ5ヶ月程度だからです。

ちなみにこのGWでは、Rustを毎日書いていて、すでにタイトル詐欺感がありますね。

スライド

スライドを以下に貼っておきます。

speakerdeck.com

同僚の id:niwatako さんの超速記により、ツイートはるだけで内容紹介できて贅沢。

質問

発表後、以下のような質問をいただいた。

感想

  • 同僚の id:t_kyt くんと id:aereal さんと発表したのだけど、示し合わせもせず、それぞれ微妙にリンクした話をしていて、仲間じゃん感があった。
  • plan9userさんのFUSEの話がおもしろかった。FUSEの仕組みを初めて知った。plan9そのもののアーキテクチャとして興味がある。
  • 京都というか地方の勉強会は、出席率も高く、1つ1つの勉強会を大事にしている感がよい。LT登壇も多く、質問もいろいろでて、ツイートも活発なよい勉強会だった。

mkr + peco + tmux + ssh

Mackerel Meetup #10 Tokyo のLT枠で「mkr + peco + tmux + ssh」というタイトルで話をしました。当日の発表スライドを以下に貼っておきます。

speakerdeck.com

話の内容は、tmux + ssh + Mackerel API を組み合わせたとにかくモダンなサーバオペレーション - ゆううきブログ の続きになります。このエントリにあるように普段から

$ tssh $(roles bookmark proxy) # サービス名: bookmark, ロール名: proxy

のようなコマンドを叩いて、指定したロール配下のホストに、tmuxのpaneを使って同時にsshログインしています。

しかし、ロールの数が増えてくると、そもそもロールの名前を正確に覚えていないということがしょっちゅう起きます。 そこで、peco*1 を挟んでやることで、ロール名の候補に対して絞り込みをかけて、ロールを決定したのちに上記コマンドを実行するということができます。

bindkey '^w' peco-mkr-roles
function peco-mkr-roles() {
  local selected_role=$(mkr services | jq -rM '[.[] | .name as $name | .roles // [] | map("\($name) \(.)")] | flatten | .[]' | peco)
  if [ -n "${selected_role}" ]; then
     local BUFFER="tssh \`roles "${selected_role}"\`"
     // zle accept-line // 好みでコメントアウトを外す
  fi
  zle clear-screen
}
zle -N peco-mkr-roles

このようにMackerelを用いて、単に監視をするだけでなく、APIを介してさまざまなツールを組み合わせ、プログラマブルにインフラストラクチャを制御することができます。

参考リンク

追記

github.com

マージされたので、mkrを更新すると上記のfunctionが動きます。

*1:pecoは雑な表現をすると、インクリメンタルにgrepできるツールです。

詳解システム・パフォーマンス 3章「オペレーティングシステム」メモ

詳解システム・パフォーマンス 輪読メモ2 - ゆううきメモ の続き。今回は第3章「オペレーティングシステム

システムパフォーマンス分析では、オペレーティングシステムとそのカーネルについての理解は必要不可欠だ。システムコールがどのように実行されるか、CPU がどのようにスレッドをスケ ジューリングするか、限られたメモリがパフォーマンスにどのような影響を及ぼすか、ファイルシステムは I/O をどのように処理するかなどのシステムのふるまいについて、あなたは頻繁に仮説を立て、それをテストすることになる。これらのふるまいを理解するためには、オペレーティングシステムとカーネルの知識を使わなければならない。

Brendan Gregg,西脇靖紘,長尾高弘「詳解システム・パフォーマンス」, オライリージャパン p.85

議論

章の内容をベースに議論したことは以下の9点である。議論した内容なので、事実でない可能性があることに注意。

  • カーネル空間とユーザー空間の違い
  • プロセスとスレッドの違い
  • selectとepollの違い
  • システムライブラリとはなにか
  • mallocは何をやっているのか
  • forkのCoWはなにをやっているのか
  • forkとcloneの違い
  • goroutineはスレッドか
  • キャッシング層が多すぎる

カーネル空間とユーザー空間の違い

カーネル空間といっても、プロセスとは独立したまとまった空間があるわけではおそらくない。 (図3-8プロセス環境を見ながら) 1つのプロセスの中にカーネル空間とユーザーアドレス空間がある。 カーネル空間では、メタデータとして、PIDなどをもつ。カーネルのコードでは、task_struct構造体として表現される。 (http://lxr.free-electrons.com/source/include/linux/sched.h#L1511) 他には、ファイルディスクリプタカーネル空間に確保される。ユーザー空間にはディスクリプタIDのみを確保する。 ユーザー空間は、実行ファイル、(共有)ライブラリ、ヒープ、スレッドのスタックなどをもつ。 softirqdみたいなカーネルスレッドだと、カーネル空間しかなさそう。

select/pollとepollの違い

select/poll はカーネル空間上のファイルディスクリプタをループで舐めるのでO(n)となり、監視するディスクリプタ数が多いと遅い。 一方で、epollはカーネル側でディスクリプタの状態をもつので、状態変化したものだけユーザー空間に返すことができる (エッジトリガ通知)。

詳細は、「Linuxプログラミングインタフェース」 63章 高度なI/Oモデル を参照。

システムライブラリとはなにか

glibcとか。glibcには例えば、mallocとかがある。mallocシステムコールではなく、ライブラリ関数。

MySQLで、jemallocを使うとスレッド数に対するスケーラビリティが向上する例がある。最近、社内でハマった。 MySQL performance: Impact of memory allocators (Part 2)

プロセスとスレッドの違い

カーネルはタスク (プロセス or スレッド or カーネルスレッド) という単位で、実行スケジューリングする。つまり、プロセスとスレッドは同等に扱われる。 では、プロセスとスレッドはカーネルコンテキストにおいてなにが異なるのか。 前述のように、タスクはtask_struct構造体で表現される。スレッドの場合は、あるスレッドを表現するtask_struct構造体の一部のメンバー変数が、スレッドの生成元であるプロセスと同じポインタを指しているだけではないか。この共有される一部のメンバー変数には、ヒープ領域などが含まれるはず?

mallocは何をやっているのか

ヒープメモリから要求するサイズの空き領域を探索して返す。(このときはシステムコールを実行しない?) 要求するサイズの空き領域がなければ、brk()により、ヒープメモリサイズを拡張する。

ヒープメモリの最初のアロケートはいつ行われる?forkされたときに親プロセスからコピーされるはず。原祖であるinitプロセスではどうしてるのか。

forkのCoW (Copy On Write) は何をやっているのか

fork直後に、新規の仮想メモリアドレス領域を子プロセスの領域として確保される。 しかし、子プロセスの仮想メモリアドレスのマッピング先は、親プロセスの物理メモリアドレスである。 というのがCoWの仕組みのはず?

ちなみに、vforkは、仮想メモリやページテーブルのコピーすら作らない。

forkとcloneの違い

forkは子プロセスを生成し、cloneはスレッドを生成するために使われる。cloneは関数を渡すインタフェース。cloneはスタックを別途割り当てる。cloneはflagsにより、親子で共有する属性を指定できる。 スレッドと一口に言っても、共有している属性が場合によって異なることがありそう。

  • CLONE_FILES: 親子プロセス間でファイルディスクリプタテーブルを共有する
  • CLONE_FS: 親子プロセス間でファイルシステム関連の属性を共有する
  • CLONE_IO: 親子プロセス間で I/O コンテキストを共有する
  • CLONE_VM: 親子プロセス間で仮想メモリを共有する

Linuxプログラミングインタフェース」 28章 プロセスの作成とプログラムの実行:詳細 より。

goroutine はスレッドか

goroutineはスレッド(ここではカーネルのtask_structで表現されるスレッド)と1対1対応するわけではない。「タスク」ではない。言語処理系側の実行コンテキスト(グリーンスレッド)である。ただし、M個のスレッド上で、N個のgoroutine (N > M) を動かすことはできる。このようなスレッドの多重化のために、言語処理系上でどのような実装が必要なのかはあまりわかっていない。

キャッシング層が多すぎる

  1. アプリケーションキャッシュ (アプリケーションプロセス上のメモリにキャッシュ?)
  2. Webサーバキャッシュ (nginxのキャッシュなど)
  3. キャッシングサーバー (memcachedなど)
  4. データベースキャッシュ (MySQLのバッファキャッシュなど)
  5. ディレクトリキャッシュ
  6. ファイルメタデータキャッシュ
  7. OSのバッファキャッシュ
  8. ブロックキャッシュ
  9. ディスクコントローラーキャッシュ
  10. ストレージアレイキャッシュ’
  11. オンディスクキャッシュ

とにかくディスクI/Oの遅さをなんとかするために、キャッシュをはさみまくっていることがわかる。

この章でのいくつかの疑問もしくは疑問に対する仮説は後の章で解説されるか、Linuxプログラミングインタフェース読めばわかりそう。 その場にいるオペレーションエンジニアと、我々は言語処理系の実装がわからないという会話をした。処理系もシステム系領域なので、やっていく必要がある。

詳解 システム・パフォーマンス

詳解 システム・パフォーマンス

書籍「Designing Data-Intensive Applications」下読み

全体として何に関する本か

ストレージとデータ処理技術に関する基礎概念について、原理と実践の両方の観点を通して、読者がdata-intensive applicationsを構築するための技術選択の意思決定を助ける本である。 この分野は、NoSQL、ビッグデータ、スケーラビリティ、ACID、CAP定理、結果整合性、シャーディング、MapReduceなどバズワードで溢れており、正しい知識を身につけることが難しいため、本にまとめたのではないかと考える。

この本では、タイトルに「データベース」や「分散システム」と書かず、「Data-Intensive Applications」 としている。これは、大量で複雑なデータを扱うアプリケーションというのは、万能のデータベースが1つあれば賄えるものではなく、複数のストレージやデータ処理技術を組み合わせて構築するという切り口であるためである。

どのような構成で知識や概念を展開しているか

この本は3つのパートで構成されている。

  • Part 1では、data-intensive applicationsの設計を支える基礎概念について議論する。reliability/scalability/maintainability、データモデルとクエリ言語、ストレージエンジン、データシリアライゼーションのためのフォーマットとスキーマエボリューション。
  • Part 2では、1台のマシン上のデータから複数のマシンに分散されたデータに移行する。レプリケーション、パーティショニング/シャーディング、トランザクション、一貫性、合意。
  • Part 3では、キャッシュや検索インデックスなど、異なる複数のデータベースを統合する必要のあるヘテロジニアスなアプリケーションについて議論する。バッチ処理、ストリーム処理など。最後に、全てをまとめて、将来的にreliable, scalable, maintenableなアプリケーションを構築するためのアプローチを議論する。

この本を読んで達成したいこと

リバースプロキシ、アプリケーションおよびRDBMSによる、伝統的なサーバサイドのWebアプリケーションアーキテクチャでは耐えられないワークロードに対処するアーキテクチャを設計するために必要な知識・原理を理解すること。 具体的には、各ツール(KafkaやCassandra、Hadoopなど)の原理的な限界を議論できるようになること。

そのアーキテクチャというのは、高度に発達したシステムの異常は神の怒りと見分けがつかない - IPSJ-ONE2017 - ゆううきブログにある観測のためのアーキテクチャであり、大量かつ多次元なデータ収集と多様な参照パターンが必要であると予想できる。

Designing Data-intensive Applications: The Big Ideas Behind Reliable, Scalable, and Maintainable Systems

Designing Data-intensive Applications: The Big Ideas Behind Reliable, Scalable, and Maintainable Systems

著者のMartin Kleppmannは、ケンブリッジ大学の分散システム研究者。その前は、LinkedInとRapportiveで大規模データインフラストラクチャに携わるソフトウェアエンジニアとして働いていたとのこと。

他の方の感想

www.facebook.com