詳解システムパフォーマンス 7章「メモリ」メモ

しばらく輪読を休んでたけど、再開した。第7章「メモリ」。 章末の練習問題を見ながら、みんなで議論していた。

  • メモリのページとはなにか
    • OSとCPUがメモリを管理する単位
  • 仮想メモリとは何か
    • 無限のメモリの抽象
    • メインメモリとスワップ領域を抽象化している
    • 他に抽象化している組み合わせはあるか? 分散OSの分野で、分散システム上の各ノードのメモリを一つの仮想メモリとして扱うみたいな研究はあるかも?
  • Linuxの用語では、ページングとスワッピングの違いは何か
  • スワップバイススワップファイルの違い?
    • mkswapでスワップ領域をブロックデバイスかファイルか選べる
    • ファイルのほうがダンプしやすそう。オーバヘッドも大きそう。
  • スワップ領域のサイズはいくつに設定する?
    • Chapter 7. Swap Space
    • 定期的にメモリをダンプして再開
    • live migration プロセスの状態を保存して移動 コンテナだとこういうの CRIU
  • デマンドページングの目的は何か
    • 仮想 => 物理のマッピング作成の遅延評価
    • これがないとCoWができない
  • メモリの使用率と飽和を説明しなさい
    • 使用率: ファイルシステムキャッシュは再利用できる
    • 飽和: 図7-6 メモリの解放 で上から順に戦略が使われる
    • リーピングとか実践で使ったことない
  • MMUとTLBの目的は何か
    • MMU: 仮想アドレスから物理アドレスへの変換
    • L1だけ仮想アドレス参照なのはなぜか?
      • L2以降はあとでつけたしたから?
      • L1には命令キャッシュが入ってるから?
      • 単に仮想アドレスで参照すれば速いため?
    • TLBは仮想アドレスから物理アドレスへの変換のキャッシュ
    • スレッドあたりのエントリ数が決められている => HyperThreading コンテキストスイッチ発生してもキャッシュが消えないメリットある?
  • ページアウトデーモンの役割は何か
    • ページキャッシュの掃除 フリーリストにいれる。kswapd
    • フリーリストはどこ?=> カーネル内。 図7-13
  • OOMキラーの役割は何か
  • 無名ページングとはなにか。ファイルシステムページングよりもこの種のページングを分析するほうが重要なのはなぜか
    • プロセスのプライベートデータのページング。ヒープ領域やスタック領域など。
    • ファイルシステムキャッシュはOSが追い出せる。プロセスのプライベートデータを解放できるのはアプリケーションのみ。
  • フリーメモリが不足したときに、メモリを広げるためにカーネルが取る手段を説明しなさい
    • ページキャッシュ追い出し => スワッピング => リーピング => OOMキラー
    • MyISAMは全部ページキャッシュ バッファプールとかない
    • 最近のLucenemmapでインデックスファイルをのせる。昔はJVMヒープ
  • スラブベースのアロケーションのパフォーマンス上の利点

最後に、Mackerelにおける時系列データベースの性能改善 / Performance Improvement of TSDB in Mackerel // Speaker Deck でのディスクスラッシング問題について話をした。 激しい random writeにより、ページイン数が爆発し、メモリを飽和させるので、ページアウト数もまた爆発する。ページキャッシュがなくなるため、read時にキャッシュミスし、read I/Oが増加する現象。 posxix_fadvise(2)のPOSIX_FADV_RANDOMにより、write時のページインの先読みを切ることができる。これにより、ページイン数を減らすことができる。 posxix_fadvise(2)のパッチをあてた前後で、/proc/meminfoのActive(file)とInactive(file)に変化があった。バッチ前は、Inactiveが多く、パッチ後はActiveが増えた。ActiveとInactiveの定義は以下の通り。

Active: Memory that has been used more recently and usually not reclaimed unless absolutely necessary. Inactive: Memory which has been less recently used. It is more eligible to be reclaimed for other purposes

https://www.kernel.org/doc/Documentation/filesystems/proc.txt

詳解 システム・パフォーマンス

詳解 システム・パフォーマンス

書籍「Mackerel サーバ監視[実践]入門」執筆成功

執筆成功と言いつつ、自分は元となった連載記事をいくつか書いただけで、書籍化にあたってはプロフィールを書く以外のことは何もしていません。気づいたら、書籍を初執筆していたことになりました。

書籍「Mackerel サーバ監視[実践]入門」を執筆しました | おそらくはそれさえも平凡な日々

僕のおすすめは、9章 付録です。Mackerelのアーキテクチャから、ペパボさんとガイアックスさんの事例といった、内部システムの話とお客様のおもしろい応用事例が載っています。よくみると、はてなのインフラ環境―自作サーバから自作コンテナまでという節で、drootが紹介されていたりします。

書籍にできるレベルまでまとめることで、社内のエンジニアがMackerelのキャッチアップをするのにも非常に良質な資料となっています。

自分が書いた連載記事

Go言語をほぼ毎日書いている話 (序)

はてなの京都オフィスで開催された そうだ Go、京都。 - connpass にて、「Go言語をほぼ毎日書いている話(序)」というふわっとした話をしました。いわゆる Write Code Every Dayという活動ですね。 タイトルに(序)と付けているのは、書き始めてまだ5ヶ月程度だからです。

ちなみにこのGWでは、Rustを毎日書いていて、すでにタイトル詐欺感がありますね。

スライド

スライドを以下に貼っておきます。

speakerdeck.com

同僚の id:niwatako さんの超速記により、ツイートはるだけで内容紹介できて贅沢。

質問

発表後、以下のような質問をいただいた。

感想

  • 同僚の id:t_kyt くんと id:aereal さんと発表したのだけど、示し合わせもせず、それぞれ微妙にリンクした話をしていて、仲間じゃん感があった。
  • plan9userさんのFUSEの話がおもしろかった。FUSEの仕組みを初めて知った。plan9そのもののアーキテクチャとして興味がある。
  • 京都というか地方の勉強会は、出席率も高く、1つ1つの勉強会を大事にしている感がよい。LT登壇も多く、質問もいろいろでて、ツイートも活発なよい勉強会だった。

mkr + peco + tmux + ssh

Mackerel Meetup #10 Tokyo のLT枠で「mkr + peco + tmux + ssh」というタイトルで話をしました。当日の発表スライドを以下に貼っておきます。

speakerdeck.com

話の内容は、tmux + ssh + Mackerel API を組み合わせたとにかくモダンなサーバオペレーション - ゆううきブログ の続きになります。このエントリにあるように普段から

$ tssh $(roles bookmark proxy) # サービス名: bookmark, ロール名: proxy

のようなコマンドを叩いて、指定したロール配下のホストに、tmuxのpaneを使って同時にsshログインしています。

しかし、ロールの数が増えてくると、そもそもロールの名前を正確に覚えていないということがしょっちゅう起きます。 そこで、peco*1 を挟んでやることで、ロール名の候補に対して絞り込みをかけて、ロールを決定したのちに上記コマンドを実行するということができます。

bindkey '^w' peco-mkr-roles
function peco-mkr-roles() {
  local selected_role=$(mkr services | jq -rM '[.[] | .name as $name | .roles // [] | map("\($name) \(.)")] | flatten | .[]' | peco)
  if [ -n "${selected_role}" ]; then
     local BUFFER="tssh \`roles "${selected_role}"\`"
     // zle accept-line // 好みでコメントアウトを外す
  fi
  zle clear-screen
}
zle -N peco-mkr-roles

このようにMackerelを用いて、単に監視をするだけでなく、APIを介してさまざまなツールを組み合わせ、プログラマブルにインフラストラクチャを制御することができます。

参考リンク

追記

github.com

マージされたので、mkrを更新すると上記のfunctionが動きます。

*1:pecoは雑な表現をすると、インクリメンタルにgrepできるツールです。

詳解システム・パフォーマンス 3章「オペレーティングシステム」輪読メモ

詳解システム・パフォーマンス 第2章「メソドロジ」メモ - ゆううきメモ の続き。今回は第3章「オペレーティングシステム

システムパフォーマンス分析では、オペレーティングシステムとそのカーネルについての理解は必要不可欠だ。システムコールがどのように実行されるか、CPU がどのようにスレッドをスケ ジューリングするか、限られたメモリがパフォーマンスにどのような影響を及ぼすか、ファイルシステムは I/O をどのように処理するかなどのシステムのふるまいについて、あなたは頻繁に仮説を立て、それをテストすることになる。これらのふるまいを理解するためには、オペレーティングシステムとカーネルの知識を使わなければならない。

Brendan Gregg,西脇靖紘,長尾高弘「詳解システム・パフォーマンス」, オライリージャパン p.85

議論

章の内容をベースに議論したことは以下の9点である。議論した内容なので、事実でない可能性があることに注意。

  • カーネル空間とユーザー空間の違い
  • プロセスとスレッドの違い
  • selectとepollの違い
  • システムライブラリとはなにか
  • mallocは何をやっているのか
  • forkのCoWはなにをやっているのか
  • forkとcloneの違い
  • goroutineはスレッドか
  • キャッシング層が多すぎる

カーネル空間とユーザー空間の違い

カーネル空間といっても、プロセスとは独立したまとまった空間があるわけではおそらくない。 (図3-8プロセス環境を見ながら) 1つのプロセスの中にカーネル空間とユーザーアドレス空間がある。 カーネル空間では、メタデータとして、PIDなどをもつ。カーネルのコードでは、task_struct構造体として表現される。 (http://lxr.free-electrons.com/source/include/linux/sched.h#L1511) 他には、ファイルディスクリプタカーネル空間に確保される。ユーザー空間にはディスクリプタIDのみを確保する。 ユーザー空間は、実行ファイル、(共有)ライブラリ、ヒープ、スレッドのスタックなどをもつ。 softirqdみたいなカーネルスレッドだと、カーネル空間しかなさそう。

select/pollとepollの違い

select/poll はカーネル空間上のファイルディスクリプタをループで舐めるのでO(n)となり、監視するディスクリプタ数が多いと遅い。 一方で、epollはカーネル側でディスクリプタの状態をもつので、状態変化したものだけユーザー空間に返すことができる (エッジトリガ通知)。

詳細は、「Linuxプログラミングインタフェース」 63章 高度なI/Oモデル を参照。

システムライブラリとはなにか

glibcとか。glibcには例えば、mallocとかがある。mallocシステムコールではなく、ライブラリ関数。

MySQLで、jemallocを使うとスレッド数に対するスケーラビリティが向上する例がある。最近、社内でハマった。 MySQL performance: Impact of memory allocators (Part 2)

プロセスとスレッドの違い

カーネルはタスク (プロセス or スレッド or カーネルスレッド) という単位で、実行スケジューリングする。つまり、プロセスとスレッドは同等に扱われる。 では、プロセスとスレッドはカーネルコンテキストにおいてなにが異なるのか。 前述のように、タスクはtask_struct構造体で表現される。スレッドの場合は、あるスレッドを表現するtask_struct構造体の一部のメンバー変数が、スレッドの生成元であるプロセスと同じポインタを指しているだけではないか。この共有される一部のメンバー変数には、ヒープ領域などが含まれるはず?

mallocは何をやっているのか

ヒープメモリから要求するサイズの空き領域を探索して返す。(このときはシステムコールを実行しない?) 要求するサイズの空き領域がなければ、brk()により、ヒープメモリサイズを拡張する。

ヒープメモリの最初のアロケートはいつ行われる?forkされたときに親プロセスからコピーされるはず。原祖であるinitプロセスではどうしてるのか。

forkのCoW (Copy On Write) は何をやっているのか

fork直後に、新規の仮想メモリアドレス領域を子プロセスの領域として確保される。 しかし、子プロセスの仮想メモリアドレスのマッピング先は、親プロセスの物理メモリアドレスである。 というのがCoWの仕組みのはず?

ちなみに、vforkは、仮想メモリやページテーブルのコピーすら作らない。

forkとcloneの違い

forkは子プロセスを生成し、cloneはスレッドを生成するために使われる。cloneは関数を渡すインタフェース。cloneはスタックを別途割り当てる。cloneはflagsにより、親子で共有する属性を指定できる。 スレッドと一口に言っても、共有している属性が場合によって異なることがありそう。

  • CLONE_FILES: 親子プロセス間でファイルディスクリプタテーブルを共有する
  • CLONE_FS: 親子プロセス間でファイルシステム関連の属性を共有する
  • CLONE_IO: 親子プロセス間で I/O コンテキストを共有する
  • CLONE_VM: 親子プロセス間で仮想メモリを共有する

Linuxプログラミングインタフェース」 28章 プロセスの作成とプログラムの実行:詳細 より。

goroutine はスレッドか

goroutineはスレッド(ここではカーネルのtask_structで表現されるスレッド)と1対1対応するわけではない。「タスク」ではない。言語処理系側の実行コンテキスト(グリーンスレッド)である。ただし、M個のスレッド上で、N個のgoroutine (N > M) を動かすことはできる。このようなスレッドの多重化のために、言語処理系上でどのような実装が必要なのかはあまりわかっていない。

キャッシング層が多すぎる

  1. アプリケーションキャッシュ (アプリケーションプロセス上のメモリにキャッシュ?)
  2. Webサーバキャッシュ (nginxのキャッシュなど)
  3. キャッシングサーバー (memcachedなど)
  4. データベースキャッシュ (MySQLのバッファキャッシュなど)
  5. ディレクトリキャッシュ
  6. ファイルメタデータキャッシュ
  7. OSのバッファキャッシュ
  8. ブロックキャッシュ
  9. ディスクコントローラーキャッシュ
  10. ストレージアレイキャッシュ’
  11. オンディスクキャッシュ

とにかくディスクI/Oの遅さをなんとかするために、キャッシュをはさみまくっていることがわかる。

この章でのいくつかの疑問もしくは疑問に対する仮説は後の章で解説されるか、Linuxプログラミングインタフェース読めばわかりそう。 その場にいるオペレーションエンジニアと、我々は言語処理系の実装がわからないという会話をした。処理系もシステム系領域なので、やっていく必要がある。

詳解 システム・パフォーマンス

詳解 システム・パフォーマンス