Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
OpenTelemetry の Trace を中心としたパフォーマンス改善
Search
rmatsuoka
November 15, 2023
Programming
0
2k
OpenTelemetry の Trace を中心としたパフォーマンス改善
rmatsuoka
November 15, 2023
Tweet
Share
More Decks by rmatsuoka
See All by rmatsuoka
Exponential Histogram?
rmatsuoka
0
270
Other Decks in Programming
See All in Programming
責務と認知負荷を整える! 抽象レベルを意識した関心の分離
yahiru
9
1.6k
Rubyと自由とAIと
yotii23
6
1.9k
Modern Angular with Signals and Signal StoreNew Rules for Your Architecture @bastacon 2025 in Frankfurt
manfredsteyer
PRO
0
140
CDK開発におけるコーディング規約の運用
yamanashi_ren01
2
260
CloudRun, Spanner に対する負荷試験の反省と オブザーバビリティによるアプローチ
oyasumipants
1
200
AIレビュー導入によるCIツールとの共存と最適化
kamo26sima
1
1.2k
楽しく向き合う例外対応
okutsu
0
760
The Price of Micro Frontends… and Your Alternatives @bastacon 2025 in Frankfurt
manfredsteyer
PRO
0
290
自力でTTSモデルを作った話
zgock999
0
130
1年目の私に伝えたい!テストコードを怖がらなくなるためのヒント/Tips for not being afraid of test code
push_gawa
1
670
たのしいSocketのしくみ / Socket Under a Microscope
coe401_
8
1.5k
推しメソッドsource_locationのしくみを探る - はじめてRubyのコードを読んでみた
nobu09
2
370
Featured
See All Featured
RailsConf & Balkan Ruby 2019: The Past, Present, and Future of Rails at GitHub
eileencodes
134
33k
YesSQL, Process and Tooling at Scale
rocio
172
14k
Faster Mobile Websites
deanohume
306
31k
Distributed Sagas: A Protocol for Coordinating Microservices
caitiem20
330
21k
How To Stay Up To Date on Web Technology
chriscoyier
790
250k
It's Worth the Effort
3n
184
28k
Keith and Marios Guide to Fast Websites
keithpitt
411
22k
The Art of Programming - Codeland 2020
erikaheidi
53
13k
A designer walks into a library…
pauljervisheath
205
24k
How to Create Impact in a Changing Tech Landscape [PerfNow 2023]
tammyeverts
49
2.3k
Measuring & Analyzing Core Web Vitals
bluesmoon
6
270
Side Projects
sachag
452
42k
Transcript
OpenTelemetry の Trace を中心 とした パフォーマンス改善 id:rmatsuoka Hatena Engineer Seminar
#27 2023-11-16
自己紹介 • id:rmatsuoka • 2023年新卒 • Mackerel チーム • アプリケーションエンジニア
• 母語は Go
Mackerel
Mackerel の特徴
Mackerel は OpenTelemetry の Metric に対応します
OpenTelemetry とは? • テレメトリー (メトリック、 トレース、ログなど) の標準 仕様を定めている • 仕様に基づいた計装ライブラ
リの開発 ◦ Go, Java, PHP, … • OpenTelemetry Collector の開発
テレメトリーを計装するア プリケーションやミドル ウェア • 計装ライブラリをアプ リケーションに埋め込 む • 一部のミドルウェアは OpenTelemetry
Collector をつかって テレメトリーを計装で きる https://opentelemetry.io/docs/ OpenTelemetry の領域
OpenTelemetry Collector • テレメトリーの受信、処理、送信を行うエージェント
テレメトリーを受信し て保存、表示するモニ タリングサービス • Prometheus (metric) • Jaeger (tracer) •
AWS X-Ray (trace) • Mackerel (metric) など
Mackerel の Otel 対応 • OpenTelemetry が策定した Telemetry 送受信プロトコル OTLP
によってメトリックを 受信 • PromQL によってメトリッ クをクエリしてグラフに描画 画面は開発中のものです
PromQL • Prometheus に実装されているメトリックをクエリする 言語(式) • たとえば ◦ http_request_total{job=”prometheus”} ▪
jobをキー, ”prometheus” を値に持つ属性を持った http_request_total のメトリックをすべて取得する ◦ filesystem_usage / filesystem_capacity ▪ ファイルシステムの使用率を計算する • Mackerel では今回 PromQL エンジンを独自に実装して 提供します
新卒初の仕事として… OpenTelemetry 対応へ向けてコンポーネントの開発・改善 をしています • OpenTelemetry のメトリックを受信して DB へ保存 (writer)
• リクエストの PromQL を評価してメトリックを取り出す (reader)
開発しているのはこのコンポーネント RDB Time Series DB Otel metric Reader (ECS) Otel
metric Writer (ECS) Otel Collector Web Browser Mackerel あなたの server あなた メトリックのメタデータを保存 メトリックの時系列データを保存 OTLP によってメト リックを受信 PromQL を評価 してメトリック を DB から取得
今回のお話する仕事 • もともとこのコンポーネントは PoC であった ◦ 実装の方針が正しいか調べるため ◦ あまりパフォーマンスを意識した実装にはなっていなかった •
実際のサーバーからメトリックを送信してブラウザから 見ようとすると重くて使い物にならない ◦ 一つのダッシュボードを開くだけで Reader コンポーネントの CPU 使用率が 100 % になった • 「コンポーネントのパフォーマンスを改善しよう!」
パフォーマンス改善で大切なこと • 計測 ◦ ボトルネックを改善しなければ意味がない! ◦ 推測するな、計測せよ • どうやってボトルネックを見つける? ◦
ツールは色々ある
Trace を中心に計測してみた! • Trace をする。さらにTrace で見つかったボトルネックを 他のツールを使うことによって掘り下げていくトップダ ウンの方法で計測 • コンポーネント
Writer / Reader どちらも Trace を使っ てパフォーマンス改善したが、今回の話は Reader に焦 点をあてる • 「Trace を入れよう」とは id:lufiabb が言った ◦ 曰く「タスクとしては Trace を入れて終わるつもりだったけど、 rmatsuoka がパフォーマンス改善を進められそうだから任せた」
分散トレース • ひとつのリクエストが処理される過程を追跡する方法 • マイクロサービスやミドルウェアに「分散」している処 理を横断して追跡する ◦ 今回の話では、横断はできておらず一つのコンポーネントだけ見 ています
分散トレース トレースは「スパン」の木構 造で表すことができる。 Span B は Span A を親に持 ち
Span C と Span D を子に 持つ Span A (例: http Handler など) Span B (use case) Span C (database access) Span D
Go で trace を計装するのは 3 ステップ! 1. Tracer の initialize
を追加 2. http.Handler を otelhttp でラップ 3. 計測したい関数に trace start/end の2行追加
1. Tracer の initialize を追加 // main 関数あたりに trace の送り先を指定する
traceExporter, err := otlptracegrpc.New(ctx, ...) ... -- nicepkg/tracer.go -- // pkg ごとに tracer を初期する var tracer = otel.Tracer("example.com/proj/nicepkg")
2. http.Handler を otelhttp でラップ // リクエスト処理全体のスパンを生成してくれる。 // metric reader
コンポーネントは net/http と互換性のある // github.com/go-chi/chi によって書かれている - handler := newNiceHandler() + handler := otelhttp.NewHandler(newNiceHandler(), “servername”, ...)
1. 3. 計測したい関数に2行追加 // スパンを生成する func NiceFunction(ctx context.Context) { +
ctx, span := tracer.Start(ctx, "SpanName") + defer span.End() + // function body }
モニタリングサービスへ送信 • 今回、トレーシングデータは AWS X-Ray へ送信した。 ◦ AWS Open Distro
for OpenTelemetry https://aws-otel.github.io/ • ECS にあるコンポーネントのサイドカーにAWS が提供し ている ADOT Collector (AWS Distro の OpenTelemetry Collector) を立てた。
こんな結果が得られる! スパン 緑の線: 実行時間
結果を観察してみよう 同じ関数がループで呼 ばれている
N + 1 問題 • データベースへの問い合わせに発生する問題 • 取り出すメトリック一覧を取得する RDB へのアクセス
を1回 • それぞれのメトリックの時系列データを Time Series DB から取り出すことをループで N 回実行 • まとめて取得をするように変更して N+1 問題は解決
一度に取得できる数に上限を入れる • PoC では 検索結果の数の上限がなかった。 • 数百, 千件ものメトリックを一気に取り出そうとして CPU を食い潰していた。
N+1 問題は解決したが… db.Query がなぜか遅かったりする
DB への特定のリクエストが遅いことを 発見 • 特定の条件のリクエストだけが遅い • 大抵のリクエストはそんなに遅くない • テーブルはふたつある ◦
メトリック (Mackerel のオーガニゼーションの ID や メトリック のタイプなど) ◦ メトリックのメタデータ (メトリックの属性のテーブル、メト リックに従属している)
DB へのインデックスを追加 • DB の実行計画を`EXPLAIN ANALYZE` コマンドで見る • メタデータテーブルの index
の貼り方がマズかったこと がわかった • 高速化のためメタデータテーブルを非正規化してオーガ ニゼーションID のカラムを追加した + ALTER TABLE <メタデータテーブル> ADD COLUMN "org_id" BIGINT; + CREATE INDEX <index_name> on <メタデータテーブル> ("org_id", ...);
PromQL への評価が遅い
クエリによっては PromQL の評価が遅い • Trace では PromQL を評価する関数が遅いことしかわか らない •
Go の プロファイラー pprof を使って調査
(time.Time).Equal が遅い? • 時間を表す構造体 time.Time が等しいかを調 べる関数 • CPU の使用時間を多く占め
ている • この関数単体では遅くない はず
(time.Time).Equal を沢山呼んでいた • スライスの中から特定の時間をもつ構造体を探すとき に、ループで探していたことがわかった。 • Equal メソッドを何度も呼んでいる。 - for
_, dataPoint := range metric.DataPoint { - if dataPoint.Time.Equal(at) { - ...
二分探索をする • 構造体は時間でソートされていたので二分探索をするよ うにコードを変更 + idx := sort.Search(len(metric.DataPoints), func (i
int) bool { + return metric.DataPoints[i].Time.Compare(at) >= 0 + })
メモリの確保が激しい • メモリを確保/解放する関 数mallocgc, や madvise なども CPU 使用時間を 多く占めていた
• メモリのプロファイラも 調査した
メモリの確保を回避する 入力のバリデーションのたびに毎回正規表現をコンパイルし ていた - regexp.Match("[\x00-\x08\x0B\x0C\x0E-\x1F\x7F]", input)
改善策 • 正規表現を一度だけコンパイルする ◦ 一般的な選択肢 • 正規表現を使わない ◦ 今回はこっち。制御文字がないか調べるだけなので正規表現を使 わずに済ました
+ strings.ContainsAny(input, invalidChars)
こうした改善のおかげで * 改善前の遅いリクエストと全く同じものではないので参考程度に
トレースを計装するときのヒント 1 トレースを自動計装してくれるミドルウェ アを使う • github.com/uptrace/opentelemetry -go-extra/otelsql ◦ DB へのクエリを保存してくれる
トレースを計装するときのヒント 2 // フィールドを追加する // トレースにリクエストの情報を追加して、トレースの詳細に見る時に // 参考にすることができる。 // この例ではリクエストされた
PromQL をフィールドに追加している。 ctx, span := tracer.Start(ctx, "eval", trace.WithAttributes( attribute.String("query", query), attribute.Int64("start", start.Unix()), attribute.Int64("end", end.Unix()), ))
まとめ • アプリケーションにトレーシングを導入するのは3ステッ プでできる • タイムラインの図によってボトルネックが発見しやすい • Trace の結果から DB
の実行計画や pprof などの細かい 情報を見にいくトップダウンに改善ができた
OpenTelemetry の Mackerel の beta 参加者募集! • Mackerel「ラベル付きメトリック機能」ベータ版テスト お申し込みフォーム からお申し込みください
◦ ブログ記事 [ なぜ Mackerel は OpenTelemetry のラベル付きメトリックをサポートす るのか - Mackerel お知らせ #mackerelio https://mackerel.io/ja/blog/entry/why-does-mackerel-support-open-telemet ry-labeled-metrics ] からフォームに飛べます