Slide 1

Slide 1 text

AthenaとFluentdと色々でログ集 約をしてみたお話し

Slide 2

Slide 2 text

Name:ユータ Occupation:SRE Twitter:@Y0u281 (オーでなくゼロです) ブログ:https://zenn.dev/yuta28   → 普段触るもの:AWS Ansible Linux Mint 自己紹介 Twitter

Slide 3

Slide 3 text

目次 ● 背景 ● やったこと ● 構築完成予想図 ● 運用開始後のフィードバック ● まとめ

Slide 4

Slide 4 text

背景

Slide 5

Slide 5 text

やったこと ● 各種EC2にFluentdを導入し、ログをS3に転送する ● S3に格納されたログをGlueを使ってテーブル定義づけする ● Athenaでクエリを発行して、複数ログを検索して一覧化できるようにする ● CloudWatch LogsのログはKinesisを用いてS3へ転送

Slide 6

Slide 6 text

構築完成予想図 ● 対象ログ ○ Apacheログ ○ Railsログ ○ Postfixログ ○ SlowQueryログ ○ (CloudTrailログ)

Slide 7

Slide 7 text

運用開始後のフィードバック ● ApacheログとRailsの日付ログフォーマットが異なっており、同一時間帯で比較 ができない ● Fluentdはログデータを加工された状態で転送するので生データのログも参照で きるようにしたい ● SlowQueryログのクエリタイムでソートできるようにしてほしい

Slide 8

Slide 8 text

日付ログフォーマット異なる問題 Apacheログの日付フォーマット→ Railsログの日付フォーマット→ 08/Dec/2020:19:13:01 +0900 2020-12-08T23:41:30.980713

Slide 9

Slide 9 text

日付ログフォーマット異なる問題 解決方法① UNIXTIMEを新規にカラムに追加 time_key fluentd_time time_type unixtime 2020/12/9 00:29:52なら 1607441392秒となる

Slide 10

Slide 10 text

ログの生データも検索できるようにしたい time: 1362020400 (28/Feb/2013:12:00:00 +0900) record: { "user" : nil, "method" : "GET", "code" : 200, "size" : 777, "host" : "192.168.0.1", "path" : "/", "referer": nil, "agent" : "Opera/12.0" } @type apache2 ApacheのログはFluentdのプラグインで 綺麗にパースできる。 ログの中身が加工されるが、場合によっては 生データが欲しい場合がある。 https://docs.fluentd.org/config uration/parse-section

Slide 11

Slide 11 text

ログの生データも検索できるようにしたい 解決方法② raw_data(生データ)というレコードを末尾に追記した。 @type record_transformer raw_data ${record["host"]} ${record["user"]} ${record["time"]} ${record["method"]} ${record["path"]} ${record["code"]} ${record["size"]} ${record["referer"]} ${record["agent"]}

Slide 12

Slide 12 text

ログの生データも検索できるようにしたい time: 1362020400 (28/Feb/2013:12:00:00 +0900) record: { "user" : nil, "method" : "GET", "code" : 200, "size" : 777, "host" : "192.168.0.1", "path" : "/", "referer": nil, "agent" : "Opera/12.0" “raw_data” : 192.168.0.1 nil 28/Feb/2013:12:00:00 +0900 GET / 777 nil Opera/12.0 } raw_dataに全て のレコード情報が 書き込まれた

Slide 13

Slide 13 text

クエリタイムでソートできるようにしたい select query_time,messege from slowquery; みたいにしたい

Slide 14

Slide 14 text

クエリタイムでソートできるようにしたい 解決方法③ いい手が思いつかず… CWLにSlowQueryログが来たら→の Lambdaを実行してKinesisでS3に転送 import base64 import gzip import io import json def lambda_handler(event, context): records = [process_record(r) for r in event['records']] return {'records': records } def process_record(record): record_id = record['recordId'] data = base64.b64decode(record['data']) iodata = io.BytesIO(data) with gzip.GzipFile(fileobj=iodata, mode='r') as f: data = json.loads(f.read()) processed_data = process_data(data) + '\n' return { 'data': base64.b64encode(processed_data.encode('utf-8')).decode('utf-8'), 'result': 'Ok', 'recordId': record_id } def process_data(data): return '\n'.join([format_log_event(json) for json in data['logEvents']]) def format_log_event(j): return json.dumps({'timestamp': j['timestamp'], 'message': j['message']})

Slide 15

Slide 15 text

クエリタイムでソートできるようにしたい 暫定的な対応策としてawslogsを使用(https://github.com/jorgebastida/awslogs) $ awslogs get --start='MM/DD/YYYY' --end=’MM/DD/YYYY’ <リージョン> # Time: 180606 15:00:02 # User@Host: rdsadmin[rdsadmin] @ localhost [] Id: 18 # Query_time: 0.507831 Lock_time: 0.000000 Rows_sent: 0 Rows_examined: 0 SET timestamp=1528297202; FLUSH SLOW LOGS ; 踏み台サーバにインストールして ターミナル上からSlowQueryログの 中身を表示 とは言えAthenaで他のログと 一緒に検索できないのは悔しい

Slide 16

Slide 16 text

まとめ ・ログを集約することで検索性UP ・SlowQueryログどうしよう

Slide 17

Slide 17 text

ありがとうございました より詳しい内容は私のブログで⇓ FluentdとAWS Athenaでログ集約 してみた https://zenn.dev/yuta28/articles/a e8b1379aa873c