前提・実現したいこと
- 実現したいこと
ログデータを取り込み、Hourlyで分析をおこなうこと
- Version
Filebeat 6.5.4
elasticsearch 6.5.4
kibana 6.5.4
logstash 6.5.4
発生している問題
- データ投入時刻
2019-01-16T013:56
- 投入データ
251400T,18/01/23 15:00,5110002647,PPD00267694,(v32.0),18/01/23 12:00
- Elastic Search データ
"hits":[ {"_index":"log","_type":"doc", {中略} {"@timestamp":"2019-01-16T04:56:34.403Z", "tags":["beats_input_codec_plain_applied","_dateparsefailure"],"Feature":"251400T", "message":"251400T,18/01/23 18:00,5110002647,PPD00267694,(v32.0),18/01/23 12:00","login_id":"5110002647", "prospector":{"type":"log"},"PC_Name":"PPD00267694", "input":{"type":"log"},"beat": {中略} "start_date":"18/01/23 12:00","offset":144,"login_date":"18/01/23 18:00" ...}},
- 問題
Timestampが9時間ずれている
試したこと
- Filebeat のpipeline.jsonに、Timestampの設定を付与
→"timezone": "Asia/Tokyo"にしても、"timezone": "UTC"にしても、結果は変わらず。
- Kibanaの詳細設定を変更
→"timezone": "Default"にすると、Timestampは合うが、ログデータが+9時間になってしまい、"timezone": "UTC"にするとログデータは合うが、Timestampが‐9時間になる
‐ LogstashのFilterにTimezoneの設定を追加
→ timezone => "Asia/Tokyo"にしても、 timezone => "UTC"にしても、結果は変わらず。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。