elk 日志管理_具有ELK的APIGEE API网关日志管理(弹性搜索,Logstash和Kibana)
生活随笔
收集整理的這篇文章主要介紹了
elk 日志管理_具有ELK的APIGEE API网关日志管理(弹性搜索,Logstash和Kibana)
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
elk 日志管理
在本文中,我們將看到如何使用 Elastic Search , Logstash 和 Kibana 管理APIGEE API網關生成的日志 。 下圖突出顯示了日志數據如何流經ELK堆棧以進行數據可視化和監視。
作為API網關的一部分,我們將使用MessageLogging策略在代理流,目標流和根據需要發布客戶端流的情況下捕獲API代理日志。 從今天開始,MessageLogging策略支持syslog和基于文件的日志記錄(僅適用于本地安裝)。 以下是MessageLogging策略配置,用于將日志發送到syslog服務器。
<?xml version="1.0" encoding="UTF-8" standalone="yes"?> <MessageLogging async="false" continueOnError="false" enabled="true" name="TestEnv-Message-Logging"><DisplayName>TestEnv Message Logging</DisplayName><Syslog><Message>{messageId}|{apiproxy.name}|{response.status.code}|{target.received.start.timestamp}|{target.received.end.timestamp}|{environment.name}|{client.received.start.timestamp}|{client.sent.end.timestamp}</Message><Host>127.0.0.1</Host><Port>514</Port></Syslog> </MessageLogging>現在,我們將看到logstash配置,以將數據從syslog提取到logstash。 這里我沒有給出設置ELK的步驟,因為那超出了范圍。
input {file {path => "/Users/sjana/Documents/POC/ELK/APIGEE_LOG.log"start_position => "beginning"sincedb_path => "/dev/null"} } filter {csv {separator => "|"columns => ["MessageId","API_PROXY_NAME","RESPONSE_STATUS_CODE","TARGET_RECEIVED_START_TIME","TARGET_RECEIVED_END_TIME","ENVIRONMENT_NAME","CLIENT_RECEIVED_START_TIME","CLEINT_SENT_END_TIME"]remove_field => "message"} } output {elasticsearch {hosts => "http://localhost:9200"index => "apiproxies-log"}stdout {} }將syslog數據成功攝取到Logstash后,我們可以根據索引中的可用字段配置可視化。 以下是為API代理響應狀態代碼創建的示例可視化。
在接下來的文章中,我們將討論另一個主題。 直到那時, 傳播 對API的熱愛!!!
翻譯自: https://www.javacodegeeks.com/2019/01/apigee-gateway-logstash-kibana.html
elk 日志管理
總結
以上是生活随笔為你收集整理的elk 日志管理_具有ELK的APIGEE API网关日志管理(弹性搜索,Logstash和Kibana)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Meta Quest 3 头显发布:处理
- 下一篇: 域名被墙怎么解决(域名被墙如何解决)