文章出處
文章列表
前幾天我寫了幾篇關于ELK日志收集,存儲和分析的文章:
ELK系列~NLog.Targets.Fluentd到達如何通過tcp發到fluentd
ELK系列~Nxlog日志收集加轉發(解決log4日志換行導致json轉換失敗問題)
ELK系列~log4-nxlog-Fluentd-elasticsearch寫json數據需要注意的幾點
今天主要說一個日志收集里的多輸入端(收集多個網站的日志)的實現方法。
對于日志的收集與轉發來說,nxlog可以說很不錯,異步將本地日志上傳到對象的服務端,而且支持的服務端也很多,在nxlog里這些服務端都叫“輸出端”,在nxlog.conf里使用output表示,而我們的日志是輸入端,用input表示,下面來講一下如何實現多輸入端的方法。
其實很簡單,只要在nxlog.conf里配置一下就可以了,具體代碼如下
<Input in1> Module im_file File "c:\dotnet\20*.log"
</Input>
<Input in2>
Module im_file
File "c:\dotnet\20*.log"
</Input>
<Output out>
Module om_tcp
Host 192.168.200.214
Port 24224
Exec $raw_event =$raw_event + "\n";
</Output>
<Route 1>
Path in1,in2 => out
</Route>
上面的route節點,將in1和in2兩個輸入端指向了一個out輸出端,咱們的輸出端實現fluentd來實現的!
感謝各位閱讀!
晚安!
文章列表
全站熱搜