ELK数据分析
2020/11/05
posted in
服务端
2020/11/05
posted in
服务端
ELK(elasticsearch、logstash、kibana),使用这个套件分析数据
logstash占用比较大,实际只用了filebeat作为分析使用。
自己可以根据docker来搭建,当然也可以直接使用腾讯云的elasticsearch service服务。
在客户端装上filebeat
curl -L -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.5.1-x86_64.rpm
sudo rpm -vi filebeat-7.5.1-x86_64.rpm
编辑/etc/filebeat/filebeat.yml内容
filebeat.config.modules:
path: ${path.config}/modules.d/*.yml
reload.enabled: true
reload.period: 10s
setup.kibana:
host: "xxxx.kibana.tencentelasticsearch.com:5601"
output.elasticsearch:
hosts: ["172.16.16.8:9200"]
protocol: "http"
username: "elastic"
password: "xxx"
这里使用nginx module,上报一下nginx
filebeat modules enable nginx
filebeat modules list # 查看启动之后的模块
# /etc/filebeat/modules.d/nginx.yml 填写相关nginx日志文件
filebeat setup
systemctl start filebeat
# 可使用filebeat -e 测试并打印一下
回到kibana查看dashboard与日志
使用云服务不用懂配置,直接就能使用了,相对监控来说,elk这块使用上更方便。