本篇文章为大家展示了如何进行ELK的原理及工作是怎么样的,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
让客户满意是我们工作的目标,不断超越客户的期望值来自于我们对这个行业的热爱。我们立志把好的技术通过有效、简单的方式提供给客户,将通过不懈努力成为客户在信息化领域值得信任、有价值的长期合作伙伴,公司提供的服务项目有:申请域名、虚拟主机、营销软件、网站建设、海丰网站维护、网站推广。
EKL
核心组成
1.Elastic Search 开源分布式搜索引擎,他的特点是分布式、零配置、自动发现、索引自动分片,索引副本机制,restful接口,多数据源,自动搜索负载。
安装Elastic Search 高可用,易扩展,支持集群(cluster),分片和复制(sharding和replicas)
验证启动:curl -X GET http://localhost:9200
2.Logstash 完全开源的工具,可以用来对日志进行收集,分析,并将期存储供以后使用。
安装Logstash 实时渠道能力的数据收集引擎。由三部分组成
1.shipper-发送日志数据
2.broker-收集数据,缺省内置redis
3.indexer-数据写入
启动验证: ./logstash -e 'input{stdin{}}output{stdout{codec=>rubydebug}}'
3.Kibala 可以为ES和Logstash提供的日志分析友好的界面,汇总,分析和搜索重要的日志。 可以在Elasticsearch 的索引中查找,交互数据,并生成各种维度的表图
vi kibana.yml 添加下面配置
elasticsearch_url:
"http://192.168.1.104:9200"
浏览器访问kinaba http://39.106.48.25:5601/
在kibana中查找执行超过400ms的记录
"READ_COMMITTED" AND message:/[4-9]{1}[0-9][0-9]ms/
四大组件
1.Logstatsh: logstash server 端用来收集日志。
2.Elastic Search:存储各类日志。
3.Kibala: web化查询和可视化接口.
4.Logstash forwarder: logstash client端用来通过lumberjack 网络协议发送日志到logstash server.
ELK工作流程
在需要收集日志的服务器上部署logstash,作为logstash agent(shipper) 用于监控并过滤收集日志,将过滤后的内容发送到Broker(缺省Redis),然后logstash indexer 将日志收集到一起交给全文搜索引擎Elastic Search,可以用Elastic Search进行自定义搜索通过Kibana来结合自定义搜索进行页面展示。
上述内容就是如何进行ELK的原理及工作是怎么样的,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。
当前文章:如何进行ELK的原理及工作是怎么样的
浏览地址:https://www.cdcxhl.com/article48/pceshp.html
成都网站建设公司_创新互联,为您提供Google、网站设计公司、商城网站、企业建站、网站制作、静态网站
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联