chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

企業(yè)如何用ELK技術(shù)棧實(shí)現(xiàn)數(shù)據(jù)流量爆炸式增長(zhǎng)

馬哥Linux運(yùn)維 ? 來(lái)源:馬哥Linux運(yùn)維 ? 2024-12-19 11:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ELK簡(jiǎn)介

什么是ELK

通俗來(lái)講,ELK 是由 Elasticsearch、Logstash、Kibana 三個(gè)開(kāi)源軟件的組成的一個(gè)組合體,ELK 是 elastic 公司研發(fā)的一套完整的日志收集、分析和展示的企業(yè)級(jí)解決方案,在這三個(gè)軟件當(dāng)中,每個(gè)軟件用于完成不同的功能,ELK 又稱為ELK stack,官方域名為 elastic.co,ELK stack 的主要優(yōu)點(diǎn)有如下幾個(gè):處理方式靈活:elasticsearch 是實(shí)時(shí)全文索引,具有強(qiáng)大的搜索功能配置相對(duì)簡(jiǎn)單:elasticsearch 的 API 全部使用 JSON 接口,logstash 使用模塊配置,kibana 的配置文件部分更簡(jiǎn)單。檢索性能高效:基于優(yōu)秀的設(shè)計(jì),雖然每次查詢都是實(shí)時(shí),但是也可以達(dá)到百億級(jí)數(shù)據(jù)的查詢秒級(jí)響應(yīng)。集群線性擴(kuò)展:elasticsearch 和 logstash 都可以靈活線性擴(kuò)展前端操作絢麗:kibana 的前端設(shè)計(jì)比較絢麗,而且操作簡(jiǎn)單

Elasticsearch

Elasticsearch是個(gè)開(kāi)源分布式搜索引擎,提供搜集、分析、存儲(chǔ)數(shù)據(jù)三大功能。它的特點(diǎn)有:分布式,零配置,自動(dòng)發(fā)現(xiàn),索引自動(dòng)分片,索引副本機(jī)制,restful風(fēng)格接口,多數(shù)據(jù)源,自動(dòng)搜索負(fù)載等。主要負(fù)責(zé)將日志索引并存儲(chǔ)起來(lái),方便業(yè)務(wù)方檢索查詢。

Elasticsearch 使用 Java 語(yǔ)言開(kāi)發(fā),是建立在全文搜索引擎 Apache Lucene 基礎(chǔ)之上的搜索引擎。

Elasticsearch 的特點(diǎn):

實(shí)時(shí)搜索、實(shí)時(shí)分析

分布式架構(gòu)、實(shí)時(shí)文件存儲(chǔ)

文檔導(dǎo)向,所有對(duì)象都是文檔

高可用,易擴(kuò)展,支持集群,分片與復(fù)制

接口友好,支持 json

Logstash

Logstash 主要是用來(lái)日志的搜集、分析、過(guò)濾日志的工具,支持大量的數(shù)據(jù)獲取方式。一般工作方式為c/s架構(gòu),client端安裝在需要收集日志的主機(jī)上,server端負(fù)責(zé)將收到的各節(jié)點(diǎn)日志進(jìn)行過(guò)濾、修改等操作在一并發(fā)往elasticsearch上去。是一個(gè)日志收集、過(guò)濾、轉(zhuǎn)發(fā)的中間件,主要負(fù)責(zé)將各條業(yè)務(wù)線的各類日志統(tǒng)一收集、過(guò)濾后,轉(zhuǎn)發(fā)給 Elasticsearch 進(jìn)行下一步處理。

Kibana

Kibana 也是一個(gè)開(kāi)源和免費(fèi)的工具,Kibana可以為 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以幫助匯總、分析和搜索重要數(shù)據(jù)日志。

ELK的工作原理

1.在所有需要收集日志的服務(wù)器上部署Logstash;或者先將日志進(jìn)行集中化管理在日志服務(wù)器上,在日志服務(wù)器上部署 Logstash。
2.Logstash 收集日志,將日志格式化并輸出到 Elasticsearch 群集中。
3.Elasticsearch 對(duì)格式化后的數(shù)據(jù)進(jìn)行索引和存儲(chǔ)。
4.Kibana 從 ES 群集中查詢數(shù)據(jù)生成圖表,并進(jìn)行前端數(shù)據(jù)的展示。

ELK安裝部署

0c6b1c62-bd24-11ef-8732-92fbcf53809c.png

前期準(zhǔn)備

所以設(shè)備
[root@localhost ~]# systemctl disable  --now   firewalld
[root@localhost ~]# setenforce 0
[root@localhost ~]# yum -y install java
[root@localhost ~]# hostnamectl set-hostname node1/node2/apache
#更改設(shè)備名稱

安裝部署 Elasticsearch 軟件

安裝 Elasticsearch 軟件

#在軟件官網(wǎng)下載所需的安裝包到/data
[root@localhost data]# ls
elasticsearch-6.7.2.rpm  elasticsearch-head-master.zip  node-v8.2.1.tar.gz  phantomjs-2.1.1-linux-x86_64.tar.bz2


#用rpm安裝Elasticsearch軟件
[root@localhost data]#rpm -ivh elasticsearch-6.7.2.rpm

[root@localhost data]# cd /etc/elasticsearch/
[root@localhost elasticsearch]# mkdir bak
[root@localhost elasticsearch]# cp -a *.yml  bak/
#備份要修改的文件,方便還原配置文件

修改配置文件

[root@node1 elasticsearch]# vim elasticsearch.yml
17 cluster.name: my-elk-cluster#修改集群名字

23 node.name: node1#設(shè)置節(jié)點(diǎn)名稱主從之間不能一致 
24 node.master: true#作為主節(jié)點(diǎn)
25 node.data: true#作為數(shù)據(jù)節(jié)點(diǎn)

45 bootstrap.memory_lock: true#內(nèi)存鎖開(kāi)啟  禁止使用  swap

59 network.host: 0.0.0.0#監(jiān)聽(tīng)地址
60 http.port: 9200#默認(rèn)使用端口
61 transport.tcp.port: 9300#內(nèi)部傳輸端口

73 discovery.zen.ping.unicast.hosts: ["192.168.10.10:9300", "192.168.10.20:9300"] #自動(dòng)集群發(fā)現(xiàn),加入主機(jī)名  使用單播 類似心跳線


#再次查看數(shù)據(jù)是否更改完成
[root@localhost elasticsearch]# grep -v "^#"  elasticsearch.yml 
cluster.name: my-elk-cluster
node.name: node1
node.master: true
node.data: true
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
bootstrap.memory_lock: true
network.host: 0.0.0.0 
http.port: 9200
transport.tcp.port: 9300
discovery.zen.ping.unicast.hosts: ["192.168.10.10:9300", "192.168.10.20:9300"]

修改系統(tǒng)配置

性能調(diào)優(yōu)參數(shù)

[root@localhost elasticsearch]# vim /etc/security/limits.conf
......
#在最后添加
*  soft    nofile          65536
*  hard    nofile          65536
*  soft    nproc           32000
*  hard    nproc           32000
*  soft    memlock         unlimited
*  hard    memlock         unlimited

修改systemd 服務(wù)管理器

/etc/systemd/system.conf 文件是用于配置 systemd 的,這是一種用于 Linux 操作系統(tǒng)的系統(tǒng)和服務(wù)管理器。通過(guò)這個(gè)文件,你可以自定義與系統(tǒng)操作、性能和行為相關(guān)的各種設(shè)置

DefaultTimeoutStartSec=:設(shè)置啟動(dòng)服務(wù)的默認(rèn)等待時(shí)間

DefaultTimeoutStopSec=:設(shè)置停止服務(wù)的默認(rèn)等待時(shí)間

DefaultRestartSec=:設(shè)置在重新啟動(dòng)服務(wù)之前的默認(rèn)休眠時(shí)間

DefaultLimitNOFILE=:設(shè)置打開(kāi)文件數(shù)量的默認(rèn)限制

DefaultLimitNPROC=:設(shè)置進(jìn)程數(shù)量的默認(rèn)限制

DefaultLimitCORE=:設(shè)置核心文件大小的默認(rèn)限制

DefaultEnvironment=:指定服務(wù)的默認(rèn)環(huán)境變量

實(shí)際修改

[root@localhost elasticsearch]# vim /etc/systemd/system.conf
DefaultLimitNOFILE=65536
DefaultLimitNPROC=32000
DefaultLimitMEMLOCK=infinity

修改內(nèi)核參數(shù)

[root@localhost elasticsearch]# vim /etc/sysctl.conf
#一個(gè)進(jìn)程可以擁有的最大內(nèi)存映射區(qū)域數(shù),參考數(shù)據(jù)(分配 2g/262144,4g/4194304,8g/8388608)
vm.max_map_count=262144

[root@localhost elasticsearch]# sysctl -p#讀取并應(yīng)用這些配置更改,無(wú)需重新啟動(dòng)系統(tǒng)效。
[root@localhost elasticsearch]# sysctl -a | grep vm.max_map_count

重啟服務(wù)器啟動(dòng)elasticsearch

[root@localhost elasticsearch]# reboot#重啟服務(wù)器
[root@localhost ~]# systemctl start elasticsearch.service#啟動(dòng)elasticsearch
[root@localhost ~]# systemctl enable elasticsearch.service#設(shè)置開(kāi)機(jī)啟動(dòng)
[root@localhost ~]# ss -natp | grep 9200#查看端口號(hào)

查看節(jié)點(diǎn)信息

瀏覽器訪問(wèn)  
http://192.168.10.10:9200  
http://192.168.10.20:9200 
查看節(jié)點(diǎn) Node1、Node2 的信息。
![](https://img2024.cnblogs.com/blog/3405553/202408/3405553-20240801135325938-765153284.png)



瀏覽器訪問(wèn) 
http://192.168.10.10:9200/_cluster/health?pretty  
http://192.168.10.20:9200/_cluster/health?pretty
查看群集的健康情況,可以看到 status 值為 green(綠色), 表示節(jié)點(diǎn)健康運(yùn)行。


瀏覽器訪問(wèn) http://192.168.10.10:9200/_cluster/state?pretty  檢查群集狀態(tài)信息

編譯安裝 Elasticsearch-head 插件 主從都可以安裝

Elasticsearch 在 5.0 版本后,Elasticsearch-head 插件需要作為獨(dú)立服務(wù)進(jìn)行安裝,需要使用npm工具(NodeJS的包管理工具)安裝。
安裝 Elasticsearch-head 需要提前安裝好依賴軟件nodephantomjs。
node:是一個(gè)基于 Chrome V8 引擎的 JavaScript 運(yùn)行環(huán)境。
phantomjs:是一個(gè)基于 webkit 的JavaScriptAPI,可以理解為一個(gè)隱形的瀏覽器,任何基于 webkit 瀏覽器做的事情,它都可以做到。

編譯安裝node組件

[root@localhost ~]# yum install gcc gcc-c++ make -y
#下載安裝和解壓環(huán)境
[root@localhost ~]# cd /data/
[root@localhost data]# tar zxvf node-v8.2.1.tar.gz
[root@localhost data]# cd node-v8.2.1/
[root@localhost node-v8.2.1]# ./configure
[root@localhost node-v8.2.1]# make && make install

安裝 phantomjs

[root@localhost node-v8.2.1]# cd /data
[root@localhost data]# tar jxvf phantomjs-2.1.1-linux-x86_64.tar.bz2
[root@localhost data]# cd /data/phantomjs-2.1.1-linux-x86_64/bin
[root@localhost bin]# ln -s  /opt/phantomjs-2.1.1-linux-x86_64/bin/phantomjs   /usr/bin

安裝 Elasticsearch-head 數(shù)據(jù)可視化工具

[root@localhost bin]# cd /data
[root@localhost data]# unzip elasticsearch-head-master.zip
[root@localhost data]# cd /data/elasticsearch-head-master/
[root@localhost elasticsearch-head-master]#npm install #安裝依賴包
[root@localhost elasticsearch-head-master]#npm install --registry=https://registry.npmmirror.com      #指定源

修改 Elasticsearch 主配置文件

[root@localhost elasticsearch-head-master]# vim /etc/elasticsearch/elasticsearch.yml
......
--末尾添加以下內(nèi)容--
http.cors.enabled: true#開(kāi)啟跨域訪問(wèn)支持,默認(rèn)為 false
http.cors.allow-origin: "*"#指定跨域訪問(wèn)允許的域名地址為所有


[root@localhost elasticsearch-head-master]# systemctl restart elasticsearch
#重啟elasticsearch  服務(wù)

啟動(dòng) elasticsearch-head 服務(wù)

必須在解壓后的 elasticsearch-head 目錄下啟動(dòng)服務(wù),進(jìn)程會(huì)讀取該目錄下的 gruntfile.js 文件,否則可能啟動(dòng)失敗。

[root@localhost elasticsearch-head-master]#cd /data/elasticsearch-head-master/
[root@localhost elasticsearch-head-master]# npm run start &
> elasticsearch-head@0.0.0 start /usr/local/src/elasticsearch-head
> grunt server

Running "connect:server" (connect) task
Waiting forever...
Started connect web server on http://localhost:9100

#elasticsearch-head 監(jiān)聽(tīng)的端口是 9100
[root@localhost elasticsearch-head-master]# ss -natp |grep 9100
#檢測(cè)9100 端口是否開(kāi)啟

測(cè)試

網(wǎng)頁(yè)訪問(wèn):192.168.10.10:9100 或 192.168.10.20:9100

0c796fba-bd24-11ef-8732-92fbcf53809c.png

插入索引測(cè)試

[root@node2 elasticsearch-head-master]# curl -X PUT 'localhost:9200/index-demo/test/1?pretty&pretty' -H 'content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello world"}'
{
  "_index" : "index-demo",
  "_type" : "test",
  "_id" : "1",
  "_version" : 1,
  "result" : "created",
  "_shards" : {
    "total" : 2,
    "successful" : 2,
    "failed" : 0
  },
  "_seq_no" : 0,
  "_primary_term" : 1
}

0c7df42c-bd24-11ef-8732-92fbcf53809c.png

在應(yīng)用服務(wù)器部署 Logstash

安裝服務(wù)

[root@apache ~]# yum -y install java
[root@apache ~]# java -version
[root@apache ~]# yum -y install httpd
[root@apache ~]# systemctl start httpd

安裝logstash

[root@apache ~]# cd /data
[root@apache data]# ls
kibana-6.7.2-x86_64.rpm  logstash-6.7.2.rpm
[root@apache data]# rpm -ivh logstash-6.7.2.rpm
#安裝logstash
[root@apache data]# systemctl enable --now logstash.service
#開(kāi)啟logstash.service
[root@apache data]# ln -s  /usr/share/logstash/bin/logstash   /usr/bin/
# 做軟連接

使用logstash 收集日志

Logstash 命令常用選項(xiàng):
-f:通過(guò)這個(gè)選項(xiàng)可以指定 Logstash 的配置文件,根據(jù)配置文件配置 Logstash 的輸入和輸出流。
-e:從命令行中獲取,輸入、輸出后面跟著字符串,該字符串可以被當(dāng)作 Logstash 的配置(如果是空,則默認(rèn)使用 stdin 作為輸入,stdout 作為輸出)。
-t:測(cè)試配置文件是否正確,然后退出。

[root@localhost opt]# logstash -e 'input { stdin{} } output { stdout{} }'
# 等待時(shí)間較長(zhǎng)
WARNING: Could not find logstash.yml which is typically located in $LS_HOME/config or /etc/logstash. You can specify the path using --path.settings. Continuing using the defaults
Could not find log4j2 configuration at path /usr/share/logstash/config/log4j2.properties. Using default config which logs errors to the console
[INFO ] 2024-08-01 1530.012 [main] writabledirectory - Creating directory {:setting=>"path.queue", :path=>"/usr/share/logstash/data/queue"}
[INFO ] 2024-08-01 1530.031 [main] writabledirectory - Creating directory {:setting=>"path.dead_letter_queue", :path=>"/usr/share/logstash/data/dead_letter_queue"}
[WARN ] 2024-08-01 1530.392 [LogStash::Runner] multilocal - Ignoring the 'pipelines.yml' file because modules or command line options are specified
[INFO ] 2024-08-01 1530.399 [LogStash::Runner] runner - Starting Logstash {"logstash.version"=>"6.7.2"}
[INFO ] 2024-08-01 1530.425 [LogStash::Runner] agent - No persistent UUID file found. Generating new UUID {:uuid=>"a499dafc-ae55-41da-b12d-36425108a95e", :path=>"/usr/share/logstash/data/uuid"}
[INFO ] 2024-08-01 1535.985 [Converge PipelineAction::Create
] pipeline - Starting pipeline {:pipeline_id=>"main", "pipeline.workers"=>2, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>50} [INFO ] 2024-08-01 1536.390 [Converge PipelineAction::Create
] pipeline - Pipeline started successfully {:pipeline_id=>"main", :thread=>"#"} The stdin plugin is now waiting for input: [INFO ] 2024-08-01 1536.458 [Ruby-0-Thread-1: /usr/share/logstash/lib/bootstrap/environment.rb:6] agent - Pipelines running {:count=>1, :running_pipelines=>[:main], :non_running_pipelines=>[]} [INFO ] 2024-08-01 1536.734 [Api Webserver] agent - Successfully started Logstash API endpoint {:port=>9600} # 此處輸入需要的信息 hello world ############# /usr/share/logstash/vendor/bundle/jruby/2.5.0/gems/awesome_print-1.7.0/lib/awesome_print/formatters/base_formatter.rb warning: constant ::Fixnum is deprecated { "message" => "hello world", "host" => "localhost.localdomain", "@version" => "1", "@timestamp" => 2024-07-15T1654.195Z }

使用 Logstash 將信息寫入 Elasticsearch 中

logstash -e 'input { stdin{} } output { elasticsearch { hosts=>["192.168.10.10:9200","192.168.10.20:9200"]} }'
//結(jié)果不在標(biāo)準(zhǔn)輸出顯示,而是發(fā)送至 Elasticsearch 中,可瀏覽器訪問(wèn) http://192.168.10.10:9100/或http://192.168.10.20:9100 查看索引信息和數(shù)據(jù)瀏覽。

使用配置文件

Logstash 配置文件基本由三部分組成:input、output 以及 filter(可選,根據(jù)需要選擇使用)

input:表示從數(shù)據(jù)源采集數(shù)據(jù),常見(jiàn)的數(shù)據(jù)源如Kafka、日志文件等
file beats kafka redis stdin

filter:表示數(shù)據(jù)處理層,包括對(duì)數(shù)據(jù)進(jìn)行格式化處理、數(shù)據(jù)類型轉(zhuǎn)換、數(shù)據(jù)過(guò)濾等,支持正則表達(dá)式
grok 對(duì)若干個(gè)大文本字段進(jìn)行再分割成一些小字段 (?<字段名>正則表達(dá)式) 字段名: 正則表達(dá)式匹配到的內(nèi)容
date 對(duì)數(shù)據(jù)中的時(shí)間格式進(jìn)行統(tǒng)一和格式化
mutate 對(duì)一些無(wú)用的字段進(jìn)行剔除,或增加字段
mutiline 對(duì)多行數(shù)據(jù)進(jìn)行統(tǒng)一編排,多行合并或拆分

output:表示將Logstash收集的數(shù)據(jù)經(jīng)由過(guò)濾器處理之后輸出到Elasticsearch。
elasticsearch stdout

#格式如下:
input {...}
filter {...}
output {...}

#在每個(gè)部分中,也可以指定多個(gè)訪問(wèn)方式。例如,若要指定兩個(gè)日志來(lái)源文件,則格式如下:
input {
file { path =>"/var/log/messages"   type =>"syslog"}
file { path =>"/var/log/httpd/access.log" type =>"apache"}

vim system.conf
input {
    file{
        path =>"/var/log/messages"
        type =>"system"
        start_position =>"beginning"
# ignore_older => 604800
        sincedb_path => "/etc/logstash/sincedb_path/log_progress"
        add_field => {"log_hostname"=>"${HOSTNAME}"}
    }
}
#path表示要收集的日志的文件位置
#type是輸入ES時(shí)給結(jié)果增加一個(gè)叫type的屬性字段
#start_position可以設(shè)置為beginning或者end,beginning表示從頭開(kāi)始讀取文件,end表示讀取最新的,這個(gè)要和ignore_older一起使用
#ignore_older表示了針對(duì)多久的文件進(jìn)行監(jiān)控,默認(rèn)一天,單位為秒,可以自己定制,比如默認(rèn)只讀取一天內(nèi)被修改的文件
#sincedb_path表示文件讀取進(jìn)度的記錄,每行表示一個(gè)文件,每行有兩個(gè)數(shù)字,第一個(gè)表示文件的inode,第二個(gè)表示文件讀取到的位置(byteoffset)。默認(rèn)為$HOME/.sincedb*
#add_field增加屬性。這里使用了${HOSTNAME},即本機(jī)的環(huán)境變量,如果要使用本機(jī)的環(huán)境變量,那么需要在啟動(dòng)命令上加--alow-env

output {
    elasticsearch {#輸出到 elasticsearch
        hosts => ["192.168.91.100:9200","192.168.91.101:9200"]#指定 elasticsearch 服務(wù)器的地址和端口
        index =>"system-%{+YYYY.MM.dd}"#指定輸出到 elasticsearch 的索引格式
    }
}

實(shí)列

[root@apache log]# vim /etc/logstash/conf.d/system-log.conf 

input {
    file {
      path => "/var/log/messages"
      type => "system"
      start_position => "beginning"
    }

    file {
      path => "/var/log/yum.log"
      type => "yum"
      start_position => "beginning"
    }

}

output {
  if  type]
  elasticsearch {
  hosts => [ "192.168.91.100:9200","192.168.91.101:9200" ]
  index => "system-%{+YYYY.MM.dd}"
  }

}



[root@apache conf.d]# chmod +r /var/log/messages 
#添加權(quán)限


[root@apache conf.d]# logstash   -f  system-log.conf 
#啟動(dòng)logstash
........................................................................
[INFO ] 2024-07-16 0141.716 [Api Webserver] agent - Successfully started Logstash API endpoint {:port=>9601}

安裝 kibana 無(wú)所謂哪臺(tái)服務(wù)器

安裝

[root@apache log]# cd /data/
[root@apache data]# rpm -ivh kibana-6.7.2-x86_64.rpm

修改配置

[root@apache data]# cd /etc/kibana/
[root@localhost kibana]# cp kibana.yml  kibana.yml.bak -a
# 做好主要配置文件的備份
[root@apache kibana]# vim kibana.yml
# 修改以下行
2    server.port: 5601          #打開(kāi)端口
7    server.host: "0.0.0.0"      #監(jiān)聽(tīng)端口
28   elasticsearch.hosts: ["http://192.168.91.100:9200", "http://192.168.91.101:9200"]  #el服務(wù)器地址
37   kibana.index: ".kibana"         #打開(kāi)索引
96   logging.dest: /var/log/k.log      #指定日志文件, 需要手動(dòng)建立文件
114  i18n.locale: "zh-CN"              #中文設(shè)置

[root@apache kibana]# chown kibana:kibana /var/log/k.log

啟動(dòng) kibana

[root@apache kibana]# systemctl enable --now kibana.service
[root@apache kibana]# ss -nap |grep 5601
tcp    LISTEN     0      128       *:5601                  *:*                   users:(("node",pid=42235,fd=19))

訪問(wèn)測(cè)試

192.168.10.30:5601

0c967f1a-bd24-11ef-8732-92fbcf53809c.png

0ca17762-bd24-11ef-8732-92fbcf53809c.png

0cb89898-bd24-11ef-8732-92fbcf53809c.png

0cc06370-bd24-11ef-8732-92fbcf53809c.png

0cd7dcd0-bd24-11ef-8732-92fbcf53809c.png

0ce9ec2c-bd24-11ef-8732-92fbcf53809c.png

0cfd94e8-bd24-11ef-8732-92fbcf53809c.png

0d086dd2-bd24-11ef-8732-92fbcf53809c.png

0d211454-bd24-11ef-8732-92fbcf53809c.png

0d33444e-bd24-11ef-8732-92fbcf53809c.png

0d4cb03c-bd24-11ef-8732-92fbcf53809c.png

鏈接:https://www.cnblogs.com/zhj0708/p/18336510

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 開(kāi)源軟件
    +關(guān)注

    關(guān)注

    0

    文章

    212

    瀏覽量

    16277
  • Elasticsearch
    +關(guān)注

    關(guān)注

    0

    文章

    30

    瀏覽量

    3013

原文標(biāo)題:揭秘ELK技術(shù)棧:企業(yè)如何用它實(shí)現(xiàn)數(shù)據(jù)流量爆炸式增長(zhǎng)

文章出處:【微信號(hào):magedu-Linux,微信公眾號(hào):馬哥Linux運(yùn)維】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于Vicor DC-DC轉(zhuǎn)換器實(shí)現(xiàn)網(wǎng)絡(luò)交換機(jī)高效供電

    云計(jì)算服務(wù)的快速普及推動(dòng)了數(shù)據(jù)流量的急劇增長(zhǎng)。這一趨勢(shì)預(yù)計(jì)將持續(xù)下去,2024 年至 2033 年期間的復(fù)合年增長(zhǎng)率將達(dá)到約 20%。網(wǎng)絡(luò)設(shè)備,包括路由器和網(wǎng)絡(luò)交換機(jī),是適應(yīng)這一快速增長(zhǎng)
    的頭像 發(fā)表于 06-12 16:20 ?665次閱讀
    基于Vicor DC-DC轉(zhuǎn)換器<b class='flag-5'>實(shí)現(xiàn)</b>網(wǎng)絡(luò)交換機(jī)高效供電

    非接觸雷達(dá)流量計(jì)監(jiān)測(cè)系統(tǒng)詳解

    在現(xiàn)代水利監(jiān)測(cè)領(lǐng)域,非接觸雷達(dá)流量計(jì)監(jiān)測(cè)系統(tǒng)正發(fā)揮著愈發(fā)關(guān)鍵的作用,為水資源管理、防洪減災(zāi)等工作提供了有力的技術(shù)支持。一、雷達(dá)流量計(jì)的工作原理非接觸
    的頭像 發(fā)表于 05-24 15:02 ?162次閱讀
    非接觸<b class='flag-5'>式</b>雷達(dá)<b class='flag-5'>流量</b>計(jì)監(jiān)測(cè)系統(tǒng)詳解

    如何在CentOS系統(tǒng)中部署ELK日志分析系統(tǒng)

    日志分析已成為企業(yè)監(jiān)控、故障排查和性能優(yōu)化的重要組成部分。ELK(Elasticsearch、Logstash 和 Kibana)堆棧作為一種強(qiáng)大的開(kāi)源解決方案,提供了高效的日志收集、存儲(chǔ)和可視化
    的頭像 發(fā)表于 05-08 11:47 ?323次閱讀
    如何在CentOS系統(tǒng)中部署<b class='flag-5'>ELK</b>日志分析系統(tǒng)

    商湯科技領(lǐng)跑2024年中國(guó)GenAI技術(shù)市場(chǎng)

    創(chuàng)新實(shí)力強(qiáng)、應(yīng)用落地廣,GenAI(生成AI)技術(shù)領(lǐng)域,商湯科技位居國(guó)內(nèi)榜首!
    的頭像 發(fā)表于 12-27 16:07 ?727次閱讀

    渦街流量計(jì)屬于什么流量計(jì)

    渦街流量計(jì)屬于速度流量計(jì)的一種,同時(shí)也是流體振動(dòng)流量計(jì)的一種。
    的頭像 發(fā)表于 12-14 10:27 ?638次閱讀

    流量計(jì)的傳感器類型 靶流量計(jì)的校準(zhǔn)方法

    流量計(jì)的傳感器類型 靶流量計(jì)的傳感器類型主要取決于其工作原理和應(yīng)用場(chǎng)景。以下是幾種常見(jiàn)的靶流量
    的頭像 發(fā)表于 12-11 17:02 ?770次閱讀

    流量計(jì)與其他流量計(jì)的優(yōu)勢(shì) 靶流量計(jì)的常見(jiàn)故障及排除方法

    流量計(jì)是一種用于測(cè)量流體流量的儀器,它通過(guò)測(cè)量流體對(duì)靶板的作用力來(lái)確定流量。以下是關(guān)于靶流量
    的頭像 發(fā)表于 12-11 16:55 ?664次閱讀

    流量計(jì)應(yīng)用領(lǐng)域 靶流量計(jì)的精度與誤差

    流量計(jì)應(yīng)用領(lǐng)域 1. 石油化工行業(yè) 在石油化工行業(yè)中,靶流量計(jì)常用于測(cè)量原油、成品油、化工原料等介質(zhì)的流量。這些介質(zhì)往往具有較高的粘度
    的頭像 發(fā)表于 12-11 16:50 ?770次閱讀

    800G光模塊:高速通信的關(guān)鍵力量

    隨著信息技術(shù)的飛速發(fā)展,數(shù)據(jù)流量爆炸增長(zhǎng),對(duì)高速、大容量的數(shù)據(jù)傳輸設(shè)備需求日益迫切,800G
    的頭像 發(fā)表于 12-09 12:19 ?971次閱讀

    1分鐘了解擦除AI服務(wù)器SAS硬盤:企業(yè)數(shù)據(jù)防泄密

    本文深入探討了AI服務(wù)器中SAS硬盤的重要性,以及如何通過(guò)擦除技術(shù)確保企業(yè)數(shù)據(jù)安全并實(shí)現(xiàn)硬盤的再利用。了解SAS硬盤的性能優(yōu)勢(shì)、汰換策略、擦除技術(shù)
    的頭像 發(fā)表于 11-29 14:40 ?731次閱讀
    1分鐘了解擦除AI服務(wù)器SAS硬盤:<b class='flag-5'>企業(yè)</b><b class='flag-5'>數(shù)據(jù)</b>防泄密

    理解ECU數(shù)據(jù)流的分析方法

    分析ECU數(shù)據(jù)流,技術(shù)人員可以快速定位故障源頭,減少維修時(shí)間和成本。 性能優(yōu)化 :通過(guò)監(jiān)控ECU數(shù)據(jù),可以對(duì)車輛性能進(jìn)行調(diào)整,以適應(yīng)不同的駕駛條件和駕駛者需求。 安全監(jiān)控 :實(shí)時(shí)監(jiān)控ECU數(shù)據(jù)
    的頭像 發(fā)表于 11-05 11:07 ?1228次閱讀

    何用 S7-200 實(shí)現(xiàn) Modbus 通信?

    電子發(fā)燒友網(wǎng)站提供《如何用 S7-200 實(shí)現(xiàn) Modbus 通信?.pdf》資料免費(fèi)下載
    發(fā)表于 09-14 10:22 ?2次下載

    Linux網(wǎng)絡(luò)協(xié)議實(shí)現(xiàn)

    網(wǎng)絡(luò)協(xié)議是操作系統(tǒng)核心的一個(gè)重要組成部分,負(fù)責(zé)管理網(wǎng)絡(luò)通信中的數(shù)據(jù)包處理。在 Linux 操作系統(tǒng)中,網(wǎng)絡(luò)協(xié)議(Network Stack)負(fù)責(zé)實(shí)現(xiàn) TCP/IP 協(xié)議簇,處理應(yīng)用
    的頭像 發(fā)表于 09-10 09:51 ?707次閱讀
    Linux網(wǎng)絡(luò)協(xié)議<b class='flag-5'>棧</b>的<b class='flag-5'>實(shí)現(xiàn)</b>

    軟通動(dòng)力數(shù)據(jù)庫(kù)全服務(wù),助力企業(yè)數(shù)據(jù)庫(kù)體系全面升級(jí)

    。在企業(yè)節(jié)與"數(shù)博會(huì)"展區(qū),軟通動(dòng)力受邀分享數(shù)據(jù)庫(kù)專業(yè)服務(wù)全解決方案,并重點(diǎn)展示以全云服務(wù)為核心的數(shù)智化能力。 軟通動(dòng)力高級(jí)數(shù)據(jù)庫(kù)服務(wù)專
    的頭像 發(fā)表于 09-05 15:30 ?582次閱讀
    軟通動(dòng)力<b class='flag-5'>數(shù)據(jù)</b>庫(kù)全<b class='flag-5'>棧</b>服務(wù),助力<b class='flag-5'>企業(yè)</b><b class='flag-5'>數(shù)據(jù)</b>庫(kù)體系全面升級(jí)

    InConnect維護(hù)設(shè)備的流量是多少

    個(gè)現(xiàn)場(chǎng),每個(gè)PLC采集100個(gè)變量,每變量2B大小,每間隔5秒鐘采集一次,那么一年的數(shù)據(jù)流量 12月*30天*24小時(shí)*60分鐘*60秒/5秒*100(變量)*2B=1.24GB 3、視頻數(shù)據(jù)業(yè)務(wù)流量
    發(fā)表于 07-25 07:23