3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

ELK实时日志分析平台环境部署--完整记录

發布時間:2024/9/20 编程问答 15 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ELK实时日志分析平台环境部署--完整记录 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

在日常運維工作中,對于系統和業務日志的處理尤為重要。今天,在這里分享一下自己部署的ELK(+Redis)-開源實時日志分析平臺的記錄過程(僅依據本人的實際操作為例說明,如有誤述,敬請指出)~

================概念介紹================
日志主要包括系統日志、應用程序日志和安全日志。系統運維和開發人員可以通過日志了解服務器軟硬件信息、檢查配置過程中的錯誤及錯誤發生的原因。經常分析日志可以了解服務器的負荷,性能安全性,從而及時采取措施糾正錯誤。

通常,日志被分散在儲存不同的設備上。如果你管理數十上百臺服務器,你還在使用依次登錄每臺機器的傳統方法查閱日志。這樣是不是感覺很繁瑣和效率低下。當務之急我們使用集中化的日志管理,例如:開源的syslog,將所有服務器上的日志收集匯總。

集中化管理日志后,日志的統計和檢索又成為一件比較麻煩的事情,一般我們使用grep、awk和wc等Linux命令能實現檢索和統計,但是對于要求更高的查詢、排序和統計等要求和龐大的機器數量依然使用這樣的方法難免有點力不從心。

通過我們需要對日志進行集中化管理,將所有機器上的日志信息收集、匯總到一起。完整的日志數據具有非常重要的作用:
1)信息查找。通過檢索日志信息,定位相應的bug,找出解決方案。
2)服務診斷。通過對日志信息進行統計、分析,了解服務器的負荷和服務運行狀態,找出耗時請求進行優化等等。
3)數據分析。如果是格式化的log,可以做進一步的數據分析,統計、聚合出有意義的信息,比如根據請求中的商品id,找出TOP10用戶感興趣商品。

開源實時日志分析ELK平臺能夠完美的解決我們上述的問題,ELK由ElasticSearch、Logstash和Kiabana三個開源工具組成:
1)ElasticSearch是一個基于Lucene的開源分布式搜索服務器。它的特點有:分布式,零配置,自動發現,索引自動分片,索引副本機制,restful風格接口,多數據源,自動搜索負載等。它提供了一個分布式多用戶能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java開發的,并作為Apache許可條款下的開放源碼發布,是第二流行的企業搜索引擎。設計用于云計算中,能夠達到實時搜索,穩定,可靠,快速,安裝使用方便。?
在elasticsearch中,所有節點的數據是均等的。
2)Logstash是一個完全開源的工具,它可以對你的日志進行收集、過濾、分析,支持大量的數據獲取方法,并將其存儲供以后使用(如搜索)。說到搜索,logstash帶有一個web界面,搜索和展示所有日志。一般工作方式為c/s架構,client端安裝在需要收集日志的主機上,server端負責將收到的各節點日志進行過濾、修改等操作在一并發往elasticsearch上去。
3)Kibana?是一個基于瀏覽器頁面的Elasticsearch前端展示工具,也是一個開源和免費的工具,Kibana可以為 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以幫助您匯總、分析和搜索重要數據日志。

為什么要用到ELK?
一般我們需要進行日志分析場景是:直接在日志文件中 grep、awk 就可以獲得自己想要的信息。但在規模較大的場景中,此方法效率低下,面臨問題包括日志量太大如何歸檔、文本搜索太慢怎么辦、如何多維度查詢。需要集中化的日志管理,所有服務器上的日志收集匯總。常見解決思路是建立集中式日志收集系統,將所有節點上的日志統一收集,管理,訪問。
一般大型系統是一個分布式部署的架構,不同的服務模塊部署在不同的服務器上,問題出現時,大部分情況需要根據問題暴露的關鍵信息,定位到具體的服務器和服務模塊,構建一套集中式日志系統,可以提高定位問題的效率。

一般大型系統是一個分布式部署的架構,不同的服務模塊部署在不同的服務器上,問題出現時,大部分情況需要根據問題暴露的關鍵信息,定位到具體的服務器和服務模塊,構建一套集中式日志系統,可以提高定位問題的效率。
一個完整的集中式日志系統,需要包含以下幾個主要特點:
1)收集-能夠采集多種來源的日志數據
2)傳輸-能夠穩定的把日志數據傳輸到中央系統
3)存儲-如何存儲日志數據
4)分析-可以支持 UI 分析
5)警告-能夠提供錯誤報告,監控機制

ELK提供了一整套解決方案,并且都是開源軟件,之間互相配合使用,完美銜接,高效的滿足了很多場合的應用。目前主流的一種日志系統。

ELK工作原理展示圖:

如上圖:Logstash收集AppServer產生的Log,并存放到ElasticSearch集群中,而Kibana則從ES集群中查詢數據生成圖表,再返回給Browser。

Logstash工作原理:
Logstash事件處理有三個階段:inputs → filters → outputs。是一個接收,處理,轉發日志的工具。支持系統日志,webserver日志,錯誤日志,應用日志,總之包括所有可以拋出來的日志類型。

Input:輸入數據到logstash。

一些常用的輸入為:
file:從文件系統的文件中讀取,類似于tial -f命令
syslog:在514端口上監聽系統日志消息,并根據RFC3164標準進行解析
redis:從redis service中讀取
beats:從filebeat中讀取
Filters:數據中間處理,對數據進行操作。

一些常用的過濾器為:
grok:解析任意文本數據,Grok 是 Logstash 最重要的插件。它的主要作用就是將文本格式的字符串,轉換成為具體的結構化的數據,配合正則表達式使用。內置120多個解析語法。
mutate:對字段進行轉換。例如對字段進行刪除、替換、修改、重命名等。
drop:丟棄一部分events不進行處理。
clone:拷貝 event,這個過程中也可以添加或移除字段。
geoip:添加地理信息(為前臺kibana圖形化展示使用)
Outputs:outputs是logstash處理管道的最末端組件。一個event可以在處理過程中經過多重輸出,但是一旦所有的outputs都執行結束,這個event也就完成生命周期。

一些常見的outputs為:
elasticsearch:可以高效的保存數據,并且能夠方便和簡單的進行查詢。
file:將event數據保存到文件中。
graphite:將event數據發送到圖形化組件中,一個很流行的開源存儲圖形化展示的組件。
Codecs:codecs 是基于數據流的過濾器,它可以作為input,output的一部分配置。Codecs可以幫助你輕松的分割發送過來已經被序列化的數據。

一些常見的codecs:
json:使用json格式對數據進行編碼/解碼。
multiline:將匯多個事件中數據匯總為一個單一的行。比如:java異常信息和堆棧信息。

======================ELK整體方案=======================
ELK中的三個系統分別扮演不同的角色,組成了一個整體的解決方案。Logstash是一個ETL工具,負責從每臺機器抓取日志數據,對數據進行格式轉換和處理后,輸出到Elasticsearch中存儲。Elasticsearch是一個分布式搜索引擎和分析引擎,用于數據存儲,可提供實時的數據查詢。Kibana是一個數據可視化服務,根據用戶的操作從Elasticsearch中查詢數據,形成相應的分析結果,以圖表的形式展現給用戶。?
ELK的安裝很簡單,可以按照"下載->修改配置文件->啟動"方法分別部署三個系統,也可以使用docker來快速部署。具體的安裝方法這里不詳細介紹,下面來看一個常見的部署方案,如下圖所示,部署思路是:
1)在每臺生成日志文件的機器上,部署Logstash,作為Shipper的角色,負責從日志文件中提取數據,但是不做任何處理,直接將數據輸出到Redis隊列(list)中;
2)需要一臺機器部署Logstash,作為Indexer的角色,負責從Redis中取出數據,對數據進行格式化和相關處理后,輸出到Elasticsearch中存儲;
3)部署Elasticsearch集群,當然取決于你的數據量了,數據量小的話可以使用單臺服務,如果做集群的話,最好是有3個以上節點,同時還需要部署相關的監控插件;
4)部署Kibana服務,提供Web服務。

在前期部署階段,主要工作是Logstash節點和Elasticsearch集群的部署,而在后期使用階段,主要工作就是Elasticsearch集群的監控和使用Kibana來檢索、分析日志數據了,當然也可以直接編寫程序來消費Elasticsearch中的數據。

在上面的部署方案中,我們將Logstash分為Shipper和Indexer兩種角色來完成不同的工作,中間通過Redis做數據管道,為什么要這樣做?為什么不是直接在每臺機器上使用Logstash提取數據、處理、存入Elasticsearch?

首先,采用這樣的架構部署,有三點優勢:第一,降低對日志所在機器的影響,這些機器上一般都部署著反向代理或應用服務,本身負載就很重了,所以盡可能的在這些機器上少做事;第二,如果有很多臺機器需要做日志收集,那么讓每臺機器都向Elasticsearch持續寫入數據,必然會對Elasticsearch造成壓力,因此需要對數據進行緩沖,同時,這樣的緩沖也可以一定程度的保護數據不丟失;第三,將日志數據的格式化與處理放到Indexer中統一做,可以在一處修改代碼、部署,避免需要到多臺機器上去修改配置。?

其次,我們需要做的是將數據放入一個消息隊列中進行緩沖,所以Redis只是其中一個選擇,也可以是RabbitMQ、Kafka等等,在實際生產中,Redis與Kafka用的比較多。由于Redis集群一般都是通過key來做分片,無法對list類型做集群,在數據量大的時候必然不合適了,而Kafka天生就是分布式的消息隊列系統。

1)配置nginx日志格式?
首先需要將nginx日志格式規范化,便于做解析處理。在nginx.conf文件中設置:

12log_format main?'$remote_addr "$time_iso8601" "$request" $status $body_bytes_sent "$http_user_agent" "$http_referer" "$http_x_forwarded_for" "$request_time" "$upstream_response_time" "$http_cookie" "$http_Authorization" "$http_token"';access_log??/var/log/nginx/example.access.log? main;

2)nginx日志–>>Logstash–>>消息隊列?
這部分是Logstash Shipper的工作,涉及input和output兩種插件。input部分,由于需要提取的是日志文件,一般使用file插件,該插件常用的幾個參數是:
path:指定日志文件路徑。
type:指定一個名稱,設置type后,可以在后面的filter和output中對不同的type做不同的處理,適用于需要消費多個日志文件的場景。
start_position:指定起始讀取位置,“beginning”表示從文件頭開始,“end”表示從文件尾開始(類似tail -f)。
sincedb_path:與Logstash的一個坑有關。通常Logstash會記錄每個文件已經被讀取到的位置,保存在sincedb中,如果Logstash重啟,那么對于同一個文件,會繼續從上次記錄的位置開始讀取。如果想重新從頭讀取文件,需要刪除sincedb文件,sincedb_path則是指定了該文件的路徑。為了方便,我們可以根據需要將其設置為“/dev/null”,即不保存位置信息。

123456789input {????file?{????????type?=>?"example_nginx_access"????????path => ["/var/log/nginx/example.access.log"]????????start_position =>?"beginning"????????sincedb_path =>?"/dev/null"????}}

output部分,將數據輸出到消息隊列,以redis為例,需要指定redis server和list key名稱。另外,在測試階段,可以使用stdout來查看輸出信息。

123456789101112# 輸出到redisoutput {????if?[type] ==?"example_nginx_access"?{????????redis {????????????host =>?"127.0.0.1"????????????port =>?"6379"????????????data_type =>?"list"????????????key =>?"logstash:example_nginx_access"????????}??????#? stdout {codec => rubydebug}????}}

3)消息隊列–>>Logstash–>>Elasticsearch?
這部分是Logstash Indexer的工作,涉及input、filter和output三種插件。在input部分,我們通過redis插件將數據從消息隊列中取出來。在output部分,我們通過elasticsearch插件將數據寫入Elasticsearch。

12345678910111213141516# 從redis輸入數據input {????redis {????????????host =>?"127.0.0.1"????????????port =>?"6379"????????????data_type =>?"list"????????????key =>?"logstash:example_nginx_access"????}}output {????elasticsearch {????????index =>?"logstash-example-nginx-%{+YYYY.MM}"????????hosts => ["127.0.0.1:9200"]????}}

這里,需要重點關注filter部分,下面列舉幾個常用的插件,實際使用中根據自身需求從官方文檔中查找適合自己業務的插件并使用即可,當然也可以編寫自己的插件。
grok:是Logstash最重要的一個插件,用于將非結構化的文本數據轉化為結構化的數據。grok內部使用正則語法對文本數據進行匹配,為了降低使用復雜度,其提供了一組pattern,我們可以直接調用pattern而不需要自己寫正則表達式,參考源碼grok-patterns。grok解析文本的語法格式是%{SYNTAX:SEMANTIC},SYNTAX是pattern名稱,SEMANTIC是需要生成的字段名稱,使用工具Grok Debugger可以對解析語法進行調試。例如,在下面的配置中,我們先使用grok對輸入的原始nginx日志信息(默認以message作為字段名)進行解析,并添加新的字段request_path_with_verb(該字段的值是verb和request_path的組合),然后對request_path字段做進一步解析。
kv:用于將某個字段的值進行分解,類似于編程語言中的字符串Split。在下面的配置中,我們將request_args字段值按照“&”進行分解,分解后的字段名稱以“request_args_”作為前綴,并且丟棄重復的字段。
geoip:用于根據IP信息生成地理位置信息,默認使用自帶的一份GeoLiteCity database,也可以自己更換為最新的數據庫,但是需要數據格式需要遵循Maxmind的格式(參考GeoLite),似乎目前只能支持legacy database,數據類型必須是.dat。下載GeoLiteCity.dat.gz后解壓, 并將文件路徑配置到source中即可。
translate:用于檢測某字段的值是否符合條件,如果符合條件則將其翻譯成新的值,寫入一個新的字段,匹配pattern可以通過YAML文件來配置。例如,在下面的配置中,我們對request_api字段翻譯成更加易懂的文字描述。

1234567891011121314151617181920212223242526272829303132filter {????grok {????????match => {"message"?=>?"%{IPORHOST:client_ip} \"%{TIMESTAMP_ISO8601:timestamp}\" \"%{WORD:verb} %{NOTSPACE:request_path} HTTP/%{NUMBER:httpversion}\" %{NUMBER:response_status:int} %{NUMBER:response_body_bytes:int} \"%{DATA:user_agent}\" \"%{DATA:http_referer}\" \"%{NOTSPACE:http_x_forwarder_for}\" \"%{NUMBER:request_time:float}\" \"%{DATA:upstream_resopnse_time}\" \"%{DATA:http_cookie}\" \"%{DATA:http_authorization}\" \"%{DATA:http_token}\""}????????add_field => {"request_path_with_verb"?=>?"%{verb} %{request_path}"}????}????grok {????????match => {"request_path"?=>?"%{URIPATH:request_api}(?:\?%{NOTSPACE:request_args}|)"}????????add_field => {"request_annotation"?=>?"%{request_api}"}????}????kv {????????prefix =>?"request_args_"????????field_split =>?"&"????????source?=>?"request_args"????????allow_duplicate_values =>?false????}????geoip {????????source?=>?"client_ip"????????database =>?"/home/elktest/geoip_data/GeoLiteCity.dat"????}???translate {????????field => request_path????????destination => request_annotation????????regex =>?true????????exact =>?true????????dictionary_path =>?"/home/elktest/api_annotation.yaml"????????override =>?true????}}

Elasticsearch
Elasticsearch承載了數據存儲和查詢的功能,其基礎概念和使用方法可以參考另一篇博文Elasticsearch使用總結,這里主要介紹些實際生產中的問題和方法:
1)關于集群配置,重點關注三個參數:第一,discovery.zen.ping.unicast.hosts,Elasticsearch默認使用Zen Discovery來做節點發現機制,推薦使用unicast來做通信方式,在該配置項中列舉出Master節點。第二,discovery.zen.minimum_master_nodes,該參數表示集群中可工作的具有Master節點資格的最小數量,默認值是1。為了提高集群的可用性,避免腦裂現象(所謂腦裂,就是同一個集群中的不同節點,對集群的狀態有不一致的理解。),官方推薦設置為(N/2)+1,其中N是具有Master資格的節點的數量。第三,discovery.zen.ping_timeout,表示節點在發現過程中的等待時間,默認值是3秒,可以根據自身網絡環境進行調整,一定程度上提供可用性。

123discovery.zen.ping.unicast.hosts: ["master1",?"master2",?"master3"]discovery.zen.minimum_master_nodes: 2discovery.zen.ping_timeout: 10

2)關于集群節點,第一,節點類型包括:候選Master節點、數據節點和Client節點。通過設置兩個配置項node.master和node.data為true或false,來決定將一個節點分配為什么類型的節點。第二,盡量將候選Master節點和Data節點分離開,通常Data節點負載較重,需要考慮單獨部署。
3)關于內存,Elasticsearch默認設置的內存是1GB,對于任何一個業務部署來說,這個都太小了。通過指定ES_HEAP_SIZE環境變量,可以修改其堆內存大小,服務進程在啟動時候會讀取這個變量,并相應的設置堆的大小。建議設置系統內存的一半給Elasticsearch,但是不要超過32GB。參考官方文檔。
4)關于硬盤空間,Elasticsearch默認將數據存儲在/var/lib/elasticsearch路徑下,隨著數據的增長,一定會出現硬盤空間不夠用的情形,此時就需要給機器掛載新的硬盤,并將Elasticsearch的路徑配置到新硬盤的路徑下。通過“path.data”配置項來進行設置,比如“path.data: /data1,/var/lib/elasticsearch,/data”。需要注意的是,同一分片下的數據只能寫入到一個路徑下,因此還是需要合理的規劃和監控硬盤的使用。
5)關于Index的劃分和分片的個數,這個需要根據數據量來做權衡了,Index可以按時間劃分,比如每月一個或者每天一個,在Logstash輸出時進行配置,shard的數量也需要做好控制。
6)關于監控,筆者使用過head和marvel兩個監控插件,head免費,功能相對有限,marvel現在需要收費了。另外,不要在數據節點開啟監控插件。

Kibana
Kibana提供的是數據查詢和顯示的Web服務,有豐富的圖表樣板,能滿足大部分的數據可視化需求,這也是很多人選擇ELK的主要原因之一。UI的操作沒有什么特別需要介紹的,經常使用就會熟練,這里主要介紹經常遇到的三個問題。?
a)查詢語法?
在Kibana的Discover頁面中,可以輸入一個查詢條件來查詢所需的數據。查詢條件的寫法使用的是Elasticsearch的Query String語法,而不是Query DSL,參考官方文檔query-string-syntax,這里列舉其中部分常用的:
.單字段的全文檢索,比如搜索args字段中包含first的文檔,寫作 args:first;
.單字段的精確檢索,比如搜索args字段值為first的文檔,寫作 args: “first”;
.多個檢索條件的組合,使用 NOT, AND 和 OR 來組合,注意必須是大寫,比如 args:(“first” OR “second”) AND NOT agent: “third”;
.字段是否存在,_exists_:agent表示要求agent字段存在,_missing_:agent表示要求agent字段不存在;
.通配符:用 ? 表示單字母,* 表示任意個字母。
b)錯誤“Discover: Request Timeout after 30000ms”?
這個錯誤經常發生在要查詢的數據量比較大的情況下,此時Elasticsearch需要較長時間才能返回,導致Kibana發生Timeout報錯。解決這個問題的方法,就是在Kibana的配置文件中修改elasticsearch.requestTimeout一項的值,然后重啟Kibana服務即可,注意單位是ms。
c)疑惑“字符串被分解了”?
經常碰到這樣一個問題:為什么查詢結果的字段值是正確的,可是做圖表時卻發現字段值被分解了,不是想要的結果?如下圖所示的client_agent_info字段。

得到這樣一個不正確結果的原因是使用了Analyzed字段來做圖表分析,默認情況下Elasticsearch會對字符串數據進行分析,建立倒排索引,所以如果對這么一個字段進行terms聚合,必然會得到上面所示的錯誤結果了。那么應該怎么做才對?默認情況下,Elasticsearch還會創建一個相對應的沒有被Analyzed的字段,即帶“.raw”后綴的字段,在這樣的字段上做聚合分析即可。?
又會有很多人問這樣的問題:為什么我的Elasticsearch沒有自動創建帶“.raw”后綴的字段?然而在Logstash中輸出數據時,設置index名稱前綴為“logstash-”就有了這個字段。這個問題的根源是Elasticsearch的dynamic template在搗鬼,dynamic temlate用于指導Elasticsearch如何為插入的數據自動建立Schema映射關系,默認情況下,Logstash會在Elasticsearch中建立一個名為“logstash”的模板,所有前綴為“logstash-”的index都會參照這個模板來建立映射關系,在該模板中申明了要為每個字符串數據建立一個額外的帶“.raw”后綴的字段。可以向Elasticsearch來查詢你的模板,使用API:GET http://localhost:9200/_template。

以上便是對ELK日志系統的總結介紹,還有一個重要的功能沒有提到,就是如何將日志數據與自身產品業務的數據融合起來。舉個例子,在nginx日志中,通常會包含API請求訪問時攜帶的用戶Token信息,由于Token是有時效性的,我們需要及時將這些Token轉換成真實的用戶信息存儲下來。這樣的需求通常有兩種實現方式,一種是自己寫一個Logstash filter,然后在Logstash處理數據時調用;另一種是將Logstash Indexer產生的數據再次輸出到消息隊列中,由我們自己的腳本程序從消息隊列中取出數據,做相應的業務處理后,輸出到Elasticsearch中。

==================ELK環境部署==================

(0)基礎環境介紹

系統: Centos7.1
防火墻: 關閉
Sellinux: 關閉

機器環境: 兩臺
elk-node1: 192.168.1.160 ? ? ??#master機器
elk-node2:192.168.1.161 ? ? ?#slave機器

注明:?
master-slave模式:
master收集到日志后,會把一部分數據碎片到salve上(隨機的一部分數據);同時,master和slave又都會各自做副本,并把副本放到對方機器上,這樣就保證了數據不會丟失。
如果master宕機了,那么客戶端在日志采集配置中將elasticsearch主機指向改為slave,就可以保證ELK日志的正常采集和web展示。

==========================================================================
由于elk-node1和elk-node2兩臺是虛擬機,沒有外網ip,所以訪問需要通過宿主機進行代理轉發實現。

有以下兩種轉發設置:(任選其一)

通過訪問宿主機的19200,19201端口分別轉發到elk-node1,elk-node2的9200端口
通過訪問宿主機的15601端口轉發到elk-node1的5601端口

宿主機:112.110.115.10(內網ip為192.168.1.7) ?(為了不讓線上的真實ip暴露,這里任意給了一個ip做記錄)

a)通過宿主機的haproxy服務進行代理轉發,如下是宿主機上的代理配置:

[root@kvm-server conf]# pwd
/usr/local/haproxy/conf
[root@kvm-server conf]# cat haproxy.cfg
..........
..........
listen node1-9200 0.0.0.0:19200
mode tcp
option tcplog
balance roundrobin
server 192.168.1.160 192.168.1.160:9200 weight 1 check inter 1s rise 2 fall 2

listen node2-9200 0.0.0.0:19201
mode tcp
option tcplog
balance roundrobin
server 192.168.1.161 192.168.1.161:9200 weight 1 check inter 1s rise 2 fall 2

listen node1-5601 0.0.0.0:15601
mode tcp
option tcplog
balance roundrobin
server 192.168.1.160 192.168.1.160:5601 weight 1 check inter 1s rise 2 fall 2

重啟haproxy服務
[root@kvm-server conf]# /etc/init.d/haproxy restart

設置宿主機防火墻
[root@kvm-server conf]# cat /etc/sysconfig/iptables
.........
-A INPUT -p tcp -m state --state NEW -m tcp --dport 19200 -j ACCEPT
-A INPUT -p tcp -m state --state NEW -m tcp --dport 19201 -j ACCEPT?
-A INPUT -p tcp -m state --state NEW -m tcp --dport 15601 -j ACCEPT

[root@kvm-server conf]# /etc/init.d/iptables restart

b)通過宿主機的NAT端口轉發實現

[root@kvm-server conf]# iptables -t nat -A PREROUTING -p tcp -m tcp --dport 19200 -j DNAT --to-destination 192.168.1.160:9200
[root@kvm-server conf]# iptables -t nat -A POSTROUTING -d 192.168.1.160/32 -p tcp -m tcp --sport 9200 -j SNAT --to-source 192.168.1.7
[root@kvm-server conf]# iptables -t filter -A INPUT -p tcp -m state --state NEW -m tcp --dport 19200 -j ACCEPT

[root@kvm-server conf]# iptables -t nat -A PREROUTING -p tcp -m tcp --dport 19201 -j DNAT --to-destination 192.168.1.161:9200
[root@kvm-server conf]# iptables -t nat -A POSTROUTING -d 192.168.1.161/32 -p tcp -m tcp --sport 9200 -j SNAT --to-source 192.168.1.7
[root@kvm-server conf]# iptables -t filter -A INPUT -p tcp -m state --state NEW -m tcp --dport 19201 -j ACCEPT

[root@kvm-server conf]# iptables -t nat -A PREROUTING -p tcp -m tcp --dport 15601 -j DNAT --to-destination 192.168.1.160:5601
[root@kvm-server conf]# iptables -t nat -A POSTROUTING -d 192.168.1.160/32 -p tcp -m tcp --sport 5601 -j SNAT --to-source 192.168.1.7
[root@kvm-server conf]# iptables -t filter -A INPUT -p tcp -m state --state NEW -m tcp --dport 15601 -j ACCEPT

[root@kvm-server conf]# service iptables save
[root@kvm-server conf]# service iptables restart

提醒一點:
nat端口轉發設置成功后,/etc/sysconfig/iptables文件里要注釋掉下面兩行!不然nat轉發會有問題!一般如上面在nat轉發規則設置好并save和restart防火墻之后就會自動在/etc/sysconfig/iptables文件里刪除掉下面兩行內容了。
[root@kvm-server conf]# vim /etc/sysconfig/iptables
..........
#-A INPUT -j REJECT --reject-with icmp-host-prohibited?
#-A FORWARD -j REJECT --reject-with icmp-host-prohibited
[root@linux-node1 ~]# service iptables restart

=============================================================

(1)Elasticsearch安裝配置

基礎環境安裝(elk-node1和elk-node2同時操作)

1)下載并安裝GPG Key
[root@elk-node1 ~]# rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch

2)添加yum倉庫
[root@elk-node1 ~]# vim /etc/yum.repos.d/elasticsearch.repo
[elasticsearch-2.x]
name=Elasticsearch repository for 2.x packages
baseurl=http://packages.elastic.co/elasticsearch/2.x/centos
gpgcheck=1
gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch
enabled=1

3)安裝elasticsearch
[root@elk-node1 ~]# yum install -y elasticsearch

4)安裝相關測試軟件
#提前先下載安裝epel源:epel-release-latest-7.noarch.rpm,否則yum會報錯:No Package.....
[root@elk-node1 ~]# wget http://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm
[root@elk-node1 ~]# rpm -ivh epel-release-latest-7.noarch.rpm
#安裝Redis
[root@elk-node1 ~]# yum install -y redis
#安裝Nginx
[root@elk-node1 ~]# yum install -y nginx
#安裝java
[root@elk-node1 ~]# yum install -y java

安裝完java后,檢測
[root@elk-node1 ~]# java -version
openjdk version "1.8.0_102"
OpenJDK Runtime Environment (build 1.8.0_102-b14)
OpenJDK 64-Bit Server VM (build 25.102-b14, mixed mode)

配置部署(下面先進行elk-node1的配置)

1)配置修改配置文件
[root@elk-node1 ~]# mkdir -p /data/es-data
[root@elk-node1 ~]# vim /etc/elasticsearch/elasticsearch.yml ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 【將里面內容情況,配置下面內容】
cluster.name: huanqiu ? ? ? ? ? ? ? ? ? ? ? ? ? ?# 組名(同一個組,組名必須一致)
node.name: elk-node1 ? ? ? ? ? ? ? ? ? ? ? ? ? ?# 節點名稱,建議和主機名一致
path.data: /data/es-data ? ? ? ? ? ? ? ? ? ? ? ??# 數據存放的路徑
path.logs: /var/log/elasticsearch/ ? ? ? ? ? ??# 日志存放的路徑
bootstrap.mlockall: true ? ? ? ? ? ? ? ? ? ? ? ??# 鎖住內存,不被使用到交換分區去
network.host: 0.0.0.0 ? ? ? ? ? ? ? ? ? ? ? ? ? ?# 網絡設置
http.port: 9200 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?# 端口

2)啟動并查看
[root@elk-node1 ~]# chown -R elasticsearch.elasticsearch /data/
[root@elk-node1 ~]# systemctl start elasticsearch
[root@elk-node1 ~]# systemctl status elasticsearch
CGroup: /system.slice/elasticsearch.service
└─3005 /bin/java -Xms256m?-Xmx1g?-Djava.awt.headless=true -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:CMSI...

注意:上面可以看出elasticsearch設置的內存最小256m,最大1g

[root@linux-node1 src]# netstat -antlp |egrep "9200|9300"
tcp6 0 0 :::9200 :::* LISTEN 3005/java?
tcp6 0 0 :::9300 :::* LISTEN 3005/java

然后通過web訪問(訪問的瀏覽器最好用google瀏覽器)

http://112.110.115.10:19200/

3)通過命令的方式查看數據(在112.110.115.10宿主機或其他外網服務器上查看,如下)
[root@kvm-server src]#?curl -i -XGET 'http://192.168.1.160:9200/_count?pretty' -d '{"query":{"match_all":{}}}'
HTTP/1.1 200 OK
Content-Type: application/json; charset=UTF-8
Content-Length: 95

{
"count" : 0,
"_shards" : {
"total" : 0,
"successful" : 0,
"failed" : 0
}
}

這樣感覺用命令來查看,特別的不爽。

4)接下來安裝插件,使用插件進行查看~ ?(下面兩個插件要在elk-node1和elk-node2上都要安裝)
4.1)安裝head插件
----------------------------------------------------------------------------------------------------
a)插件安裝方法一
[root@elk-node1 src]# /usr/share/elasticsearch/bin/plugin install mobz/elasticsearch-head

b)插件安裝方法二
首先下載head插件,下載到/usr/loca/src目錄下
下載地址:https://github.com/mobz/elasticsearch-head

----------------------------------------------------------------
head插件包百度云盤下載:https://pan.baidu.com/s/1boBE0qj
提取密碼:ifj7
----------------------------------------------------------------

[root@elk-node1 src]# unzip elasticsearch-head-master.zip
[root@elk-node1 src]# ls
elasticsearch-head-master elasticsearch-head-master.zip

在/usr/share/elasticsearch/plugins目錄下創建head目錄
然后將上面下載的elasticsearch-head-master.zip解壓后的文件都移到/usr/share/elasticsearch/plugins/head下
接著重啟elasticsearch服務即可!
[root@elk-node1 src]# cd /usr/share/elasticsearch/plugins/
[root@elk-node1 plugins]# mkdir head
[root@elk-node1 plugins]# ls
head
[root@elk-node1 plugins]# cd head
[root@elk-node1 head]# cp -r /usr/local/src/elasticsearch-head-master/* ./
[root@elk-node1 head]# pwd
/usr/share/elasticsearch/plugins/head

[root@elk-node1 head]# chown -R elasticsearch:elasticsearch /usr/share/elasticsearch/plugins
[root@elk-node1 head]# ll
total 40
-rw-r--r--. 1 elasticsearch elasticsearch 104 Sep 28 01:57 elasticsearch-head.sublime-project
-rw-r--r--. 1 elasticsearch elasticsearch 2171 Sep 28 01:57 Gruntfile.js
-rw-r--r--. 1 elasticsearch elasticsearch 3482 Sep 28 01:57 grunt_fileSets.js
-rw-r--r--. 1 elasticsearch elasticsearch 1085 Sep 28 01:57 index.html
-rw-r--r--. 1 elasticsearch elasticsearch 559 Sep 28 01:57 LICENCE
-rw-r--r--. 1 elasticsearch elasticsearch 795 Sep 28 01:57 package.json
-rw-r--r--. 1 elasticsearch elasticsearch 100 Sep 28 01:57 plugin-descriptor.properties
-rw-r--r--. 1 elasticsearch elasticsearch 5211 Sep 28 01:57 README.textile
drwxr-xr-x. 5 elasticsearch elasticsearch 4096 Sep 28 01:57 _site
drwxr-xr-x. 4 elasticsearch elasticsearch 29 Sep 28 01:57 src
drwxr-xr-x. 4 elasticsearch elasticsearch 66 Sep 28 01:57 test

[root@elk-node1 _site]# systemctl restart elasticsearch
-----------------------------------------------------------------------------------------------------

插件訪問(最好提前將elk-node2節點的配置和插件都安裝后,再來進行訪問和數據插入測試)
http://112.110.115.10:19200/_plugin/head/

先插入數據實例,測試下
如下:打開”復合查詢“,在POST選項下,任意輸入如/index-demo/test,然后在下面輸入數據(注意內容之間換行的逗號不要漏掉)
數據輸入好之后(如下輸入wangshibo;hello world內容),下面點擊”驗證JSON“->”提交請求“,提交成功后,觀察右欄里出現的信息:有index,type,version等信息,failed:0(成功消息)

再查看測試實例,如下:
"復合查詢"下,選擇GET選項在/index-demo/test/后面輸入上面POST結果中的id號不輸入內容,即{}括號里為空
然后點擊”驗證JSON“->"提交請求",觀察右欄內就有了上面插入的數據了(即wangshibo,hello world)

打開"基本查詢",查看下數據,如下,即可查詢到上面插入的數據:

打開“數據瀏覽”,也能查看到插入的數據:

?

如下:一定要提前在elk-node2節點上也完成配置(配置內容在下面提到),否則上面插入數據后,集群狀態會呈現黃色yellow狀態,elk-node2完成配置加入到集群里后就會恢復到正常的綠色狀態。

4.2)安裝kopf監控插件
--------------------------------------------------------------------------------------------------------------------

a)監控插件安裝方法一

[root@elk-node1 src]# /usr/share/elasticsearch/bin/plugin install lmenezes/elasticsearch-kopf

b)監控插件安裝方法二

首先下載監控插件kopf,下載到/usr/loca/src目錄下
下載地址:https://github.com/lmenezes/elasticsearch-kopf

----------------------------------------------------------------
kopf插件包百度云盤下載:https://pan.baidu.com/s/1qYixSL2
提取密碼:ya4t
----------------------------------------------------------------

[root@elk-node1 src]# unzip elasticsearch-kopf-master.zip
[root@elk-node1 src]# ls
elasticsearch-kopf-master elasticsearch-kopf-master.zip


在/usr/share/elasticsearch/plugins目錄下創建kopf目錄
然后將上面下載的elasticsearch-kopf-master.zip解壓后的文件都移到/usr/share/elasticsearch/plugins/kopf下
接著重啟elasticsearch服務即可!
[root@elk-node1 src]# cd /usr/share/elasticsearch/plugins/
[root@elk-node1 plugins]# mkdir kopf
[root@elk-node1 plugins]# cd kopf
[root@elk-node1 kopf]# cp -r /usr/local/src/elasticsearch-kopf-master/* ./
[root@elk-node1 kopf]# pwd
/usr/share/elasticsearch/plugins/kopf

[root@elk-node1 kopf]# chown -R elasticsearch:elasticsearch /usr/share/elasticsearch/plugins
[root@elk-node1 kopf]# ll
total 40
-rw-r--r--. 1 elasticsearch elasticsearch 237 Sep 28 16:28 CHANGELOG.md
drwxr-xr-x. 2 elasticsearch elasticsearch 22 Sep 28 16:28 dataset
drwxr-xr-x. 2 elasticsearch elasticsearch 73 Sep 28 16:28 docker
-rw-r--r--. 1 elasticsearch elasticsearch 4315 Sep 28 16:28 Gruntfile.js
drwxr-xr-x. 2 elasticsearch elasticsearch 4096 Sep 28 16:28 imgs
-rw-r--r--. 1 elasticsearch elasticsearch 1083 Sep 28 16:28 LICENSE
-rw-r--r--. 1 elasticsearch elasticsearch 1276 Sep 28 16:28 package.json
-rw-r--r--. 1 elasticsearch elasticsearch 102 Sep 28 16:28 plugin-descriptor.properties
-rw-r--r--. 1 elasticsearch elasticsearch 3165 Sep 28 16:28 README.md
drwxr-xr-x. 6 elasticsearch elasticsearch 4096 Sep 28 16:28 _site
drwxr-xr-x. 4 elasticsearch elasticsearch 27 Sep 28 16:28 src
drwxr-xr-x. 4 elasticsearch elasticsearch 4096 Sep 28 16:28 tests

[root@elk-node1 _site]# systemctl restart elasticsearch

-----------------------------------------------------------------------------------------------------

訪問插件:(如下,同樣要提前安裝好elk-node2節點上的插件,否則訪問時會出現集群節點為黃色的yellow告警狀態)

http://112.110.115.10:19200/_plugin/kopf/#!/cluster

*************************************************************************
下面進行節點elk-node2的配置 ?(如上的兩個插件也在elk-node2上同樣安裝)

注釋:其實兩個的安裝配置基本上是一樣的。

[root@elk-node2 src]# mkdir -p /data/es-data?
[root@elk-node2 ~]# cat /etc/elasticsearch/elasticsearch.yml
cluster.name: huanqiu?
node.name: elk-node2
path.data: /data/es-data?
path.logs: /var/log/elasticsearch/?
bootstrap.mlockall: true?
network.host: 0.0.0.0?
http.port: 9200?
discovery.zen.ping.multicast.enabled: false
discovery.zen.ping.unicast.hosts: ["192.168.1.160", "192.168.1.161"]

# 修改權限配置
[root@elk-node2 src]# chown -R elasticsearch.elasticsearch /data/

# 啟動服務
[root@elk-node2 src]# systemctl start elasticsearch
[root@elk-node2 src]# systemctl status elasticsearch
● elasticsearch.service - Elasticsearch
Loaded: loaded (/usr/lib/systemd/system/elasticsearch.service; enabled; vendor preset: disabled)
Active: active (running) since Wed 2016-09-28 16:49:41 CST; 1 weeks 3 days ago
Docs: http://www.elastic.co
Process: 17798 ExecStartPre=/usr/share/elasticsearch/bin/elasticsearch-systemd-pre-exec (code=exited, status=0/SUCCESS)
Main PID: 17800 (java)
CGroup: /system.slice/elasticsearch.service
└─17800 /bin/java -Xms256m -Xmx1g -Djava.awt.headless=true -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:CMSInitiatingOccupancyFra...

Oct 09 13:42:22 elk-node2 elasticsearch[17800]: [2016-10-09 13:42:22,295][WARN ][transport ] [elk-node2] Transport res...943817]
Oct 09 13:42:23 elk-node2 elasticsearch[17800]: [2016-10-09 13:42:23,111][WARN ][transport ] [elk-node2] Transport res...943846]
................
................

# 查看端口
[root@elk-node2 src]# netstat -antlp|egrep "9200|9300"
tcp6 0 0 :::9200 :::* LISTEN 2928/java?
tcp6 0 0 :::9300 :::* LISTEN 2928/java?
tcp6 0 0 127.0.0.1:48200 127.0.0.1:9300 TIME_WAIT -?
tcp6 0 0 ::1:41892 ::1:9300 TIME_WAIT -
*************************************************************************

通過命令的方式查看elk-node2數據(在112.110.115.10宿主機或其他外網服務器上查看,如下)
[root@kvm-server ~]#?curl -i -XGET 'http://192.168.1.161:9200/_count?pretty' -d '{"query":{"match_all":{}}}'
HTTP/1.1 200 OK
Content-Type: application/json; charset=UTF-8
Content-Length: 95

{
"count" : 1,
"_shards" : {
"total" : 5,
"successful" : 5,
"failed" : 0
}

然后通過web訪問elk-node2
http://112.110.115.10:19201/

?

訪問兩個插件:
http://112.110.115.10:19201/_plugin/head/
http://112.110.115.10:19201/_plugin/kopf/#!/cluster

?

?(2)Logstash安裝配置(這個在客戶機上是要安裝的。elk-node1和elk-node2都安裝)

基礎環境安裝(客戶端安裝logstash,收集到的數據寫入到elasticsearch里,就可以登陸logstash界面查看到了

1)下載并安裝GPG Key
[root@elk-node1 ~]# rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch

2)添加yum倉庫
[root@hadoop-node1 ~]# vim /etc/yum.repos.d/logstash.repo
[logstash-2.1]
name=Logstash repository for 2.1.x packages
baseurl=http://packages.elastic.co/logstash/2.1/centos
gpgcheck=1
gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch
enabled=1

3)安裝logstash
[root@elk-node1 ~]# yum install -y logstash

4)logstash啟動
[root@elk-node1 ~]# systemctl start elasticsearch
[root@elk-node1 ~]# systemctl status elasticsearch
● elasticsearch.service - Elasticsearch
Loaded: loaded (/usr/lib/systemd/system/elasticsearch.service; disabled; vendor preset: disabled)
Active: active (running) since Mon 2016-11-07 18:33:28 CST; 3 days ago
Docs: http://www.elastic.co
Main PID: 8275 (java)
CGroup: /system.slice/elasticsearch.service
└─8275 /bin/java -Xms256m -Xmx1g -Djava.awt.headless=true -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:CMSInitiatingOccupancyFrac...
..........
..........

數據的測試

1)基本的輸入輸出
[root@elk-node1 ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { stdout{} }'
Settings: Default filter workers: 1
Logstash startup completed
hello ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??#輸入這個
2016-11-11T06:41:07.690Z elk-node1 hello ? ? ? ? ? ? ? ? ? ? ? ?#輸出這個
wangshibo ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?#輸入這個
2016-11-11T06:41:10.608Z elk-node1 wangshibo ? ? ? ? ? ? ??#輸出這個

2)使用rubydebug詳細輸出
[root@elk-node1 ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { stdout{ codec => rubydebug} }'
Settings: Default filter workers: 1
Logstash startup completed
hello ??? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?#輸入這個
{ ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??#輸出下面信息
? ? ? ? ? ?"message" => "hello",
? ? ? ? ? ?"@version" => "1",
? ? ? "@timestamp" => "2016-11-11T06:44:06.711Z",
? ? ? ? ? ? ? ? ? "host" => "elk-node1"
}
wangshibo?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??#輸入這個
{ ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??#輸出下面信息
? ? ? ? ?"message" => "wangshibo",
? ? ? ? "@version" => "1",
? ?"@timestamp" => "2016-11-11T06:44:11.270Z",
? ? ? ? ? ? ? ?"host" => "elk-node1"
}

?

3) 把內容寫到elasticsearch中
[root@elk-node1 ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.1.160:9200"]} }'
Settings: Default filter workers: 1
Logstash startup completed ? ? ? ? ? ? ? ? ? ? ??#輸入下面的測試數據
123456?
wangshibo
huanqiu
hahaha

使用rubydebug和寫到elasticsearch中的區別:其實就在于后面標準輸出的區別,前者使用codec;后者使用elasticsearch

寫到elasticsearch中在logstash中查看,如下圖:
注意:
master收集到日志后,會把一部分數據碎片到salve上(隨機的一部分數據),master和slave又都會各自做副本,并把副本放到對方機器上,這樣就保證了數據不會丟失。
如下,master收集到的數據放到了自己的第1,3分片上,其他的放到了slave的第0,2,4分片上。

4)即寫到elasticsearch中又寫在文件中一份
[root@elk-node1 ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.1.160:9200"]} stdout{ codec => rubydebug}}'
Settings: Default filter workers: 1
Logstash startup completed
huanqiupc
{
? ? ? ? ? ?"message" => "huanqiupc",
? ? ? ? ? "@version" => "1",
? ? ?"@timestamp" => "2016-11-11T07:27:42.012Z",
? ? ? ? ? ? ? ? ?"host" => "elk-node1"
}
wangshiboqun
{
? ? ? ? ?"message" => "wangshiboqun",
? ? ? ? "@version" => "1",
? ?"@timestamp" => "2016-11-11T07:27:55.396Z",
? ? ? ? ? ? ? ?"host" => "elk-node1"
}

以上文本可以長期保留、操作簡單、壓縮比大。下面登陸elasticsearch界面中查看;

?

?logstash的配置和文件的編寫

1)logstash的配置
簡單的配置方式:
[root@elk-node1 ~]# vim /etc/logstash/conf.d/01-logstash.conf
input { stdin { } }
output {
? ? ? ? elasticsearch { hosts => ["192.168.1.160:9200"]}
? ? ? ? stdout { codec => rubydebug }
}

它的執行:
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f /etc/logstash/conf.d/01-logstash.conf
Settings: Default filter workers: 1
Logstash startup completed
beijing ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?#輸入內容
{ ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??#輸出下面信息
? ? ? ? ? ? ?"message" => "beijing",
? ? ? ? ? ? "@version" => "1",
? ? ? ?"@timestamp" => "2016-11-11T07:41:48.401Z",
? ? ? ? ? ? ? ? ? ?"host" => "elk-node1"
}

--------------------------------------------------------------------------------------------------
參考內容:
https://www.elastic.co/guide/en/logstash/current/configuration.html?
https://www.elastic.co/guide/en/logstash/current/configuration-file-structure.html
--------------------------------------------------------------------------------------------------

?

2)收集系統日志

123456789101112131415[root@elk-node1 ~]# vim? file.confinput {????file {??????path =>?"/var/log/messages"??????type =>?"system"??????start_position =>?"beginning"????}}output {????elasticsearch {???????hosts => ["192.168.1.160:9200"]???????index =>?"system-%{+YYYY.MM.dd}"????}}

?

執行上面日志信息的收集,如下,這個命令會一直在執行中,表示日志在監控收集中;如果中斷,就表示日志不在收集!所以需要放在后臺執行~
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f file.conf &

登陸elasticsearch界面,查看本機系統日志的信息:

?

?

--------------------------------------------------------------------------------------------------
參考內容:
https://www.elastic.co/guide/en/logstash/current/plugins-outputs-elasticsearch.html
--------------------------------------------------------------------------------------------------

3)收集java日志,其中包含上面講到的日志收集

12345678910111213141516171819202122232425262728293031323334[root@elk-node1 ~]# vim? file.confinput {????file {??????path =>?"/var/log/messages"??????type =>?"system"??????start_position =>?"beginning"????}}input {????file {???????path =>?"/var/log/elasticsearch/huanqiu.log"???????type =>?"es-error"???????start_position =>?"beginning"????}}output {????if?[type] ==?"system"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"system-%{+YYYY.MM.dd}"????????}????}????if?[type] ==?"es-error"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"es-error-%{+YYYY.MM.dd}"????????}????}}

注意:
如果你的日志中有type字段 那你就不能在conf文件中使用type

執行如下命令收集:
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f file.conf &

登陸elasticsearch界面,查看數據:

--------------------------------------------------------------------------------------------------
參考內容:
https://www.elastic.co/guide/en/logstash/current/event-dependent-configuration.html
--------------------------------------------------------------------------------------------------

---------------
有個問題:?
每個報錯都給收集成一行了,不是按照一個報錯,一個事件模塊收集的。

下面將行換成事件的方式展示:

123456789101112131415[root@elk-node1 ~]# vim multiline.confinput {????stdin {???????codec => multiline {??????????pattern =>?"^\["??????????negate =>?true??????????what =>?"previous"????????}????}}output {????stdout {??????codec =>?"rubydebug"?????}?}

執行命令:

1234567891011121314151617181920212223242526[root@elk-node1 ~]# /opt/logstash/bin/logstash -f multiline.confSettings: Default filter workers: 1Logstash startup completed123456[123{????"@timestamp"?=>?"2016-11-11T09:28:56.824Z",???????"message"?=>?"123\n456",??????"@version"?=>?"1",??????????"tags"?=> [????????[0]?"multiline"????],??????????"host"?=>?"elk-node1"}123][456]{????"@timestamp"?=>?"2016-11-11T09:29:09.043Z",???????"message"?=>?"[123\n123]",??????"@version"?=>?"1",??????????"tags"?=> [????????[0]?"multiline"????],??????????"host"?=>?"elk-node1"}

在沒有遇到[的時候,系統不會收集,只有遇見[的時候,才算是一個事件,才收集起來。
--------------------------------------------------------------------------------------------------
參考內容
https://www.elastic.co/guide/en/logstash/current/plugins-codecs-multiline.html
--------------------------------------------------------------------------------------------------

(3)Kibana安裝配置

1)kibana的安裝:
[root@elk-node1 ~]# cd /usr/local/src
[root@elk-node1 src]# wget https://download.elastic.co/kibana/kibana/kibana-4.3.1-linux-x64.tar.gz
[root@elk-node1 src]# tar zxf kibana-4.3.1-linux-x64.tar.gz
[root@elk-node1 src]# mv kibana-4.3.1-linux-x64 /usr/local/
[root@elk-node1 src]# ln -s /usr/local/kibana-4.3.1-linux-x64/ /usr/local/kibana

2)修改配置文件:
[root@elk-node1 config]# pwd
/usr/local/kibana/config
[root@elk-node1 config]# cp kibana.yml kibana.yml.bak
[root@elk-node1 config]# vim kibana.yml?
server.port: 5601
server.host: "0.0.0.0"
elasticsearch.url: "http://192.168.1.160:9200"
kibana.index: ".kibana"? ? ? ??#注意這個.Kibana索引用來存儲數據,千萬不要刪除了它。它是將es數據通過kibana進行web展示的關鍵。這個配置后,在es的web界面里就會看到這個.kibana索引。

因為他一直運行在前臺,要么選擇開一個窗口,要么選擇使用screen。
安裝并使用screen啟動kibana:
[root@elk-node1 ~]# yum -y install screen
[root@elk-node1 ~]# screen ? ? ? ? ? ? ? ? ? ? ? ? ?#這樣就另開啟了一個終端窗口
[root@elk-node1 ~]# /usr/local/kibana/bin/kibana
log [18:23:19.867] [info][status][plugin:kibana] Status changed from uninitialized to green - Ready
log [18:23:19.911] [info][status][plugin:elasticsearch] Status changed from uninitialized to yellow - Waiting for Elasticsearch
log [18:23:19.941] [info][status][plugin:kbn_vislib_vis_types] Status changed from uninitialized to green - Ready
log [18:23:19.953] [info][status][plugin:markdown_vis] Status changed from uninitialized to green - Ready
log [18:23:19.963] [info][status][plugin:metric_vis] Status changed from uninitialized to green - Ready
log [18:23:19.995] [info][status][plugin:spyModes] Status changed from uninitialized to green - Ready
log [18:23:20.004] [info][status][plugin:statusPage] Status changed from uninitialized to green - Ready
log [18:23:20.010] [info][status][plugin:table_vis] Status changed from uninitialized to green - Ready

然后按ctrl+a+d組合鍵,這樣在上面另啟的screen屏里啟動的kibana服務就一直運行在前臺了....
[root@elk-node1 ~]# screen -ls
There is a screen on:
15041.pts-0.elk-node1 (Detached)
1 Socket in /var/run/screen/S-root.

(3)訪問kibana:http://112.110.115.10:15601/
如下,如果是添加上面設置的java日志收集信息,則在下面填寫es-error*;如果是添加上面設置的系統日志信息system*,以此類型(可以從logstash界面看到日志收集項)

?然后點擊上面的Discover,在Discover中查看:

查看日志登陸,需要點擊“Discover”-->"message",點擊它后面的“add”
注意:
需要右邊查看日志內容時帶什么屬性,就在左邊點擊相應屬性后面的“add”
如下圖,添加了message和path的屬性:

這樣,右邊顯示的日志內容的屬性就帶了message和path

點擊右邊日志內容屬性后面隱藏的<<,就可將內容向前縮進

添加新的日志采集項,點擊Settings->+Add New,比如添加system系統日志。注意后面的*不要忘了。

?

?

刪除kibana里的日志采集項,如下,點擊刪除圖標即可。

?

如果打開kibana查看日志,發現沒有日志內容,出現“No results found”,如下圖所示,這說明要查看的日志在當前時間沒有日志信息輸出,可以點擊右上角的時間鐘來調試日志信息的查看。

?

4)收集nginx的訪問日志

修改nginx的配置文件,分別在nginx.conf的http和server配置區域添加下面內容:

##### http 標簽中
? ? ? ? ? log_format json '{"@timestamp":"$time_iso8601",'
? ? ? ? ? ? ? ? ? ? ? ? ? ?'"@version":"1",'
? ? ? ? ? ? ? ? ? ? ? ? ? ?'"client":"$remote_addr",'
? ? ? ? ? ? ? ? ? ? ? ? ? ?'"url":"$uri",'
? ? ? ? ? ? ? ? ? ? ? ? ? ?'"status":"$status",'
? ? ? ? ? ? ? ? ? ? ? ? ? ?'"domain":"$host",'
? ? ? ? ? ? ? ? ? ? ? ? ? ?'"host":"$server_addr",'
? ? ? ? ? ? ? ? ? ? ? ? ? ?'"size":$body_bytes_sent,'
? ? ? ? ? ? ? ? ? ? ? ? ? ?'"responsetime":$request_time,'
? ? ? ? ? ? ? ? ? ? ? ? ? ?'"referer": "$http_referer",'
? ? ? ? ? ? ? ? ? ? ? ? ? ?'"ua": "$http_user_agent"'
'}';
##### server標簽中
? ? ? ? ? ? access_log /var/log/nginx/access_json.log json;

?

截圖如下:

啟動nginx服務:

123456789101112131415161718[root@elk-node1 ~]# systemctl start nginx[root@elk-node1 ~]# systemctl status nginx● nginx.service - The nginx HTTP and reverse proxy server???Loaded: loaded (/usr/lib/systemd/system/nginx.service; disabled; vendor preset: disabled)???Active: active (running) since Fri 2016-11-11 19:06:55 CST; 3s ago??Process: 15119 ExecStart=/usr/sbin/nginx (code=exited, status=0/SUCCESS)??Process: 15116 ExecStartPre=/usr/sbin/nginx -t (code=exited, status=0/SUCCESS)??Process: 15114 ExecStartPre=/usr/bin/rm -f /run/nginx.pid (code=exited, status=0/SUCCESS)?Main PID: 15122 (nginx)???CGroup: /system.slice/nginx.service???????????├─15122 nginx: master process /usr/sbin/nginx???????????├─15123 nginx: worker process???????????└─15124 nginx: worker processNov 11 19:06:54 elk-node1 systemd[1]: Starting The nginx HTTP and reverse proxy server...Nov 11 19:06:55 elk-node1 nginx[15116]: nginx: the configuration file /etc/nginx/nginx.conf syntax is okNov 11 19:06:55 elk-node1 nginx[15116]: nginx: configuration file /etc/nginx/nginx.conf test is successfulNov 11 19:06:55 elk-node1 systemd[1]: Started The nginx HTTP and reverse proxy server.

編寫收集文件
這次使用json的方式收集:

12345678910111213[root@elk-node1 ~]# vim json.confinput {???file {??????path =>?"/var/log/nginx/access_json.log"??????codec =>?"json"???}}output {???stdout {??????codec =>?"rubydebug"???}}

啟動日志收集程序:
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f json.conf ? ? ? ?#或加個&放在后臺執行

訪問nginx頁面(在elk-node1的宿主機上執行訪問頁面的命令:curl http://192.168.1.160)就會出現以下內容:

1234567891011121314151617[root@elk-node1 ~]# /opt/logstash/bin/logstash -f json.confSettings: Default filter workers: 1Logstash startup completed{??????"@timestamp"?=>?"2016-11-11T11:10:53.000Z",????????"@version"?=>?"1",??????????"client"?=>?"192.168.1.7",?????????????"url"?=>?"/index.html",??????????"status"?=>?"200",??????????"domain"?=>?"192.168.1.160",????????????"host"?=>?"192.168.1.160",????????????"size"?=> 3700,????"responsetime"?=> 0.0,?????????"referer"?=>?"-",??????????????"ua"?=>?"curl/7.19.7 (x86_64-redhat-linux-gnu) libcurl/7.19.7 NSS/3.14.0.0 zlib/1.2.3 libidn/1.18 libssh2/1.4.2",????????????"path"?=>?"/var/log/nginx/access_json.log"}

注意:
上面的json.conf配置只是將nginx日志輸出,還沒有輸入到elasticsearch里,所以這個時候在elasticsearch界面里是采集不到nginx日志的。

需要配置一下,將nginx日志輸入到elasticsearch中,將其匯總到總文件file.conf里,如下也將nginx-log日志輸入到elasticserach里:(后續就可以只用這個匯總文件,把要追加的日志匯總到這個總文件里即可)

12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849[root@elk-node1 ~]# cat file.confinput {????file {??????path =>?"/var/log/messages"??????type =>?"system"??????start_position =>?"beginning"????}????file {???????path =>?"/var/log/elasticsearch/huanqiu.log"???????type =>?"es-error"???????start_position =>?"beginning"???????codec => multiline {???????????pattern =>?"^\["???????????negate =>?true???????????what =>?"previous"???????}????}????file {???????path =>?"/var/log/nginx/access_json.log"???????codec => json???????start_position =>?"beginning"???????type =>?"nginx-log"????}}output {????if?[type] ==?"system"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"system-%{+YYYY.MM.dd}"????????}????}????if?[type] ==?"es-error"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"es-error-%{+YYYY.MM.dd}"????????}????}????if?[type] ==?"nginx-log"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"nignx-log-%{+YYYY.MM.dd}"????????}????}}

?

可以加上--configtest參數,測試下配置文件是否有語法錯誤或配置不當的地方,這個很重要!!
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f file.conf --configtest
Configuration OK

然后接著執行logstash命令(由于上面已經將這個執行命令放到了后臺,所以這里其實不用執行,也可以先kill之前的,再放后臺執行),然后可以再訪問nginx界面測試下
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f file.conf &

登陸elasticsearch界面查看:

?將nginx日志整合到kibana界面里,如下:

?

5)收集系統日志

編寫收集文件并執行。

1234567891011121314[root@elk-node1 ~]# cat syslog.confinput {????syslog {????????type =>?"system-syslog"????????host =>?"192.168.1.160"????????port =>?"514"????}}output {????stdout {????????codec =>?"rubydebug"????}}

對上面的采集文件進行執行:
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f syslog.conf

重新開啟一個窗口,查看服務是否啟動:
[root@elk-node1 ~]# netstat -ntlp|grep 514
tcp6 0 0 192.168.1.160:514 :::* LISTEN 17842/java?
[root@elk-node1 ~]# vim /etc/rsyslog.conf
#*.* @@remote-host:514 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??【在此行下面添加如下內容】
*.* @@192.168.1.160:514

[root@elk-node1 ~]# systemctl restart rsyslog

回到原來的窗口(即上面采集文件的執行終端),就會出現數據:

1234567891011121314151617181920[root@elk-node1 ~]# /opt/logstash/bin/logstash -f syslog.confSettings: Default filter workers: 1Logstash startup completed{???????????"message"?=>?"Stopping System Logging Service...\n",??????????"@version"?=>?"1",????????"@timestamp"?=>?"2016-11-13T10:35:30.000Z",??????????????"type"?=>?"system-syslog",??????????????"host"?=>?"192.168.1.160",??????????"priority"?=> 30,?????????"timestamp"?=>?"Nov 13 18:35:30",?????????"logsource"?=>?"elk-node1",???????????"program"?=>?"systemd",??????????"severity"?=> 6,??????????"facility"?=> 3,????"facility_label"?=>?"system",????"severity_label"?=>?"Informational"}................

再次添加到總文件file.conf中:

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960[root@elk-node1 ~]# cat file.confinput {????file {??????path =>?"/var/log/messages"??????type =>?"system"??????start_position =>?"beginning"????}????file {???????path =>?"/var/log/elasticsearch/huanqiu.log"???????type =>?"es-error"???????start_position =>?"beginning"???????codec => multiline {???????????pattern =>?"^\["???????????negate =>?true???????????what =>?"previous"???????}????}????file {???????path =>?"/var/log/nginx/access_json.log"???????codec => json???????start_position =>?"beginning"???????type =>?"nginx-log"????}????syslog {????????type =>?"system-syslog"????????host =>?"192.168.1.160"????????port =>?"514"????}}output {????if?[type] ==?"system"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"system-%{+YYYY.MM.dd}"????????}????}????if?[type] ==?"es-error"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"es-error-%{+YYYY.MM.dd}"????????}????}????if?[type] ==?"nginx-log"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"nignx-log-%{+YYYY.MM.dd}"????????}????}????if?[type] ==?"system-syslog"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"system-syslog-%{+YYYY.MM.dd}"????????}????}}

執行總文件(先測試下總文件配置是否有誤,然后先kill之前在后臺啟動的file.conf文件,再次執行):
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f file.conf?--configtest
Configuration OK
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f file.conf &

測試:
向日志中添加數據,看elasticsearch和kibana的變化:
[root@elk-node1 ~]# logger "hehehehehehe1"
[root@elk-node1 ~]# logger "hehehehehehe2"
[root@elk-node1 ~]# logger "hehehehehehe3"
[root@elk-node1 ~]# logger "hehehehehehe4"
[root@elk-node1 ~]# logger "hehehehehehe5"

添加到kibana界面中:

?

?

6)TCP日志的收集

編寫日志收集文件,并執行:(有需要的話,可以將下面收集文件的配置匯總到上面的總文件file.conf里,進而輸入到elasticsearch界面里和kibana里查看)
[root@elk-node1 ~]# cat tcp.conf
input {
tcp {
host => "192.168.1.160"
port => "6666"
}
}
output {
stdout {
codec => "rubydebug"
}
}

[root@elk-node1 ~]# /opt/logstash/bin/logstash -f tcp.conf

開啟另外一個窗口,測試一(安裝nc命令:yum install -y nc):
[root@elk-node1 ~]# nc 192.168.1.160 6666 </etc/resolv.conf

回到原來的窗口(即上面采集文件的執行終端),就會出現數據:
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f tcp.conf?
Settings: Default filter workers: 1
Logstash startup completed
{
? ? ? ? "message" => "",
? ? ? ?"@version" => "1",
? ?"@timestamp" => "2016-11-13T11:01:15.280Z",
? ? ? ? ? ? ? "host" => "192.168.1.160",
? ? ? ? ? ? ? "port" => 49743
}

測試二:
[root@elk-node1 ~]# echo "hehe" | nc 192.168.1.160 6666
[root@elk-node1 ~]# echo "hehe" > /dev/tcp/192.168.1.160/6666

回到之前的執行端口,在去查看,就會顯示出來:

1234567891011121314151617[root@elk-node1 ~]# /opt/logstash/bin/logstash -f tcp.confSettings: Default filter workers: 1Logstash startup completed<br>.......{???????"message"?=>?"hehe",??????"@version"?=>?"1",????"@timestamp"?=>?"2016-11-13T11:39:58.263Z",??????????"host"?=>?"192.168.1.160",??????????"port"?=> 53432}{???????"message"?=>?"hehe",??????"@version"?=>?"1",????"@timestamp"?=>?"2016-11-13T11:40:13.458Z",??????????"host"?=>?"192.168.1.160",??????????"port"?=> 53457}

7)使用filter
編寫文件:

1234567891011121314[root@elk-node1 ~]# cat grok.confinput {????stdin{}}filter {??grok {????match => {?"message"?=>?"%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}"?}??}}output {????stdout{????????codec =>?"rubydebug"????}}

執行檢測:

123456789101112131415[root@elk-node1 ~]# /opt/logstash/bin/logstash -f grok.confSettings: Default filter workers: 1Logstash startup completed55.3.244.1 GET /index.html 15824 0.043??????????????????? #輸入這個,下面就會自動形成字典的形式{???????"message"?=>?"55.3.244.1 GET /index.html 15824 0.043",??????"@version"?=>?"1",????"@timestamp"?=>?"2016-11-13T11:45:47.882Z",??????????"host"?=>?"elk-node1",????????"client"?=>?"55.3.244.1",????????"method"?=>?"GET",???????"request"?=>?"/index.html",?????????"bytes"?=>?"15824",??????"duration"?=>?"0.043"}

其實上面使用的那些變量在程序中都有定義:

1234567891011121314151617181920212223[root@elk-node1 ~]# cd /opt/logstash/vendor/bundle/jruby/1.9/gems/logstash-patterns-core-2.0.2/patterns/[root@elk-node1 patterns]# lsaws???? bro?? firewalls????? haproxy? junos???????? mcollective?????????? mongodb? postgresql? redisbacula? exim? grok-patterns? java???? linux-syslog? mcollective-patterns? nagios?? rails?????? ruby[root@elk-node1 patterns]# cat grok-patternsfilter {??????# drop sleep events????grok {????????match => {?"message"?=>"SELECT SLEEP"?}????????add_tag => [?"sleep_drop"?]????????tag_on_failure => [] # prevent?default?_grokparsefailure tag?on?real records??????}?????if?"sleep_drop"?in?[tags] {????????drop {}?????}?????grok {????????match => [?"message",?"(?m)^# User@Host: %{USER:user}\[[^\]]+\] @ (?:(?<clienthost>\S*) )?\[(?:%{IP:clientip})?\]\s+Id: %{NUMBER:row_id:int}\s*# Query_time: %{NUMBER:query_time:float}\s+Lock_time: %{NUMBER:lock_time:float}\s+Rows_sent: %{NUMBER:rows_sent:int}\s+Rows_examined: %{NUMBER:rows_examined:int}\s*(?:use %{DATA:database};\s*)?SET timestamp=%{NUMBER:timestamp};\s*(?<query>(?<action>\w+)\s+.*)\n#\s*"?]??????}??????date {????????match => [?"timestamp",?"UNIX"?]????????remove_field => [?"timestamp"?]??????}}

8)mysql慢查詢

收集文件:

1234567891011121314151617181920212223242526272829303132333435363738[root@elk-node1 ~]# cat mysql-slow.confinput {????file {????????path =>?"/root/slow.log"????????type =>?"mysql-slowlog"????????codec => multiline {????????????pattern =>?"^# User@Host"????????????negate =>?true????????????what =>?"previous"????????}????}}filter {??????# drop sleep events????grok {????????match => {?"message"?=>"SELECT SLEEP"?}????????add_tag => [?"sleep_drop"?]????????tag_on_failure => [] # prevent?default?_grokparsefailure tag?on?real records??????}?????if?"sleep_drop"?in?[tags] {????????drop {}?????}?????grok {????????match => [?"message",?"(?m)^# User@Host: %{USER:user}\[[^\]]+\] @ (?:(?<clienthost>\S*) )?\[(?:%{IP:clientip})?\]\s+Id: %{NUMBER:row_id:int}\s*# Query_time: %{NUMBER:query_time:float}\s+Lock_time: %{NUMBER:lock_time:float}\s+Rows_sent: %{NUMBER:rows_sent:int}\s+Rows_examined: %{NUMBER:rows_examined:int}\s*(?:use %{DATA:database};\s*)?SET timestamp=%{NUMBER:timestamp};\s*(?<query>(?<action>\w+)\s+.*)\n#\s*"?]??????}??????date {????????match => [?"timestamp",?"UNIX"?]????????remove_field => [?"timestamp"?]??????}}output {????stdout {???????codec =>"rubydebug"????}}

執行檢測:
上面需要的/root/slow.log是自己上傳的,然后自己插入數據保存后,會顯示:

12345678910111213141516171819202122232425262728[root@elk-node1 ~]# /opt/logstash/bin/logstash -f mysql-slow.confSettings: Default filter workers: 1Logstash startup completed{????"@timestamp"?=>?"2016-11-14T06:53:54.100Z",???????"message"?=>?"# Time: 161114 11:05:18",??????"@version"?=>?"1",??????????"path"?=>?"/root/slow.log",??????????"host"?=>?"elk-node1",??????????"type"?=>?"mysql-slowlog",??????????"tags"?=> [????????[0]?"_grokparsefailure"????]}{????"@timestamp"?=>?"2016-11-14T06:53:54.105Z",???????"message"?=>?"# User@Host: test[test] @? [124.65.197.154]\n# Query_time: 1.725889? Lock_time: 0.000430 Rows_sent: 0? Rows_examined: 0\nuse test_zh_o2o_db;\nSET timestamp=1479092718;\nSELECT trigger_name, event_manipulation, event_object_table, action_statement, action_timing, DEFINER FROM information_schema.triggers WHERE BINARY event_object_schema='test_zh_o2o_db' AND BINARY event_object_table='customer';\n# Time: 161114 12:10:30",??????"@version"?=>?"1",??????????"tags"?=> [????????[0]?"multiline",????????[1]?"_grokparsefailure"????],??????????"path"?=>?"/root/slow.log",??????????"host"?=>?"elk-node1",??????????"type"?=>?"mysql-slowlog"}..................

?

----------------------------------------------------------------------------------------------------------------------------------
接下來描述會遇見到的一個問題:
一旦我們的elasticsearch出現問題,就不能進行日志采集處理了!
這種情況下該怎么辦呢?

解決方案;
可以在client和elasticsearch之間添加一個中間件作為緩存,先將采集到的日志內容寫到中間件上,然后再從中間件輸入到elasticsearch中。
這就完美的解決了上述的問題了。

(4)ELK中使用redis作為中間件,緩存日志采集內容

1)redis的配置和啟動

[root@elk-node1 ~]# vim /etc/redis.conf ? ? ? ? ? ? ??#修改下面兩行內容
daemonize yes
bind 192.168.1.160
[root@elk-node1 ~]# systemctl start redis
[root@elk-node1 ~]# lsof -i:6379
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
redis-ser 19474 redis 4u IPv4 1344465 0t0 TCP elk-node1:6379 (LISTEN)
[root@elk-node1 ~]# redis-cli -h 192.168.1.160
192.168.1.160:6379> info
# Server
redis_version:2.8.19
.......

2)編寫從Client端收集數據的文件

1234567891011121314[root@elk-node1 ~]# vim redis-out.confinput {???stdin {}}output {???redis {??????host =>?"192.168.1.160"??????port =>?"6379"??????db =>?"6"??????data_type =>?"list"??????key =>?"demo"???}}

3)執行收集數據的文件,并輸入數據hello redis?

[root@elk-node1 ~]# /opt/logstash/bin/logstash -f redis-out.conf?
Settings: Default filter workers: 1
Logstash startup completed ? ? ? ? ? ??#下面輸入數據hello redis
hello redis

4)在redis中查看數據

[root@elk-node1 ~]# redis-cli -h 192.168.1.160
192.168.1.160:6379>?info
# Server
.......
.......
# Keyspace
db6:keys=1,expires=0,avg_ttl=0 ? ? ? ? ? ? ? ? ??#在最下面一行,顯示是db6
192.168.1.160:6379>?select 6
OK
192.168.1.160:6379[6]>?keys *
1) "demo"
192.168.1.160:6379[6]>?LINDEX demo -1
"{\"message\":\"hello redis\",\"@version\":\"1\",\"@timestamp\":\"2016-11-14T08:04:25.981Z\",\"host\":\"elk-node1\"}"

5)繼續隨便寫點數據

12345678910111213141516171819202122232425262728[root@elk-node1 ~]# /opt/logstash/bin/logstash -f redis-out.confSettings: Default filter workers: 1Logstash startup completedhello redis123456asdfertwangshiboguohuihuiaswergasdfjkdfsak5423wer34rt36y7ujuio9sdjfhsdk890huanqiuhuanqiuchainhqsbasda???

6)在redis中查看

在redis中查看長度:
[root@elk-node1 ~]# redis-cli -h 192.168.1.160
192.168.1.160:6379>?info
# Server
redis_version:2.8.19
.......
.......
# Keyspace
db6:keys=1,expires=0,avg_ttl=0 ? ? ?#顯示是db6
192.168.1.160:6379>?select 6
OK
192.168.1.160:6379[6]>?keys *
1) "demo"
192.168.1.160:6379[6]>?LLEN demo
(integer) 24

?

7)將redis中的內容寫到ES中

1234567891011121314151617[root@elk-node1 ~]# vim redis-in.confinput {????redis {??????host =>?"192.168.1.160"??????port =>?"6379"??????db =>?"6"??????data_type =>?"list"??????key =>?"demo"???}}output {????elasticsearch {??????hosts => ["192.168.1.160:9200"]??????index =>?"redis-in-%{+YYYY.MM.dd}"????}}

執行:
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f redis-in.conf --configtest
Configuration OK
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f redis-in.conf &

在redis中查看,發現數據已被讀出:
192.168.1.160:6379[6]> LLEN demo
(integer) 0

登陸elasticsearch界面查看:

?

?

8)接著,將收集到的所有日志寫入到redis中。這了重新定義一個添加redis緩存后的總文件shipper.conf。(可以將之前執行的總文件file.conf停掉)

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172[root@elk-node1 ~]# vim shipper.confinput {????file {??????path =>?"/var/log/messages"??????type =>?"system"??????start_position =>?"beginning"????}??????file {???????path =>?"/var/log/elasticsearch/huanqiu.log"???????type =>?"es-error"???????start_position =>?"beginning"???????codec => multiline {???????????pattern =>?"^\["???????????negate =>?true???????????what =>?"previous"???????}????}????file {???????path =>?"/var/log/nginx/access_json.log"???????codec => json???????start_position =>?"beginning"???????type =>?"nginx-log"????}????syslog {????????type =>?"system-syslog"????????host =>?"192.168.1.160"????????port =>?"514"????}??}????output {???if?[type] ==?"system"{?????redis {????????host =>?"192.168.1.160"????????port =>?"6379"????????db =>?"6"????????data_type =>?"list"????????key =>?"system"?????}???}??????if?[type] ==?"es-error"{??????redis {????????host =>?"192.168.1.160"????????port =>?"6379"????????db =>?"6"????????data_type =>?"list"????????key =>?"demo"????????}?????}????if?[type] ==?"nginx-log"{??????????redis {??????????host =>?"192.168.1.160"??????????port =>?"6379"??????????db =>?"6"??????????data_type =>?"list"??????????key =>?"nginx-log"???????}????}????if?[type] ==?"system-syslog"{???????redis {??????????host =>?"192.168.1.160"??????????port =>?"6379"??????????db =>?"6"??????????data_type =>?"list"??????????key =>?"system-syslog"???????}????????}}

執行上面的文件(提前將上面之前啟動的file.conf文件的執行給結束掉!)
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f shipper.conf --configtest
Configuration OK
[root@elk-node1 ~]# /opt/logstash/bin/logstash -f shipper.conf
Settings: Default filter workers: 1
Logstash startup completed

在redis中查看:
[root@elk-node1 ~]# redis-cli -h 192.168.1.160
192.168.1.160:6379>?info
# Server
redis_version:2.8.19
.......
.......
# Keyspace
db6:keys=1,expires=0,avg_ttl=0 ? ? ? ? ? ? ? ? ? ? ?#顯示是db6
192.168.1.160:6379>?select 6
OK
192.168.1.160:6379[6]>?keys *
1) "demo"
2) "system"
192.168.1.160:6379[6]>?keys *
1) "nginx-log"
2) "demo"
3) "system"

另開一個窗口,添加點日志:
[root@elk-node1 ~]# logger "12325423"
[root@elk-node1 ~]# logger "12325423"
[root@elk-node1 ~]# logger "12325423"
[root@elk-node1 ~]# logger "12325423"
[root@elk-node1 ~]# logger "12325423"
[root@elk-node1 ~]# logger "12325423"

又會增加日志:
192.168.1.160:6379[6]>?keys *
1) "system-syslog"
2) "nginx-log"
3) "demo"
4) "system"

其實可以在任意的一臺ES中將數據從redis讀取到ES中。
下面咱們在elk-node2節點,將數據從redis讀取到ES中:

編寫文件:

12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667[root@elk-node2 ~]# cat file.confinput {?????redis {????????type =>?"system"????????host =>?"192.168.1.160"????????port =>?"6379"????????db =>?"6"????????data_type =>?"list"????????key =>?"system"?????}??????redis {????????type =>?"es-error"????????host =>?"192.168.1.160"????????port =>?"6379"????????db =>?"6"????????data_type =>?"list"????????key =>?"es-error"????????}???????redis {??????????type =>?"nginx-log"??????????host =>?"192.168.1.160"??????????port =>?"6379"??????????db =>?"6"??????????data_type =>?"list"??????????key =>?"nginx-log"???????}???????redis {??????????type =>?"system-syslog"??????????host =>?"192.168.1.160"??????????port =>?"6379"??????????db =>?"6"??????????data_type =>?"list"??????????key =>?"system-syslog"???????}???}output {????if?[type] ==?"system"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"system-%{+YYYY.MM.dd}"????????}????}????if?[type] ==?"es-error"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"es-error-%{+YYYY.MM.dd}"????????}????}????if?[type] ==?"nginx-log"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"nignx-log-%{+YYYY.MM.dd}"????????}????}????if?[type] ==?"system-syslog"{????????elasticsearch {???????????hosts => ["192.168.1.160:9200"]???????????index =>?"system-syslog-%{+YYYY.MM.dd}"????????}????}}

執行:
[root@elk-node2 ~]# /opt/logstash/bin/logstash -f file.conf --configtest
Configuration OK
[root@elk-node2 ~]# /opt/logstash/bin/logstash -f file.conf &

去redis中檢查,發現數據已經被讀出到elasticsearch中了。
192.168.1.160:6379[6]> keys *
(empty list or set)

同時登陸logstash和kibana看,發現可以正常收集到日志了

可以執行這個 去查看nginx日志?
[root@elk-node1 ~]# ab -n10000 -c1 http://192.168.1.160/

也可以啟動多個redis寫到ES中,具體根據自己的實際情況而定。

==============logstash配置java環境===============
由于新版的ELK環境要求java1.8,但是有些服務器由于業務代碼自身限制只能用java6或java7。
這種情況下,要安裝Logstash,就只能單獨配置Logstas自己使用的java環境了。

1234567891011121314151617操作如下:0) 使用rpm包安裝logstash1)安裝java8,參考:http://www.cnblogs.com/kevingrace/p/7607442.html2)在/etc/sysconfig/logstash文件結尾添加下面兩行內容:[root@cx-app01 ~]# vim /etc/sysconfig/logstash.......JAVA_CMD=/usr/local/jdk1.8.0_172/binJAVA_HOME=/usr/local/jdk1.8.0_1723)在/opt/logstash/bin/logstash.lib.sh文件添加下面一行內容:[root@cx-app02 ~]# vim /opt/logstash/bin/logstash.lib.sh.......export?JAVA_HOME=/usr/local/jdk1.8.0_1724) 然后使用logstash收集日志,就不會報java環境錯誤了。

==================配置范例===================

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130如下的配置范例:192.168.10.44為elk的master節點,同時也是redis節點???[root@client-node01 opt]# pwd/opt[root@client-node01 opt]# cat redis-in.confinput {????file?{???????path =>?"/usr/local/tomcat8/logs/catalina.out"???????type?=>?"tomcat8-logs"???????start_position =>?"beginning"???????codec => multiline {???????????pattern =>?"^\["???????????//表示收集以"["開頭的日志信息???????????negate =>?true???????????what =>?"previous"???????}????}}???output {????if?[type] ==?"tomcat8-logs"{???????redis {??????????host =>?"192.168.10.44"??????????port =>?"6379"??????????db =>?"1"??????????data_type =>?"list"??????????key =>?"tomcat8-logs"???????}?????}}???[root@client-node01 opt]# cat redis-input.confinput {??file?{????????path =>?"/var/log/messages"????????type?=>?"systemlog"????????start_position =>?"beginning"????????stat_interval =>?"2"??}}???output {??if?[type] ==?"systemlog"?{????????redis {????????????????data_type =>?"list"????????????????host =>?"192.168.10.44"????????????????db =>?"2"????????????????port =>?"6379"????????????????key =>?"systemlog"????????}??}???}???[root@client-node01 opt]# cat file.confinput {?????redis {????????type?=>?"tomcat8-logs"????????host =>?"192.168.10.44"????????port =>?"6379"????????db =>?"1"????????data_type =>?"list"????????key =>?"tomcat8-logs"?????}??????????redis {??????????type?=>?"systemlog"??????????host =>?"192.168.10.44"??????????port =>?"6379"??????????db =>?"2"??????????data_type =>?"list"??????????key =>?"systemlog"???????}????}????????output {????????if?[type] ==?"tomcat8-logs"{????????elasticsearch {???????????hosts => ["192.168.10.44:9200"]???????????index =>?"elk-node2-tomcat8-logs-%{+YYYY.MM.dd}"????????}????}???????if?[type] ==?"systemlog"{????????elasticsearch {???????????hosts => ["192.168.10.44:9200"]???????????index =>?"elk-node2-systemlog-%{+YYYY.MM.dd}"????????}????}}??????[root@client-node01 opt]# /opt/logstash/bin/logstash -f /opt/redis-in.conf --configtestConfiguration OK[root@client-node01 opt]# /opt/logstash/bin/logstash -f /opt/redis-input.conf --configtestConfiguration OK[root@client-node01 opt]# /opt/logstash/bin/logstash -f /opt/file.conf --configtestConfiguration OK???啟動logstash[root@client-node01 opt]# /opt/logstash/bin/logstash -f /opt/redis-in.conf &[root@client-node01 opt]# /opt/logstash/bin/logstash -f /opt/redis-input.conf &[root@client-node01 opt]# /opt/logstash/bin/logstash -f /opt/file.conf &???這時候,當/usr/local/tomcat8/logs/catalina.out和/var/log/messages文件里有新日志信息寫入時,就會觸發動作,在redis里就能查看到相關信息,并查看寫入到es里。-------------------------------------------------------------------------------------------------------溫馨提示:當客戶機的日志信息收集后,經過redis剛讀到es數據庫里后,如果沒有新數據寫入,則默認在es的訪問界面里是看不到數據的,只有當日志文件里有新的日志寫入后才會觸發數據展示的動作,即es的訪問界面(http://192.168.10.44:9200/_plugin/head/)里才能看到日志數據的展示效果。-------------------------------------------------------------------------------------------------------???假設想上面兩個文件里寫入測試數據[root@client-node01 opt]# echo "hellohellohellohello" >> /var/log/messages[root@client-node01 opt]# echo "[hahahahahahhahahahahahahahahahahahah]" >> /usr/local/tomcat8/logs/catalina.out???到redis里發現有相關的key,很快就會讀到es里。可以配置到kibana里觀察。???可以先測試下日志信息是否寫到redis里?然后再測試下數據是否從redis讀到es里?一步步確定數據去向。??注意上面redis-in.conf文件中的下面設置,使用正則匹配,收集以哪些字符開頭的日志信息:pattern =>?"^\["????????????????????表示收集以"["開頭的日志信息pattern =>?"^2018"??????????????????表示收集以"2018"開頭的日志信息pattern =>?"^[a-zA-Z0-9]"???????????表示收集以字母(大小寫)或數字開頭的日志信息pattern =>?"^[a-zA-Z0-9]|[^ ]+"?????表示收集以字母(大小寫)或數字或空格的日志信息
***************當你發現自己的才華撐不起野心時,就請安靜下來學習吧***************

來源:https://www.cnblogs.com/kevingrace/p/5919021.html

總結

以上是生活随笔為你收集整理的ELK实时日志分析平台环境部署--完整记录的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

国产亚洲日韩欧美另类第八页 | 日韩av无码一区二区三区 | 狠狠噜狠狠狠狠丁香五月 | 熟妇人妻无码xxx视频 | 又色又爽又黄的美女裸体网站 | 国产香蕉尹人综合在线观看 | 精品国产一区av天美传媒 | 初尝人妻少妇中文字幕 | 好男人www社区 | 小sao货水好多真紧h无码视频 | 国产高潮视频在线观看 | 色欲av亚洲一区无码少妇 | 中文字幕 亚洲精品 第1页 | 欧美 亚洲 国产 另类 | 国产精品理论片在线观看 | 免费无码肉片在线观看 | 永久黄网站色视频免费直播 | 国产精品久久国产三级国 | 国产亚洲视频中文字幕97精品 | 正在播放老肥熟妇露脸 | 国产疯狂伦交大片 | 人妻少妇精品视频专区 | 欧美一区二区三区视频在线观看 | 国产成人亚洲综合无码 | 久久国内精品自在自线 | 欧美三级a做爰在线观看 | 色妞www精品免费视频 | 性欧美videos高清精品 | 国产日产欧产精品精品app | 日本精品人妻无码免费大全 | 国内精品人妻无码久久久影院 | 国产超级va在线观看视频 | 理论片87福利理论电影 | 青春草在线视频免费观看 | 国产综合在线观看 | 97资源共享在线视频 | 午夜性刺激在线视频免费 | 国产sm调教视频在线观看 | 日韩视频 中文字幕 视频一区 | 国产乡下妇女做爰 | 亚洲国产精品无码久久久久高潮 | 欧美激情内射喷水高潮 | 国产肉丝袜在线观看 | 国产香蕉尹人综合在线观看 | 成人aaa片一区国产精品 | av无码不卡在线观看免费 | 国产精品国产自线拍免费软件 | 成人性做爰aaa片免费看 | 亚洲国产一区二区三区在线观看 | 水蜜桃色314在线观看 | 精品国产aⅴ无码一区二区 | 国产亚洲视频中文字幕97精品 | 一个人看的www免费视频在线观看 | 亚欧洲精品在线视频免费观看 | 扒开双腿吃奶呻吟做受视频 | 国产三级精品三级男人的天堂 | 丰满少妇人妻久久久久久 | 国产香蕉尹人综合在线观看 | 国产精品人妻一区二区三区四 | 国产偷国产偷精品高清尤物 | 精品国产国产综合精品 | 欧美丰满老熟妇xxxxx性 | 国产婷婷色一区二区三区在线 | 午夜精品久久久久久久久 | 无码国模国产在线观看 | 久久视频在线观看精品 | 午夜精品久久久久久久 | 强奷人妻日本中文字幕 | 国内精品久久久久久中文字幕 | 无码人妻精品一区二区三区不卡 | 国产精品鲁鲁鲁 | 少妇一晚三次一区二区三区 | 久久精品视频在线看15 | 天下第一社区视频www日本 | 国产一区二区不卡老阿姨 | 亚洲自偷自拍另类第1页 | 亚洲一区二区三区含羞草 | 无码帝国www无码专区色综合 | 美女黄网站人色视频免费国产 | 精品国产aⅴ无码一区二区 | 亚洲一区二区三区香蕉 | 久久久久久a亚洲欧洲av冫 | 三上悠亚人妻中文字幕在线 | 国产成人精品一区二区在线小狼 | 97资源共享在线视频 | 亚洲无人区一区二区三区 | 色婷婷久久一区二区三区麻豆 | 亚洲大尺度无码无码专区 | 亚洲色欲色欲天天天www | 好爽又高潮了毛片免费下载 | 精品国产av色一区二区深夜久久 | 97se亚洲精品一区 | 成人免费视频在线观看 | 老司机亚洲精品影院无码 | 亚洲 高清 成人 动漫 | 亚洲欧美综合区丁香五月小说 | 亚洲国产精品久久久久久 | 青青久在线视频免费观看 | 日韩欧美成人免费观看 | 99久久精品日本一区二区免费 | 久久婷婷五月综合色国产香蕉 | 欧美成人免费全部网站 | 丰满人妻被黑人猛烈进入 | 久久久久久久久蜜桃 | 1000部啪啪未满十八勿入下载 | 亚洲精品午夜无码电影网 | 天堂无码人妻精品一区二区三区 | 久久亚洲中文字幕无码 | 亚洲国产精品一区二区第一页 | 夜先锋av资源网站 | 国产电影无码午夜在线播放 | 国产一区二区不卡老阿姨 | 亚洲 欧美 激情 小说 另类 | 99精品国产综合久久久久五月天 | 99精品国产综合久久久久五月天 | 十八禁真人啪啪免费网站 | 国产精品久久精品三级 | 俺去俺来也www色官网 | аⅴ资源天堂资源库在线 | 免费看男女做好爽好硬视频 | 帮老师解开蕾丝奶罩吸乳网站 | 久久久精品成人免费观看 | 动漫av一区二区在线观看 | 久久亚洲中文字幕精品一区 | 无码播放一区二区三区 | 成人免费视频在线观看 | 强伦人妻一区二区三区视频18 | 中国大陆精品视频xxxx | 精品人妻人人做人人爽 | 日韩精品成人一区二区三区 | 久久精品一区二区三区四区 | 麻花豆传媒剧国产免费mv在线 | 日韩av无码一区二区三区 | 99精品久久毛片a片 | 亚洲国产精品一区二区第一页 | 内射巨臀欧美在线视频 | 国精品人妻无码一区二区三区蜜柚 | 精品一二三区久久aaa片 | 久久精品无码一区二区三区 | 国产精品无码一区二区桃花视频 | 国产精品毛多多水多 | 婷婷色婷婷开心五月四房播播 | 国产免费观看黄av片 | 国产成人一区二区三区别 | 成人无码精品一区二区三区 | 97精品人妻一区二区三区香蕉 | 午夜精品久久久久久久 | 东京无码熟妇人妻av在线网址 | 国产亚洲精品久久久ai换 | 丁香花在线影院观看在线播放 | 精品国产一区av天美传媒 | 麻豆果冻传媒2021精品传媒一区下载 | 久久精品人人做人人综合试看 | 久久久婷婷五月亚洲97号色 | 亚洲一区二区观看播放 | 亚洲乱码日产精品bd | 亚洲国产欧美在线成人 | 夜夜夜高潮夜夜爽夜夜爰爰 | 老司机亚洲精品影院 | 日韩无套无码精品 | 又色又爽又黄的美女裸体网站 | 亚洲 日韩 欧美 成人 在线观看 | 欧美三级a做爰在线观看 | 日韩精品无码免费一区二区三区 | 久久精品无码一区二区三区 | 日韩少妇白浆无码系列 | 最近免费中文字幕中文高清百度 | 国产三级久久久精品麻豆三级 | 理论片87福利理论电影 | 国产精品久久久久久亚洲毛片 | 亚洲经典千人经典日产 | аⅴ资源天堂资源库在线 | 精品国产国产综合精品 | 久久国产36精品色熟妇 | 亚洲va中文字幕无码久久不卡 | 国产黄在线观看免费观看不卡 | 婷婷色婷婷开心五月四房播播 | 特大黑人娇小亚洲女 | av无码不卡在线观看免费 | 俺去俺来也在线www色官网 | 色综合视频一区二区三区 | 强辱丰满人妻hd中文字幕 | 中文字幕精品av一区二区五区 | 纯爱无遮挡h肉动漫在线播放 | 国产内射老熟女aaaa | 亚洲国产精品无码一区二区三区 | 国产免费观看黄av片 | 4hu四虎永久在线观看 | 亚洲人亚洲人成电影网站色 | 亚洲人成影院在线无码按摩店 | 日本一区二区三区免费高清 | 四虎永久在线精品免费网址 | 丰满肥臀大屁股熟妇激情视频 | 亚洲а∨天堂久久精品2021 | 亚洲午夜福利在线观看 | 亚洲日韩av片在线观看 | 久久综合给久久狠狠97色 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲va中文字幕无码久久不卡 | 国产亚洲精品精品国产亚洲综合 | 亚洲国产一区二区三区在线观看 | 日本又色又爽又黄的a片18禁 | 亚洲小说春色综合另类 | 日本成熟视频免费视频 | 久久zyz资源站无码中文动漫 | 久久国语露脸国产精品电影 | 图片区 小说区 区 亚洲五月 | 狠狠色欧美亚洲狠狠色www | 内射白嫩少妇超碰 | 国产成人综合色在线观看网站 | 亚洲s码欧洲m码国产av | 人妻夜夜爽天天爽三区 | 18禁黄网站男男禁片免费观看 | 无人区乱码一区二区三区 | 澳门永久av免费网站 | 免费观看黄网站 | 国产热a欧美热a在线视频 | 亚洲gv猛男gv无码男同 | 国产精品高潮呻吟av久久4虎 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 欧美日韩一区二区综合 | 久久精品女人天堂av免费观看 | 任你躁国产自任一区二区三区 | 精品午夜福利在线观看 | 国产办公室秘书无码精品99 | 丝袜美腿亚洲一区二区 | 欧美人与禽猛交狂配 | 久久国产自偷自偷免费一区调 | 国産精品久久久久久久 | 福利一区二区三区视频在线观看 | 日本乱人伦片中文三区 | 日日橹狠狠爱欧美视频 | 我要看www免费看插插视频 | 99久久无码一区人妻 | 九九综合va免费看 | 人人妻人人藻人人爽欧美一区 | 99精品无人区乱码1区2区3区 | 亚洲成色在线综合网站 | 99在线 | 亚洲 | 国产亚洲精品久久久久久 | 无码人妻精品一区二区三区下载 | 天天做天天爱天天爽综合网 | 亚洲欧洲日本综合aⅴ在线 | 国产极品美女高潮无套在线观看 | 亚洲成a人片在线观看无码3d | 日日摸天天摸爽爽狠狠97 | 麻豆蜜桃av蜜臀av色欲av | 无码国产乱人伦偷精品视频 | 丝袜足控一区二区三区 | 青青久在线视频免费观看 | 亚洲成a人片在线观看无码 | 亚洲s码欧洲m码国产av | 精品一区二区三区无码免费视频 | 日日橹狠狠爱欧美视频 | 国产精品多人p群无码 | 亚洲男女内射在线播放 | 国产成人无码av片在线观看不卡 | 国产亚洲视频中文字幕97精品 | 亚洲日韩av一区二区三区中文 | 无套内谢的新婚少妇国语播放 | 奇米影视7777久久精品 | 日韩少妇白浆无码系列 | 亚洲 欧美 激情 小说 另类 | 综合激情五月综合激情五月激情1 | 乱码午夜-极国产极内射 | 无码国产乱人伦偷精品视频 | 精品久久综合1区2区3区激情 | 亚洲の无码国产の无码步美 | 人妻aⅴ无码一区二区三区 | 色诱久久久久综合网ywww | 国产亚洲精品久久久久久久久动漫 | 国内老熟妇对白xxxxhd | 国产人妻久久精品二区三区老狼 | 少妇性l交大片欧洲热妇乱xxx | 亚洲熟熟妇xxxx | 狂野欧美性猛交免费视频 | 久久久久人妻一区精品色欧美 | 国产两女互慰高潮视频在线观看 | 国产精品无码永久免费888 | 国产熟妇另类久久久久 | 精品厕所偷拍各类美女tp嘘嘘 | √8天堂资源地址中文在线 | 女高中生第一次破苞av | 天天拍夜夜添久久精品 | 久久99久久99精品中文字幕 | 亚洲区欧美区综合区自拍区 | 亚洲欧美日韩综合久久久 | 欧美喷潮久久久xxxxx | 人人妻人人澡人人爽人人精品浪潮 | 国产精品无码久久av | 荫蒂添的好舒服视频囗交 | 无遮挡啪啪摇乳动态图 | 波多野结衣乳巨码无在线观看 | 欧美性生交xxxxx久久久 | 日韩欧美群交p片內射中文 | 亚洲日本va中文字幕 | 国产精品久久久久久无码 | 国产成人无码一二三区视频 | 日本一卡二卡不卡视频查询 | 亚洲欧洲无卡二区视頻 | 亚洲小说春色综合另类 | 少妇被黑人到高潮喷出白浆 | 国产农村乱对白刺激视频 | 国产亚洲精品久久久ai换 | 国产婷婷色一区二区三区在线 | 国产乡下妇女做爰 | 亚洲精品国偷拍自产在线观看蜜桃 | 欧美人与禽zoz0性伦交 | 高清不卡一区二区三区 | 牲欲强的熟妇农村老妇女视频 | 日产精品高潮呻吟av久久 | 国产精品美女久久久久av爽李琼 | 日韩成人一区二区三区在线观看 | 伦伦影院午夜理论片 | 午夜精品久久久久久久久 | 国产午夜精品一区二区三区嫩草 | 亚洲区欧美区综合区自拍区 | 国产精品人人爽人人做我的可爱 | 东京热男人av天堂 | 成 人 免费观看网站 | 秋霞特色aa大片 | 久久亚洲日韩精品一区二区三区 | 成人aaa片一区国产精品 | 99久久99久久免费精品蜜桃 | 丰满妇女强制高潮18xxxx | 蜜桃视频韩日免费播放 | 中文字幕无线码免费人妻 | 免费无码肉片在线观看 | 国产午夜精品一区二区三区嫩草 | 国内精品人妻无码久久久影院 | 亚洲国产精品无码久久久久高潮 | 亚洲熟女一区二区三区 | 久久天天躁狠狠躁夜夜免费观看 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 日本一区二区更新不卡 | 欧洲精品码一区二区三区免费看 | 蜜桃av抽搐高潮一区二区 | 免费视频欧美无人区码 | 亚洲精品久久久久avwww潮水 | 亚洲第一网站男人都懂 | 女高中生第一次破苞av | 亚洲中文字幕久久无码 | 无码吃奶揉捏奶头高潮视频 | 牛和人交xxxx欧美 | 狠狠cao日日穞夜夜穞av | 啦啦啦www在线观看免费视频 | 欧美放荡的少妇 | 亚洲区欧美区综合区自拍区 | 国产乡下妇女做爰 | 天海翼激烈高潮到腰振不止 | 日本精品人妻无码免费大全 | 东京一本一道一二三区 | 亚洲成av人综合在线观看 | 性欧美牲交xxxxx视频 | 激情内射亚州一区二区三区爱妻 | 亚洲乱码日产精品bd | 奇米影视888欧美在线观看 | 强奷人妻日本中文字幕 | 领导边摸边吃奶边做爽在线观看 | 亚洲国产欧美日韩精品一区二区三区 | 亚洲一区二区三区香蕉 | 色 综合 欧美 亚洲 国产 | 亚洲人成人无码网www国产 | 日韩成人一区二区三区在线观看 | 国产亚洲精品久久久ai换 | 熟女少妇在线视频播放 | 亚洲精品久久久久久久久久久 | 精品国产青草久久久久福利 | 国产精品久久久久9999小说 | 欧美阿v高清资源不卡在线播放 | 97久久国产亚洲精品超碰热 | 熟女少妇在线视频播放 | 精品一区二区三区无码免费视频 | 免费国产成人高清在线观看网站 | 久久久久免费看成人影片 | 1000部夫妻午夜免费 | 亚洲s色大片在线观看 | 中文字幕乱妇无码av在线 | 精品国产精品久久一区免费式 | 扒开双腿疯狂进出爽爽爽视频 | 国产真实伦对白全集 | 亚洲一区二区三区香蕉 | 国产精品人妻一区二区三区四 | 伦伦影院午夜理论片 | 亚洲无人区午夜福利码高清完整版 | 国产成人一区二区三区别 | 日本乱人伦片中文三区 | 亚洲人成网站免费播放 | 中文字幕精品av一区二区五区 | 最近中文2019字幕第二页 | 亚洲va中文字幕无码久久不卡 | 无码av免费一区二区三区试看 | 天堂а√在线中文在线 | 成 人 网 站国产免费观看 | 成人片黄网站色大片免费观看 | 捆绑白丝粉色jk震动捧喷白浆 | 成人性做爰aaa片免费看 | 2020久久超碰国产精品最新 | 永久免费观看国产裸体美女 | 国精品人妻无码一区二区三区蜜柚 | 亚洲午夜久久久影院 | 国产亚洲美女精品久久久2020 | 天下第一社区视频www日本 | 亚洲 激情 小说 另类 欧美 | 成人影院yy111111在线观看 | 十八禁真人啪啪免费网站 | 中文字幕人妻无码一夲道 | 亚洲国精产品一二二线 | yw尤物av无码国产在线观看 | 纯爱无遮挡h肉动漫在线播放 | 天天燥日日燥 | 免费国产黄网站在线观看 | 人妻aⅴ无码一区二区三区 | 97人妻精品一区二区三区 | 伊人久久婷婷五月综合97色 | 99久久精品日本一区二区免费 | 精品无人国产偷自产在线 | 欧美丰满少妇xxxx性 | 天堂久久天堂av色综合 | 国产性生交xxxxx无码 | 国产精品亚洲lv粉色 | 国产亚av手机在线观看 | 99麻豆久久久国产精品免费 | 丝袜美腿亚洲一区二区 | 荫蒂被男人添的好舒服爽免费视频 | 理论片87福利理论电影 | 午夜男女很黄的视频 | 无码精品国产va在线观看dvd | 人人澡人人妻人人爽人人蜜桃 | 四虎国产精品一区二区 | 国产亚洲tv在线观看 | 亚洲成av人片在线观看无码不卡 | 亚洲欧美日韩国产精品一区二区 | 天堂一区人妻无码 | 欧美激情一区二区三区成人 | 夜先锋av资源网站 | 免费网站看v片在线18禁无码 | 少妇性l交大片欧洲热妇乱xxx | 中文字幕乱妇无码av在线 | 18禁止看的免费污网站 | 精品国产成人一区二区三区 | 六月丁香婷婷色狠狠久久 | av在线亚洲欧洲日产一区二区 | 娇妻被黑人粗大高潮白浆 | 妺妺窝人体色www婷婷 | 青青青爽视频在线观看 | 少妇的肉体aa片免费 | av在线亚洲欧洲日产一区二区 | 无遮无挡爽爽免费视频 | 国产亚洲欧美日韩亚洲中文色 | 国产性生大片免费观看性 | 午夜精品一区二区三区的区别 | 亚洲最大成人网站 | 国产午夜无码精品免费看 | 97夜夜澡人人爽人人喊中国片 | 国产av无码专区亚洲a∨毛片 | 一本久道久久综合婷婷五月 | 国产精品久久久 | 亚洲 a v无 码免 费 成 人 a v | 中国大陆精品视频xxxx | www一区二区www免费 | 午夜福利不卡在线视频 | 国产精品18久久久久久麻辣 | 婷婷色婷婷开心五月四房播播 | 久久亚洲日韩精品一区二区三区 | 色偷偷人人澡人人爽人人模 | 亚洲欧洲日本综合aⅴ在线 | 中文无码伦av中文字幕 | 亚洲中文字幕av在天堂 | 色欲综合久久中文字幕网 | 中文无码成人免费视频在线观看 | 亚洲国产精品成人久久蜜臀 | 国产成人综合在线女婷五月99播放 | av无码久久久久不卡免费网站 | 欧美野外疯狂做受xxxx高潮 | 欧美成人免费全部网站 | 男女爱爱好爽视频免费看 | 思思久久99热只有频精品66 | 亚洲阿v天堂在线 | 亚洲一区二区三区国产精华液 | 亚洲精品一区国产 | 亚洲 欧美 激情 小说 另类 | 欧美精品免费观看二区 | 国产区女主播在线观看 | 一区二区传媒有限公司 | 亚洲成av人片在线观看无码不卡 | 亚洲精品成a人在线观看 | 免费国产成人高清在线观看网站 | 久久亚洲中文字幕精品一区 | 国内精品久久久久久中文字幕 | 国产精品久久精品三级 | 大地资源中文第3页 | 午夜时刻免费入口 | 成人亚洲精品久久久久 | 天堂а√在线中文在线 | 亚洲一区二区三区国产精华液 | 亚洲乱码国产乱码精品精 | 亚洲高清偷拍一区二区三区 | 国产精品久久国产三级国 | 无码人妻精品一区二区三区不卡 | 熟女俱乐部五十路六十路av | 亚洲小说春色综合另类 | 久久99精品国产麻豆 | 内射巨臀欧美在线视频 | 男人的天堂av网站 | 国产乱码精品一品二品 | 亚洲欧美日韩综合久久久 | 自拍偷自拍亚洲精品10p | 亚洲人成网站在线播放942 | 亚洲 a v无 码免 费 成 人 a v | 亚洲精品国产第一综合99久久 | 国产成人午夜福利在线播放 | 亚洲精品久久久久中文第一幕 | 亚洲人成人无码网www国产 | 中文字幕人成乱码熟女app | 两性色午夜免费视频 | 人人澡人人妻人人爽人人蜜桃 | 精品无人区无码乱码毛片国产 | 天天综合网天天综合色 | 日韩欧美中文字幕公布 | 精品无码成人片一区二区98 | 无码人妻久久一区二区三区不卡 | 无码人妻久久一区二区三区不卡 | 一个人看的www免费视频在线观看 | 97精品人妻一区二区三区香蕉 | 久久久久av无码免费网 | 国产高清不卡无码视频 | 少妇性荡欲午夜性开放视频剧场 | 两性色午夜免费视频 | 亚洲色www成人永久网址 | 日韩人妻系列无码专区 | av在线亚洲欧洲日产一区二区 | 久久久婷婷五月亚洲97号色 | 亚洲成熟女人毛毛耸耸多 | 美女黄网站人色视频免费国产 | 国产麻豆精品一区二区三区v视界 | 国产福利视频一区二区 | 人妻少妇精品无码专区二区 | 免费播放一区二区三区 | 午夜福利不卡在线视频 | 欧美日韩人成综合在线播放 | 蜜桃av抽搐高潮一区二区 | 中文字幕无码乱人伦 | 久精品国产欧美亚洲色aⅴ大片 | 国产午夜视频在线观看 | 中文字幕乱码人妻二区三区 | 亚洲性无码av中文字幕 | 国产成人无码a区在线观看视频app | 欧美黑人性暴力猛交喷水 | 在线成人www免费观看视频 | 亚洲中文字幕成人无码 | 欧美亚洲日韩国产人成在线播放 | 无遮挡啪啪摇乳动态图 | 丰满少妇高潮惨叫视频 | 亚洲а∨天堂久久精品2021 | 色欲人妻aaaaaaa无码 | 国产肉丝袜在线观看 | 国产猛烈高潮尖叫视频免费 | 久久久久av无码免费网 | 国产一精品一av一免费 | 成人综合网亚洲伊人 | 国产精品a成v人在线播放 | 精品国产一区二区三区四区 | 精品国产一区二区三区四区 | 久久国产精品偷任你爽任你 | 综合激情五月综合激情五月激情1 | 精品久久久久久亚洲精品 | 免费无码av一区二区 | 无人区乱码一区二区三区 | 精品国产精品久久一区免费式 | www国产亚洲精品久久网站 | 国产精品办公室沙发 | aⅴ亚洲 日韩 色 图网站 播放 | 久久天天躁狠狠躁夜夜免费观看 | 欧美高清在线精品一区 | 国产一精品一av一免费 | 久久aⅴ免费观看 | 日本丰满熟妇videos | 亚洲 高清 成人 动漫 | 小sao货水好多真紧h无码视频 | 免费无码肉片在线观看 | 鲁鲁鲁爽爽爽在线视频观看 | 国内少妇偷人精品视频免费 | 麻豆精产国品 | 99久久无码一区人妻 | 亚洲国产av精品一区二区蜜芽 | 欧美 日韩 亚洲 在线 | 亚洲国产av美女网站 | 思思久久99热只有频精品66 | 波多野结衣乳巨码无在线观看 | 夜夜躁日日躁狠狠久久av | 兔费看少妇性l交大片免费 | 澳门永久av免费网站 | a片在线免费观看 | 国产精品亚洲а∨无码播放麻豆 | 精品久久久久久人妻无码中文字幕 | 欧美兽交xxxx×视频 | 又黄又爽又色的视频 | 国产成人精品视频ⅴa片软件竹菊 | 亚洲国产综合无码一区 | 国产无遮挡又黄又爽免费视频 | 性生交大片免费看女人按摩摩 | 妺妺窝人体色www在线小说 | 成 人影片 免费观看 | 亚洲欧美综合区丁香五月小说 | 国产在线aaa片一区二区99 | 1000部啪啪未满十八勿入下载 | 欧美激情一区二区三区成人 | 国产av久久久久精东av | 亚洲欧美日韩国产精品一区二区 | 亚洲国产午夜精品理论片 | 又大又硬又黄的免费视频 | 亚洲国产高清在线观看视频 | 久久亚洲a片com人成 | 动漫av一区二区在线观看 | 小泽玛莉亚一区二区视频在线 | 久久99国产综合精品 | 99视频精品全部免费免费观看 | 久久久久免费看成人影片 | 在线天堂新版最新版在线8 | 日本一区二区三区免费播放 | 国产内射老熟女aaaa | 丝袜美腿亚洲一区二区 | 麻豆精品国产精华精华液好用吗 | 无码国产乱人伦偷精品视频 | 欧美亚洲国产一区二区三区 | 久久久无码中文字幕久... | 亚洲国产精品美女久久久久 | 高潮喷水的毛片 | 激情综合激情五月俺也去 | 欧美日韩一区二区免费视频 | 永久黄网站色视频免费直播 | 熟妇人妻激情偷爽文 | 无码av免费一区二区三区试看 | 性欧美熟妇videofreesex | 未满成年国产在线观看 | 人人妻人人藻人人爽欧美一区 | 欧美成人家庭影院 | 午夜福利试看120秒体验区 | 亚洲中文字幕在线无码一区二区 | 黑人巨大精品欧美一区二区 | 日本高清一区免费中文视频 | 国产精品无码mv在线观看 | 天下第一社区视频www日本 | 亚洲性无码av中文字幕 | 国语自产偷拍精品视频偷 | 久久综合网欧美色妞网 | 亚洲精品一区二区三区大桥未久 | 色综合久久中文娱乐网 | 日本欧美一区二区三区乱码 | 亚洲色欲色欲欲www在线 | 性生交大片免费看l | 少妇无码一区二区二三区 | 四虎永久在线精品免费网址 | 午夜福利试看120秒体验区 | 午夜丰满少妇性开放视频 | 妺妺窝人体色www在线小说 | 久9re热视频这里只有精品 | 无码av岛国片在线播放 | 少妇激情av一区二区 | 亚洲大尺度无码无码专区 | 亚洲中文字幕va福利 | 又大又硬又爽免费视频 | 人人超人人超碰超国产 | 国产内射爽爽大片视频社区在线 | 无码一区二区三区在线 | 欧美大屁股xxxxhd黑色 | 国产区女主播在线观看 | 女人被男人爽到呻吟的视频 | 亚洲欧美精品伊人久久 | 一本久久a久久精品vr综合 | 老子影院午夜精品无码 | 成人性做爰aaa片免费看 | 人人妻在人人 | 欧美丰满老熟妇xxxxx性 | 日韩精品a片一区二区三区妖精 | 人妻熟女一区 | 免费观看的无遮挡av | 天堂无码人妻精品一区二区三区 | 在线欧美精品一区二区三区 | 欧美日韩视频无码一区二区三 | 初尝人妻少妇中文字幕 | 99re在线播放 | 欧美日韩在线亚洲综合国产人 | 亚洲欧美综合区丁香五月小说 | 久久综合久久自在自线精品自 | 国产成人无码av一区二区 | 九月婷婷人人澡人人添人人爽 | 久久久久久a亚洲欧洲av冫 | 在线精品亚洲一区二区 | av无码久久久久不卡免费网站 | 国产舌乚八伦偷品w中 | 亚洲热妇无码av在线播放 | 300部国产真实乱 | 在线天堂新版最新版在线8 | 午夜肉伦伦影院 | 中文字幕精品av一区二区五区 | 国产成人无码av一区二区 | 国内揄拍国内精品人妻 | 亚洲欧洲中文日韩av乱码 | 黄网在线观看免费网站 | 精品人妻人人做人人爽 | 国产做国产爱免费视频 | 无码国产乱人伦偷精品视频 | 亚洲综合在线一区二区三区 | 国产午夜福利100集发布 | 99精品久久毛片a片 | 天天av天天av天天透 | 国产精品久久久久9999小说 | 亚洲 日韩 欧美 成人 在线观看 | 久久久久免费精品国产 | 激情五月综合色婷婷一区二区 | а√天堂www在线天堂小说 | 国内精品一区二区三区不卡 | 亚洲日韩av一区二区三区四区 | 精品欧美一区二区三区久久久 | 成在人线av无码免观看麻豆 | 欧美熟妇另类久久久久久不卡 | 久久久中文字幕日本无吗 | 蜜桃视频插满18在线观看 | 日本丰满熟妇videos | 青春草在线视频免费观看 | 国产人妻久久精品二区三区老狼 | 色婷婷香蕉在线一区二区 | 日韩视频 中文字幕 视频一区 | 国产精品视频免费播放 | 亚洲精品成a人在线观看 | 国产真实伦对白全集 | 精品一二三区久久aaa片 | 全球成人中文在线 | 成人精品一区二区三区中文字幕 | 日韩精品无码免费一区二区三区 | 一本大道伊人av久久综合 | 国产精品内射视频免费 | 无码一区二区三区在线观看 | 亚洲国产精品一区二区第一页 | 久久亚洲中文字幕精品一区 | 中文字幕日韩精品一区二区三区 | 真人与拘做受免费视频一 | 领导边摸边吃奶边做爽在线观看 | 天堂亚洲2017在线观看 | 亚拍精品一区二区三区探花 | 妺妺窝人体色www婷婷 | 日韩成人一区二区三区在线观看 | 99久久亚洲精品无码毛片 | 婷婷五月综合激情中文字幕 | 丰满人妻被黑人猛烈进入 | 色综合久久88色综合天天 | 国产黄在线观看免费观看不卡 | 国产精品久久久久7777 | av香港经典三级级 在线 | 99久久精品日本一区二区免费 | 久久久精品欧美一区二区免费 | 国模大胆一区二区三区 | 国产精品久久久久影院嫩草 | 日韩视频 中文字幕 视频一区 | 国产综合色产在线精品 | 欧美自拍另类欧美综合图片区 | 色综合久久久无码中文字幕 | 国产亲子乱弄免费视频 | 国产精品成人av在线观看 | 色综合久久久无码中文字幕 | a在线亚洲男人的天堂 | 十八禁真人啪啪免费网站 | 俺去俺来也www色官网 | 日韩精品久久久肉伦网站 | 少女韩国电视剧在线观看完整 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 亚洲色欲色欲欲www在线 | 欧美日韩亚洲国产精品 | 久久精品无码一区二区三区 | 99精品久久毛片a片 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 亚洲国产精品久久久久久 | 国产亚洲精品精品国产亚洲综合 | 久久精品国产一区二区三区肥胖 | 午夜丰满少妇性开放视频 | 2019nv天堂香蕉在线观看 | 亚洲精品国偷拍自产在线麻豆 | 丰满少妇女裸体bbw | 久久久久99精品国产片 | 99精品久久毛片a片 | 中文字幕无码av波多野吉衣 | 日日摸天天摸爽爽狠狠97 | 亚洲自偷自拍另类第1页 | 久久精品中文字幕一区 | 亚洲综合色区中文字幕 | 无码国内精品人妻少妇 | 在线 国产 欧美 亚洲 天堂 | 无码国产乱人伦偷精品视频 | 初尝人妻少妇中文字幕 | 人妻人人添人妻人人爱 | 丝袜 中出 制服 人妻 美腿 | 亚洲国产午夜精品理论片 | 国产免费观看黄av片 | 午夜嘿嘿嘿影院 | 久久国产劲爆∧v内射 | 亚洲一区二区观看播放 | 久久久久成人片免费观看蜜芽 | 免费国产黄网站在线观看 | 国产精品久久久午夜夜伦鲁鲁 | 亚洲色欲色欲欲www在线 | 日韩精品成人一区二区三区 | 性欧美熟妇videofreesex | 久久国产精品精品国产色婷婷 | 亚洲精品成a人在线观看 | 久久精品无码一区二区三区 | 国产内射爽爽大片视频社区在线 | 精品久久久久久亚洲精品 | 国产乡下妇女做爰 | 搡女人真爽免费视频大全 | 色噜噜亚洲男人的天堂 | 国产精品久久久久久久影院 | 女人被爽到呻吟gif动态图视看 | 中文字幕色婷婷在线视频 | 国产xxx69麻豆国语对白 | 成人综合网亚洲伊人 | 成在人线av无码免观看麻豆 | 无码成人精品区在线观看 | 国产精品怡红院永久免费 | 99国产精品白浆在线观看免费 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 无码国产色欲xxxxx视频 | 欧美性生交活xxxxxdddd | 人妻尝试又大又粗久久 | 精品 日韩 国产 欧美 视频 | 国产免费久久久久久无码 | 日产精品高潮呻吟av久久 | 国内精品人妻无码久久久影院 | 亚洲欧美精品aaaaaa片 | 少妇愉情理伦片bd | 麻豆人妻少妇精品无码专区 | 亚洲精品鲁一鲁一区二区三区 | 77777熟女视频在线观看 а天堂中文在线官网 | 婷婷五月综合激情中文字幕 | 2020久久香蕉国产线看观看 | 亚洲aⅴ无码成人网站国产app | 国产人妻精品一区二区三区不卡 | 性欧美熟妇videofreesex | 亚洲gv猛男gv无码男同 | 久久精品国产日本波多野结衣 | 黑人巨大精品欧美一区二区 | 国产精品人人爽人人做我的可爱 | 小sao货水好多真紧h无码视频 | aⅴ在线视频男人的天堂 | 久久久精品成人免费观看 | 伊人久久大香线蕉av一区二区 | 国产三级久久久精品麻豆三级 | 色欲av亚洲一区无码少妇 | 国产在热线精品视频 | 午夜无码人妻av大片色欲 | 国模大胆一区二区三区 | 特大黑人娇小亚洲女 | 好男人社区资源 | 国产激情无码一区二区 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲爆乳精品无码一区二区三区 | 中文字幕无码免费久久99 | 欧美一区二区三区视频在线观看 | 国产成人av免费观看 | 日本免费一区二区三区最新 | 久久综合激激的五月天 | 欧美精品国产综合久久 | 精品国偷自产在线视频 | 久热国产vs视频在线观看 | 国产无遮挡又黄又爽又色 | 国产欧美精品一区二区三区 | 人人爽人人澡人人人妻 | 少妇性l交大片欧洲热妇乱xxx | 亚洲国产一区二区三区在线观看 | 久久精品国产精品国产精品污 | 日本欧美一区二区三区乱码 | 国产成人无码a区在线观看视频app | 国产办公室秘书无码精品99 | 欧美性生交xxxxx久久久 | aⅴ亚洲 日韩 色 图网站 播放 | 国产口爆吞精在线视频 | 精品熟女少妇av免费观看 | 性欧美牲交在线视频 | 国产高清不卡无码视频 | 一区二区三区高清视频一 | 露脸叫床粗话东北少妇 | 无遮无挡爽爽免费视频 | 欧美阿v高清资源不卡在线播放 | 亚洲成a人片在线观看无码 | 青春草在线视频免费观看 | 亚洲国产精品一区二区美利坚 | 性欧美大战久久久久久久 | 欧美xxxx黑人又粗又长 | 国产精品视频免费播放 | 亚洲一区二区三区国产精华液 | 国产熟妇另类久久久久 | 久久久久亚洲精品男人的天堂 | 国产一区二区不卡老阿姨 | 国产在线精品一区二区高清不卡 | 中文字幕乱码中文乱码51精品 | 日韩精品一区二区av在线 | 国产超碰人人爽人人做人人添 | 成年女人永久免费看片 | 亚洲一区二区三区香蕉 | 荡女精品导航 | 九月婷婷人人澡人人添人人爽 | 88国产精品欧美一区二区三区 | 亚洲经典千人经典日产 | 无码任你躁久久久久久久 | 无码免费一区二区三区 | 午夜精品一区二区三区在线观看 | 亚洲熟妇色xxxxx欧美老妇 | 欧美性猛交xxxx富婆 | 国产偷自视频区视频 | 久久视频在线观看精品 | 国产人妻精品一区二区三区 | 国产成人综合美国十次 | 精品无码国产一区二区三区av | 精品一区二区三区波多野结衣 | 老熟女乱子伦 | 久久精品成人欧美大片 | 影音先锋中文字幕无码 | 婷婷六月久久综合丁香 | 色婷婷综合激情综在线播放 | a片免费视频在线观看 | 国产精品资源一区二区 | 未满成年国产在线观看 | 日韩人妻无码一区二区三区久久99 | 亚洲国产精品一区二区美利坚 | 欧美成人午夜精品久久久 | aa片在线观看视频在线播放 | 色爱情人网站 | 少妇无套内谢久久久久 | 国产舌乚八伦偷品w中 | 精品国产福利一区二区 | 国产凸凹视频一区二区 | 国产偷国产偷精品高清尤物 | 爽爽影院免费观看 | 亚洲精品无码人妻无码 | 亚洲乱码国产乱码精品精 | 久久综合给久久狠狠97色 | 亚洲无人区午夜福利码高清完整版 | 少妇人妻av毛片在线看 | 蜜桃视频插满18在线观看 | 无码一区二区三区在线 | 色一情一乱一伦一区二区三欧美 | av无码不卡在线观看免费 | 性色欲网站人妻丰满中文久久不卡 | 亚洲日韩av一区二区三区中文 | 精品欧洲av无码一区二区三区 | 成人精品视频一区二区三区尤物 | 亚洲综合另类小说色区 | 波多野结衣av一区二区全免费观看 | 国产九九九九九九九a片 | 波多野结衣高清一区二区三区 | 无码精品国产va在线观看dvd | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 国产无套内射久久久国产 | 国产精品国产自线拍免费软件 | 精品国产一区av天美传媒 | 欧美 丝袜 自拍 制服 另类 | 亚洲日韩av一区二区三区四区 | 亚洲国产精品美女久久久久 | 俺去俺来也在线www色官网 | 无码人妻精品一区二区三区不卡 | 少妇久久久久久人妻无码 | 国产农村乱对白刺激视频 | aⅴ亚洲 日韩 色 图网站 播放 | 日韩亚洲欧美精品综合 | 无码精品人妻一区二区三区av | 又粗又大又硬毛片免费看 | 国产精品久久国产三级国 | 久久精品国产99精品亚洲 | 国产精品亚洲五月天高清 | 国产舌乚八伦偷品w中 | 西西人体www44rt大胆高清 | 欧美精品在线观看 | 国产无套粉嫩白浆在线 | 99久久亚洲精品无码毛片 | 亚洲综合伊人久久大杳蕉 | 亚洲综合久久一区二区 | 强辱丰满人妻hd中文字幕 | 亚洲熟熟妇xxxx | 初尝人妻少妇中文字幕 | 国产精品对白交换视频 | 青青青手机频在线观看 | 日日摸日日碰夜夜爽av | 亚洲国产精品无码一区二区三区 | 无码人妻久久一区二区三区不卡 | 动漫av网站免费观看 | 欧美成人高清在线播放 | 亚洲高清偷拍一区二区三区 | 国产成人综合在线女婷五月99播放 | 婷婷六月久久综合丁香 | 国产成人精品久久亚洲高清不卡 | 中文字幕精品av一区二区五区 | 亚洲午夜无码久久 | 99er热精品视频 | 亚洲日韩一区二区三区 | 欧美国产日韩久久mv | 国内老熟妇对白xxxxhd | 精品偷自拍另类在线观看 | 无码午夜成人1000部免费视频 | 久久zyz资源站无码中文动漫 | 国产欧美熟妇另类久久久 | 国产午夜无码精品免费看 | 亚洲午夜无码久久 | 亚洲一区二区三区播放 | 人人妻人人藻人人爽欧美一区 | 无码人妻出轨黑人中文字幕 | 国产一精品一av一免费 | 亚洲综合无码久久精品综合 | 国语自产偷拍精品视频偷 | 无码人妻出轨黑人中文字幕 | 特大黑人娇小亚洲女 | 初尝人妻少妇中文字幕 | 久久久久久久人妻无码中文字幕爆 | 亚洲人成影院在线观看 | 欧美激情综合亚洲一二区 | 中国女人内谢69xxxx | 人妻体内射精一区二区三四 | 久久99精品国产麻豆蜜芽 | 成人性做爰aaa片免费看不忠 | 日本护士xxxxhd少妇 | 国产精品久久久久无码av色戒 | 成人无码精品1区2区3区免费看 | 国产热a欧美热a在线视频 | 亚洲经典千人经典日产 | 5858s亚洲色大成网站www | 亚洲高清偷拍一区二区三区 | 亚洲精品综合一区二区三区在线 | 99久久人妻精品免费一区 | 性欧美videos高清精品 | 窝窝午夜理论片影院 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 成熟女人特级毛片www免费 | 国产无av码在线观看 | 在线天堂新版最新版在线8 | 波多野结衣一区二区三区av免费 | 一区二区三区乱码在线 | 欧洲 | 强奷人妻日本中文字幕 | 亚洲综合久久一区二区 | 无码av中文字幕免费放 | 国产成人无码午夜视频在线观看 | 欧洲欧美人成视频在线 | 亚洲日韩中文字幕在线播放 | 在教室伦流澡到高潮hnp视频 | 日韩av无码一区二区三区不卡 | 无码午夜成人1000部免费视频 | 一二三四社区在线中文视频 | 国产精品亚洲五月天高清 | а天堂中文在线官网 | 免费乱码人妻系列无码专区 | 高潮毛片无遮挡高清免费 | 久久人人爽人人爽人人片av高清 | 亚洲а∨天堂久久精品2021 | 精品厕所偷拍各类美女tp嘘嘘 | 麻豆国产人妻欲求不满谁演的 | 久久综合九色综合97网 | 人妻少妇精品无码专区动漫 | 亚洲七七久久桃花影院 | 亚洲欧洲无卡二区视頻 | 国产激情无码一区二区 | 亚洲一区二区三区无码久久 | 亚洲日本一区二区三区在线 | 国产精品二区一区二区aⅴ污介绍 | 亚洲日韩av片在线观看 | 久久亚洲国产成人精品性色 | 国产综合久久久久鬼色 | 欧美野外疯狂做受xxxx高潮 | 国产精品国产自线拍免费软件 | 欧美日韩一区二区三区自拍 | 婷婷六月久久综合丁香 | 亚洲欧美精品伊人久久 | 国产女主播喷水视频在线观看 | 思思久久99热只有频精品66 | 国产综合在线观看 | 欧美老人巨大xxxx做受 | 97夜夜澡人人双人人人喊 | 正在播放老肥熟妇露脸 | 日日噜噜噜噜夜夜爽亚洲精品 | 无码一区二区三区在线观看 | 国产两女互慰高潮视频在线观看 | 老子影院午夜伦不卡 | 少妇厨房愉情理9仑片视频 | 久久精品国产精品国产精品污 | 午夜时刻免费入口 | 夜夜影院未满十八勿进 | 97夜夜澡人人双人人人喊 | 国产成人精品必看 | 少妇激情av一区二区 | 亚洲熟妇色xxxxx欧美老妇 | 国产高清av在线播放 | 日本精品高清一区二区 | 老太婆性杂交欧美肥老太 | 国产一区二区三区影院 | аⅴ资源天堂资源库在线 | 丰满少妇弄高潮了www | 亚洲综合精品香蕉久久网 | 无码人妻丰满熟妇区五十路百度 | 蜜桃臀无码内射一区二区三区 | 天干天干啦夜天干天2017 | 国产又爽又猛又粗的视频a片 | 中文字幕av伊人av无码av | 性色欲网站人妻丰满中文久久不卡 | 波多野结衣高清一区二区三区 | 四虎永久在线精品免费网址 | 亚洲人成影院在线无码按摩店 | 国产精品资源一区二区 | 欧美老熟妇乱xxxxx | 亚洲成av人片天堂网无码】 | 亚洲中文无码av永久不收费 | 东京热一精品无码av | 98国产精品综合一区二区三区 | 亚洲一区二区三区偷拍女厕 | 丝袜 中出 制服 人妻 美腿 | 国产无遮挡又黄又爽免费视频 | 成人无码精品1区2区3区免费看 | 欧美 日韩 人妻 高清 中文 | 亚洲一区二区三区在线观看网站 | 成人无码视频免费播放 | 国产人妻人伦精品1国产丝袜 | 精品久久久无码中文字幕 | 永久免费观看美女裸体的网站 | 内射爽无广熟女亚洲 | 久久久成人毛片无码 | 一本精品99久久精品77 | 曰韩无码二三区中文字幕 | 97久久精品无码一区二区 | 精品熟女少妇av免费观看 | 国产乱子伦视频在线播放 | 樱花草在线播放免费中文 | 中文字幕精品av一区二区五区 | 性生交片免费无码看人 | 丰满妇女强制高潮18xxxx | 四虎永久在线精品免费网址 | 精品成人av一区二区三区 | 久久久精品欧美一区二区免费 | 少妇性l交大片 | 日韩少妇白浆无码系列 | 7777奇米四色成人眼影 | 荫蒂被男人添的好舒服爽免费视频 | www成人国产高清内射 | 内射巨臀欧美在线视频 | 妺妺窝人体色www婷婷 | 精品久久久无码人妻字幂 | 午夜精品久久久久久久久 | 日本成熟视频免费视频 | 好男人社区资源 | 香港三级日本三级妇三级 | 欧美日韩一区二区三区自拍 | 亚洲人成网站在线播放942 | 成人性做爰aaa片免费看不忠 | 一个人看的www免费视频在线观看 | 草草网站影院白丝内射 | 成人片黄网站色大片免费观看 | 精品乱码久久久久久久 | 夜夜影院未满十八勿进 | 亚洲欧美日韩国产精品一区二区 | 性生交大片免费看女人按摩摩 | 国产av无码专区亚洲a∨毛片 | 欧美国产亚洲日韩在线二区 | 亚洲日本在线电影 | 成人欧美一区二区三区 | 免费无码午夜福利片69 | 超碰97人人做人人爱少妇 | 蜜桃无码一区二区三区 | 国内少妇偷人精品视频 | 亚洲精品欧美二区三区中文字幕 | 夫妻免费无码v看片 | 日本精品人妻无码免费大全 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 国产亚洲人成a在线v网站 | 免费男性肉肉影院 | 免费观看的无遮挡av | 一本加勒比波多野结衣 | 任你躁在线精品免费 | 国产激情精品一区二区三区 | 国产精品人人爽人人做我的可爱 | 久久午夜无码鲁丝片午夜精品 | 国产手机在线αⅴ片无码观看 | 亚洲精品成人福利网站 | 欧美兽交xxxx×视频 | 日韩精品久久久肉伦网站 | 一本大道久久东京热无码av | 无码帝国www无码专区色综合 | 国产成人综合色在线观看网站 | 国内揄拍国内精品人妻 | 国产在热线精品视频 | 欧美肥老太牲交大战 | 日日天干夜夜狠狠爱 | 少妇性俱乐部纵欲狂欢电影 | 久久精品无码一区二区三区 | 美女扒开屁股让男人桶 | 久久人人爽人人爽人人片ⅴ | 动漫av网站免费观看 | 国产农村妇女高潮大叫 | 国产69精品久久久久app下载 | 人妻aⅴ无码一区二区三区 | 国产乱人偷精品人妻a片 | 东京热一精品无码av | 暴力强奷在线播放无码 | 国产av久久久久精东av | 天天拍夜夜添久久精品 | 国产亚洲人成a在线v网站 | 成人欧美一区二区三区黑人免费 | 婷婷六月久久综合丁香 | 黑森林福利视频导航 | 麻豆md0077饥渴少妇 | 亚洲精品一区二区三区婷婷月 | 久久精品无码一区二区三区 | 亚洲色大成网站www | 精品无人区无码乱码毛片国产 | 国产精品无码成人午夜电影 | 一本久久a久久精品亚洲 | 日韩精品一区二区av在线 | 高清无码午夜福利视频 | 夜先锋av资源网站 | 免费无码一区二区三区蜜桃大 | 久久久久成人精品免费播放动漫 | 久久zyz资源站无码中文动漫 | 精品水蜜桃久久久久久久 | 亚洲综合伊人久久大杳蕉 | 亚洲欧洲中文日韩av乱码 | 伊人久久婷婷五月综合97色 | 亚洲a无码综合a国产av中文 | 国产女主播喷水视频在线观看 | 香港三级日本三级妇三级 | 精品偷拍一区二区三区在线看 | 俺去俺来也www色官网 | 亚洲无人区午夜福利码高清完整版 | 精品国产一区二区三区四区 | 强开小婷嫩苞又嫩又紧视频 | 曰韩少妇内射免费播放 | 少妇人妻av毛片在线看 | 久久亚洲a片com人成 | 日韩人妻系列无码专区 | 国产精品国产三级国产专播 | 欧美一区二区三区 | 国产亚洲美女精品久久久2020 | 人人超人人超碰超国产 | 国产熟妇另类久久久久 | 疯狂三人交性欧美 | 国产成人无码av在线影院 | 国产成人av免费观看 | 97无码免费人妻超级碰碰夜夜 | 亚洲乱码国产乱码精品精 | 亚洲综合精品香蕉久久网 | 久久婷婷五月综合色国产香蕉 | 欧美老妇交乱视频在线观看 | 无码一区二区三区在线 | 少妇性俱乐部纵欲狂欢电影 | www成人国产高清内射 | 狠狠色噜噜狠狠狠7777奇米 | 日本www一道久久久免费榴莲 | 国内精品一区二区三区不卡 | 人妻插b视频一区二区三区 | 久久天天躁狠狠躁夜夜免费观看 | 国产av久久久久精东av | 亚洲成av人片天堂网无码】 | 欧美国产日韩亚洲中文 | 色婷婷香蕉在线一区二区 | 国产又爽又猛又粗的视频a片 | 国产 浪潮av性色四虎 | 丝袜人妻一区二区三区 | 久久99精品国产.久久久久 | 亚洲一区二区三区四区 | 日本大乳高潮视频在线观看 | 亚洲精品久久久久avwww潮水 | 日日麻批免费40分钟无码 | 夫妻免费无码v看片 | 1000部啪啪未满十八勿入下载 | 亚洲熟妇自偷自拍另类 | 日本免费一区二区三区最新 | 日本精品人妻无码免费大全 | 亚洲精品国产a久久久久久 | 精品厕所偷拍各类美女tp嘘嘘 | 九月婷婷人人澡人人添人人爽 | 老熟女重囗味hdxx69 | 精品日本一区二区三区在线观看 | 永久免费观看美女裸体的网站 | 亚洲综合另类小说色区 | 激情爆乳一区二区三区 | 国产在线一区二区三区四区五区 | 国产精品人妻一区二区三区四 | 玩弄人妻少妇500系列视频 | 天天做天天爱天天爽综合网 | 在线天堂新版最新版在线8 | 国产精品二区一区二区aⅴ污介绍 | 天天拍夜夜添久久精品大 | 成人三级无码视频在线观看 | 国产极品美女高潮无套在线观看 | 中文字幕无线码免费人妻 | 国产手机在线αⅴ片无码观看 | 沈阳熟女露脸对白视频 | 国产办公室秘书无码精品99 | 九九在线中文字幕无码 | 久久亚洲日韩精品一区二区三区 | 日日麻批免费40分钟无码 | 少妇性l交大片 | 中文亚洲成a人片在线观看 | 国产两女互慰高潮视频在线观看 | 夜先锋av资源网站 | 国产特级毛片aaaaaa高潮流水 | 无码乱肉视频免费大全合集 | 无码精品人妻一区二区三区av | 丝袜人妻一区二区三区 | 国产三级精品三级男人的天堂 | 国产免费观看黄av片 | 狠狠亚洲超碰狼人久久 | 亚洲欧洲日本无在线码 | 网友自拍区视频精品 | 久久久久久久女国产乱让韩 | 免费无码的av片在线观看 | 日韩视频 中文字幕 视频一区 | 国产网红无码精品视频 | 精品国产青草久久久久福利 | 国产真实夫妇视频 | 久久久亚洲欧洲日产国码αv | 国产亚洲人成a在线v网站 | 免费观看黄网站 | 美女毛片一区二区三区四区 | 久久精品国产99精品亚洲 | 国产激情艳情在线看视频 | 欧美国产日韩亚洲中文 | 精品国产一区二区三区av 性色 | 熟女少妇人妻中文字幕 | 国产精品亚洲五月天高清 | 无码任你躁久久久久久久 | 一个人看的视频www在线 | 国产高清av在线播放 | 无套内射视频囯产 | 偷窥村妇洗澡毛毛多 | 亚洲精品午夜无码电影网 | 精品无码一区二区三区爱欲 | 国产成人精品久久亚洲高清不卡 | 特级做a爰片毛片免费69 | 国产精品无码成人午夜电影 | 一本久久伊人热热精品中文字幕 | 国产精品久久久久久无码 | 玩弄中年熟妇正在播放 | 亚洲啪av永久无码精品放毛片 | 成人精品视频一区二区三区尤物 | 久久国产精品偷任你爽任你 | 性色av无码免费一区二区三区 | 精品一区二区不卡无码av | 人妻体内射精一区二区三四 | 一本大道久久东京热无码av | 精品国产麻豆免费人成网站 | 精品久久久久久人妻无码中文字幕 | 福利一区二区三区视频在线观看 | 精品无码一区二区三区爱欲 | 免费网站看v片在线18禁无码 | 在线成人www免费观看视频 | 老熟妇仑乱视频一区二区 | 国产精品高潮呻吟av久久4虎 | 三上悠亚人妻中文字幕在线 | 内射巨臀欧美在线视频 | 人妻少妇被猛烈进入中文字幕 | 色婷婷av一区二区三区之红樱桃 | 东京热一精品无码av | 亚洲の无码国产の无码影院 | 日韩精品无码一本二本三本色 | 日韩精品无码一本二本三本色 | 漂亮人妻洗澡被公强 日日躁 | 亚洲国产精华液网站w | 亚洲精品综合五月久久小说 | 在教室伦流澡到高潮hnp视频 | 奇米影视7777久久精品人人爽 | 亚洲国产精品无码一区二区三区 | 黄网在线观看免费网站 | 一本久久a久久精品vr综合 | 日本大乳高潮视频在线观看 | 国产人妻久久精品二区三区老狼 | 日本丰满熟妇videos | 亚洲精品鲁一鲁一区二区三区 | 特级做a爰片毛片免费69 | 亚洲精品一区二区三区四区五区 | 国产人妻大战黑人第1集 | 久久久久免费看成人影片 | 久久久久免费精品国产 | 性欧美大战久久久久久久 | 国产特级毛片aaaaaa高潮流水 | 欧美激情一区二区三区成人 | 色综合久久中文娱乐网 | 无码人妻av免费一区二区三区 | 久久久久久久女国产乱让韩 | 无码国模国产在线观看 | 日日碰狠狠躁久久躁蜜桃 | 久久久中文久久久无码 | 88国产精品欧美一区二区三区 | 红桃av一区二区三区在线无码av | 日本大乳高潮视频在线观看 | 国产美女精品一区二区三区 | 精品国产一区av天美传媒 | 久久综合色之久久综合 | 粉嫩少妇内射浓精videos | 亚洲精品午夜国产va久久成人 | 精品国偷自产在线 | 国产农村乱对白刺激视频 | 国产精品人人妻人人爽 | 国产绳艺sm调教室论坛 | 欧美老妇交乱视频在线观看 | 亚洲中文字幕久久无码 | av无码久久久久不卡免费网站 | 国产午夜无码视频在线观看 | 国产尤物精品视频 | 无码人妻久久一区二区三区不卡 | 狠狠亚洲超碰狼人久久 | 伊在人天堂亚洲香蕉精品区 | 亚洲欧美日韩综合久久久 | 亚洲大尺度无码无码专区 | 亚洲精品一区二区三区大桥未久 | 成人片黄网站色大片免费观看 | 蜜臀av无码人妻精品 | 麻花豆传媒剧国产免费mv在线 | 久久亚洲国产成人精品性色 | 国产亚洲tv在线观看 | 国产综合久久久久鬼色 | 永久免费精品精品永久-夜色 | 午夜熟女插插xx免费视频 | 人妻少妇被猛烈进入中文字幕 | 国产亚av手机在线观看 | 日韩成人一区二区三区在线观看 | 中文字幕av伊人av无码av | 免费无码午夜福利片69 | 亚拍精品一区二区三区探花 | 国产精品久免费的黄网站 | 香蕉久久久久久av成人 | 国产国产精品人在线视 | 天天燥日日燥 | 久久精品女人的天堂av | 国产亚洲精品久久久闺蜜 | 亚洲欧美国产精品专区久久 | 国产成人无码a区在线观看视频app | 无码人妻精品一区二区三区不卡 | 18禁黄网站男男禁片免费观看 | а√天堂www在线天堂小说 | 无套内谢的新婚少妇国语播放 | 欧美日韩一区二区三区自拍 | 久久久精品欧美一区二区免费 | 伊在人天堂亚洲香蕉精品区 | 大地资源网第二页免费观看 | 中文字幕人妻丝袜二区 | 丰满少妇高潮惨叫视频 | 妺妺窝人体色www婷婷 | 日韩人妻无码中文字幕视频 | 亚洲中文字幕成人无码 | 欧美性猛交内射兽交老熟妇 | 色婷婷av一区二区三区之红樱桃 | 日韩成人一区二区三区在线观看 | 日本熟妇大屁股人妻 | 国产精品-区区久久久狼 | 台湾无码一区二区 | 亚洲国产精品久久人人爱 | 高潮喷水的毛片 | 欧美喷潮久久久xxxxx | 精品国产麻豆免费人成网站 | 成年美女黄网站色大免费全看 | 成人无码影片精品久久久 | 亚洲人成网站色7799 | 一区二区三区高清视频一 | 亚洲春色在线视频 | 亚洲日韩av一区二区三区中文 | 人妻天天爽夜夜爽一区二区 | 亚洲 a v无 码免 费 成 人 a v | 九月婷婷人人澡人人添人人爽 | 久久久久久久久888 | 一个人看的www免费视频在线观看 | 蜜桃视频插满18在线观看 | 国产偷国产偷精品高清尤物 | 欧美性生交活xxxxxdddd | 精品国产一区二区三区四区 | 午夜福利试看120秒体验区 | 日本欧美一区二区三区乱码 | 久久亚洲国产成人精品性色 | 免费看少妇作爱视频 | 亚洲成色www久久网站 | 国产精品多人p群无码 | 亚洲精品美女久久久久久久 | 人人妻人人澡人人爽欧美一区九九 | 日日噜噜噜噜夜夜爽亚洲精品 | 最新国产麻豆aⅴ精品无码 | 亚洲阿v天堂在线 | 国产精品va在线观看无码 | 国产sm调教视频在线观看 | 又湿又紧又大又爽a视频国产 | 老熟妇乱子伦牲交视频 | 国产又爽又猛又粗的视频a片 | 精品国偷自产在线视频 | 亚洲精品午夜国产va久久成人 | 欧美freesex黑人又粗又大 | 无码av免费一区二区三区试看 | 亚洲精品www久久久 | 中文字幕乱码人妻无码久久 | av无码久久久久不卡免费网站 | a片免费视频在线观看 | 中文精品无码中文字幕无码专区 | 午夜免费福利小电影 | 人人妻人人澡人人爽精品欧美 | 久久久久se色偷偷亚洲精品av | 亲嘴扒胸摸屁股激烈网站 | 国产又爽又黄又刺激的视频 | www国产亚洲精品久久网站 | 中文无码成人免费视频在线观看 | 我要看www免费看插插视频 | 欧美zoozzooz性欧美 | 曰本女人与公拘交酡免费视频 | 国产成人综合在线女婷五月99播放 | 男女超爽视频免费播放 | 亚洲综合久久一区二区 | 久久国产精品萌白酱免费 | 亚洲欧美国产精品专区久久 | 成人欧美一区二区三区 | 亚洲中文字幕av在天堂 | 成熟人妻av无码专区 | 97精品国产97久久久久久免费 | 久久综合激激的五月天 | 蜜臀av在线播放 久久综合激激的五月天 | 天海翼激烈高潮到腰振不止 | 激情五月综合色婷婷一区二区 | 日日摸夜夜摸狠狠摸婷婷 | 无码一区二区三区在线观看 | 97资源共享在线视频 | 亚洲区欧美区综合区自拍区 | 色五月丁香五月综合五月 | 亚洲精品欧美二区三区中文字幕 | 影音先锋中文字幕无码 | 精品厕所偷拍各类美女tp嘘嘘 | 国产成人无码av在线影院 | 久久久av男人的天堂 | 超碰97人人射妻 | 巨爆乳无码视频在线观看 | 一本色道久久综合狠狠躁 | 国产色视频一区二区三区 | 日韩av无码一区二区三区 | 日本一本二本三区免费 | 精品国产精品久久一区免费式 | 女人被爽到呻吟gif动态图视看 | 国内揄拍国内精品少妇国语 | 亚洲男女内射在线播放 | 欧美喷潮久久久xxxxx | 又大又硬又黄的免费视频 | 香港三级日本三级妇三级 | 欧美日韩精品 | 女人被男人爽到呻吟的视频 | 国产三级精品三级男人的天堂 | 最近的中文字幕在线看视频 | 国产人妻大战黑人第1集 | 免费观看黄网站 | 强伦人妻一区二区三区视频18 | 久久zyz资源站无码中文动漫 | 无套内谢老熟女 | 四虎国产精品免费久久 | 日本成熟视频免费视频 | 中文精品久久久久人妻不卡 | 国产精品久久久 | 欧美日韩一区二区三区自拍 | 中文字幕av无码一区二区三区电影 | 国产午夜精品一区二区三区嫩草 | 国产在线aaa片一区二区99 | 午夜精品久久久久久久久 | 久久zyz资源站无码中文动漫 | 色爱情人网站 | 国产超级va在线观看视频 | 日韩在线不卡免费视频一区 | 久久久精品国产sm最大网站 | 国产真实伦对白全集 | 国产精品无码一区二区三区不卡 | 亚洲欧美综合区丁香五月小说 | 狠狠综合久久久久综合网 | 女人被男人爽到呻吟的视频 | 久久精品国产一区二区三区肥胖 | 无码精品人妻一区二区三区av | 麻豆国产97在线 | 欧洲 | 国产综合色产在线精品 | 久久精品人人做人人综合试看 | 亚洲一区二区三区偷拍女厕 | 初尝人妻少妇中文字幕 | 老子影院午夜精品无码 | 国产乱人伦偷精品视频 | 波多野结衣乳巨码无在线观看 | 中文字幕 亚洲精品 第1页 | 欧美丰满熟妇xxxx性ppx人交 | 男女超爽视频免费播放 | 无码精品人妻一区二区三区av | 精品人妻av区 | 秋霞成人午夜鲁丝一区二区三区 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲日本一区二区三区在线 | 少妇高潮一区二区三区99 | 久久人人爽人人人人片 | 丰满肥臀大屁股熟妇激情视频 | 欧美日本精品一区二区三区 | 黑森林福利视频导航 | 亚洲精品一区二区三区在线 | 国产香蕉尹人综合在线观看 | 九九综合va免费看 | 国产suv精品一区二区五 | 红桃av一区二区三区在线无码av | 无码毛片视频一区二区本码 | av无码久久久久不卡免费网站 | 欧美性生交xxxxx久久久 | 国产国产精品人在线视 | 国产成人无码区免费内射一片色欲 | 国产97在线 | 亚洲 | 噜噜噜亚洲色成人网站 | 精品无码国产一区二区三区av | 久久99精品久久久久久 | 亚洲欧美精品伊人久久 | 亚洲日韩乱码中文无码蜜桃臀网站 | 中文字幕无码免费久久9一区9 | 国产欧美熟妇另类久久久 | 亚洲中文字幕乱码av波多ji | 国产艳妇av在线观看果冻传媒 | 久久成人a毛片免费观看网站 | 成人免费视频在线观看 | 亚洲中文字幕久久无码 | 六月丁香婷婷色狠狠久久 | 精品水蜜桃久久久久久久 | 久久久久久久久蜜桃 | 国产av一区二区三区最新精品 | 一区二区传媒有限公司 | 强开小婷嫩苞又嫩又紧视频 | 亚洲精品综合一区二区三区在线 | 亚洲色欲久久久综合网东京热 | 男女下面进入的视频免费午夜 | 免费国产黄网站在线观看 | 两性色午夜视频免费播放 | 2020最新国产自产精品 | 亚洲色大成网站www国产 | 国产精品igao视频网 | 欧美三级a做爰在线观看 | 性啪啪chinese东北女人 | 大地资源中文第3页 | 国产成人无码av一区二区 | 性啪啪chinese东北女人 | 亚洲熟女一区二区三区 | 狠狠亚洲超碰狼人久久 | 国产超级va在线观看视频 | 日本一卡二卡不卡视频查询 | 未满成年国产在线观看 | 久久婷婷五月综合色国产香蕉 | 国产精品无码mv在线观看 | 夜夜高潮次次欢爽av女 | 国产精品久久久一区二区三区 | 狠狠综合久久久久综合网 | 四虎影视成人永久免费观看视频 | 久久精品女人天堂av免费观看 | 国产深夜福利视频在线 | 久久精品成人欧美大片 | 高潮喷水的毛片 | 在线观看欧美一区二区三区 | 少妇性荡欲午夜性开放视频剧场 | 黑森林福利视频导航 | 国产熟妇另类久久久久 | 国产亚洲精品久久久久久 | 最新国产麻豆aⅴ精品无码 | 少妇性俱乐部纵欲狂欢电影 | 亚洲精品久久久久中文第一幕 | 麻豆人妻少妇精品无码专区 | 风流少妇按摩来高潮 | 99久久久国产精品无码免费 | 亚洲综合无码久久精品综合 | 扒开双腿吃奶呻吟做受视频 | 丁香花在线影院观看在线播放 | 国产激情精品一区二区三区 | 国产亚洲tv在线观看 | 亚洲欧美色中文字幕在线 | 人人澡人人妻人人爽人人蜜桃 | 真人与拘做受免费视频一 | 日本一区二区三区免费播放 | a在线亚洲男人的天堂 | 亚洲国产欧美国产综合一区 | 内射后入在线观看一区 | 人妻无码αv中文字幕久久琪琪布 | 欧美三级a做爰在线观看 | 亚洲 日韩 欧美 成人 在线观看 | 成人综合网亚洲伊人 | 国内丰满熟女出轨videos |