欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費電子書(shū)等14項超值服

開(kāi)通VIP
Linux wget命令行的下載工具

Linux wget命令行的下載工具

2010-02-04 15:17 佚名 CSDN 我要評論(2) 字號:T | T

wget是linux上的命令行的下載工具。這是一個(gè)GPL許可證下的自由軟件。Linux wget支持HTTP和FTP協(xié)議,支持代理服務(wù)器和斷點(diǎn)續傳功能,能夠自動(dòng)遞歸遠程主機的目錄,找到合乎條件的文件并將其下載到本地硬盤(pán)上;如果必要,Linux wget將恰當地轉換頁(yè)面中的超級連接以在本地生成可瀏覽的鏡像。

AD:

對大家推薦很好使用的Linux wget命令系統,像讓大家對Linux wget命令系統有所了解,然后對Linux wget命令系統全面講解介紹,希望對大家有用Linux wget使用。

一 Linux wget簡(jiǎn)介

wget是linux上的命令行的下載工具。這是一個(gè)GPL許可證下的自由軟件。Linux wget支持HTTP和FTP協(xié)議,支持代理服務(wù)器和斷點(diǎn)續傳功能,能夠自動(dòng)遞歸遠程主機的目錄,找到合乎條件的文件并將其下載到本地硬盤(pán)上;如果必要,Linux wget將恰當地轉換頁(yè)面中的超級連接以在本地生成可瀏覽的鏡像。由于沒(méi)有交互式界面,Linux wget可在后臺運行,截獲并忽略HANGUP信號,因此在用戶(hù)推出登錄以后,仍可繼續運行。通常,Linux wget用于成批量地下載Internet網(wǎng)站上的文件,或制作遠程網(wǎng)站的鏡像。

二 實(shí)例

下載下載192.168.1.168首頁(yè)并且顯示下載信息Linux wget -d http://192.168.1.168下載192.168.1.168首頁(yè)并且不顯示任何信息wget -q http://192.168.1.168下載filelist.txt中所包含的鏈接的所有文件wget -i filelist.txt

下載到指定目錄wget -P/tmp ftp://user:passwd@url/file把文件file下載到/tmp目錄下。Linux wget是一個(gè)命令行的下載工具。對于我們這些 Linux 用戶(hù)來(lái)說(shuō),幾乎每天都在使用它。下面為大家介紹幾個(gè)有用的 Linux wget 小技巧,可以讓你更加高效而靈活的使用 Linux wget。

* $ wget -r -np -nd http://example.com/packages/這條命令可以下載 http://example.com 網(wǎng)站上 packages 目錄中的所有文件。其中,-np 的作用是不遍歷父目錄,-nd 表示不在本機重新創(chuàng )建目錄結構。

* $ wget -r -np -nd --accept=iso http://example.com/centos-5/i386/與上一條命令相似,但多加了一個(gè) --accept=iso 選項,這指示Linux wget僅下載 i386 目錄中所有擴展名為 iso 的文件。你也可以指定多個(gè)擴展名,只需用逗號分隔即可。

* $ wget -i filename.txt此命令常用于批量下載的情形,把所有需要下載文件的地址放到 filename.txt 中,然后 Linux wget就會(huì )自動(dòng)為你下載所有文件了。

* $ wget -c http://example.com/really-big-file.iso這里所指定的 -c 選項的作用為斷點(diǎn)續傳。

* $ wget -m -k (-H) http://www.example.com/該命令可用來(lái)鏡像一個(gè)網(wǎng)站,Linux wget將對鏈接進(jìn)行轉換。如果網(wǎng)站中的圖像是放在另外的站點(diǎn),那么可以使用 -H 選項。

三 參數

代碼:$ wget --helpGNU Wget 1.9.1,非交互式的網(wǎng)絡(luò )文件下載工具。用法:Linux wget[選項]... [URL]...長(cháng)選項必須用的參數在使用短選項時(shí)也是必須的。

啟動(dòng):

  1. -V, --version 顯示 Wget 的版本并且退出。  
  2. -h, --help 打印此幫助。  
  3. -b, -background 啟動(dòng)后進(jìn)入后臺操作。  
  4. -e, -execute=COMMAND 運行‘.wgetrc’形式的命令。 

日志記錄及輸入文件:

  1. -o, --output-file=文件 將日志消息寫(xiě)入到指定文件中。  
  2. -a, --append-output=文件 將日志消息追加到指定文件的末端。  
  3. -d, --debug 打印調試輸出。  
  4. -q, --quiet 安靜模式(不輸出信息)。  
  5. -v, --verbose 詳細輸出模式(默認)。  
  6. -nv, --non-verbose 關(guān)閉詳細輸出模式,但不進(jìn)入安靜模式。  
  7. -i, --input-file=文件 下載從指定文件中找到的 URL。  
  8. -F, --force-html 以 HTML 方式處理輸入文件。  
  9. -B, --base=URL 使用 -F -i 文件選項時(shí),在相對鏈接前添加指定的 URL。 

下載:

  1. -t, --tries=次數 配置重試次數(0 表示無(wú)限)。  
  2. --retry-connrefused 即使拒絕連接也重試。  
  3. -O --output-document=文件 將數據寫(xiě)入此文件中。  
  4. -nc, --no-clobber 不更改已經(jīng)存在的文件,也不使用在文件名后添加 .#(# 為數字)的方法寫(xiě)入新的文件。  
  5. -c, --continue 繼續接收已下載了一部分的文件。  
  6. --progress=方式 選擇下載進(jìn)度的表示方式。  
  7. -N, --timestamping 除非遠程文件較新,否則不再取回。  
  8. -S, --server-response 顯示服務(wù)器回應消息。  
  9. --spider 不下載任何數據。  
  10. -T, --timeout=秒數 配置讀取數據的超時(shí)時(shí)間 (秒數)。  
  11. -w, --wait=秒數 接收不同文件之間等待的秒數。  
  12. --waitretry=秒數 在每次重試之間稍等一段時(shí)間 (由 1 秒至指定的 秒數不等)。  
  13. --random-wait 接收不同文件之間稍等一段時(shí)間(由 0 秒至 2*WAIT 秒不等)。  
  14. -Y, --proxy=on/off 打開(kāi)或關(guān)閉代理服務(wù)器。  
  15. -Q, --quota=大小 配置接收數據的限額大小。  
  16. --bind-address=地址 使用本機的指定地址 (主機名稱(chēng)或 IP) 進(jìn)行連接。  
  17. --limit-rate=速率 限制下載的速率。  
  18. --dns-cache=off 禁止查找存于高速緩存中的 DNS。  
  19. --restrict-file-names=OS 限制文件名中的字符為指定的 OS (操作系統) 所允許的字符。 

目錄:

  1. -nd --no-directories 不創(chuàng )建目錄。  
  2. -x, --force-directories 強制創(chuàng )建目錄。  
  3. -nH, --no-host-directories 不創(chuàng )建含有遠程主機名稱(chēng)的目錄。  
  4. -P, --directory-prefix=名稱(chēng) 保存文件前先創(chuàng )建指定名稱(chēng)的目錄。  
  5. --cut-dirs=數目 忽略遠程目錄中指定數目的目錄層。 

HTTP 選項:

  1. --http-user=用戶(hù) 配置 http 用戶(hù)名。  
  2. --http-passwd=密碼 配置 http 用戶(hù)密碼。  
  3. -C, --cache=on/off (不)使用服務(wù)器中的高速緩存中的數據 (默認是使用的)。  
  4. -E, --html-extension 將所有 MIME 類(lèi)型為 text/html 的文件都加上 .html 擴展文件名。  
  5. --ignore-length 忽略“Content-Length”文件頭字段。  
  6. --header=字符串 在文件頭中添加指定字符串。  
  7. --proxy-user=用戶(hù) 配置代理服務(wù)器用戶(hù)名。  
  8. --proxy-passwd=密碼 配置代理服務(wù)器用戶(hù)密碼。  
  9. --referer=URL 在 HTTP 請求中包含“Referer:URL”頭。  
  10. -s, --save-headers 將 HTTP 頭存入文件。  
  11. -U, --user-agent=AGENT 標志為 AGENT 而不是 Wget/VERSION。  
  12. --no-http-keep-alive 禁用 HTTP keep-alive(持久性連接)。  
  13. --cookies=off 禁用 cookie。  
  14. --load-cookies=文件 會(huì )話(huà)開(kāi)始前由指定文件載入 cookie。  
  15. --save-cookies=文件 會(huì )話(huà)結束后將 cookie 保存至指定文件。  
  16. --post-data=字符串 使用 POST 方法,發(fā)送指定字符串。  
  17. --post-file=文件 使用 POST 方法,發(fā)送指定文件中的內容。 

HTTPS (SSL) 選項:

  1. --sslcertfile=文件 可選的客戶(hù)段端證書(shū)。  
  2. --sslcertkey=密鑰文件 對此證書(shū)可選的“密鑰文件”。  
  3. --egd-file=文件 EGD socket 文件名。  
  4. --sslcadir=目錄 CA 散列表所在的目錄。  
  5. --sslcafile=文件 包含 CA 的文件。  
  6. --sslcerttype=0/1 Client-Cert 類(lèi)型 0=PEM (默認) / 1=ASN1 (DER)  
  7. --sslcheckcert=0/1 根據提供的 CA 檢查服務(wù)器的證書(shū)  
  8. --sslprotocol=0-3 選擇 SSL 協(xié)議;0=自動(dòng)選擇,  
  9. 1=SSLv2 2=SSLv3 3=TLSv1 

FTP 選項:

  1. -nr, --dont-remove-listing 不刪除“.listing”文件。  
  2. -g, --glob=on/off 設置是否展開(kāi)有通配符的文件名。  
  3. --passive-ftp 使用“被動(dòng)”傳輸模式。  
  4. --retr-symlinks 在遞歸模式中,下載鏈接所指示的文件(連至目錄則例外)。 

遞歸下載:

  1. -r, --recursive 遞歸下載。  
  2. -l, --level=數字 最大遞歸深度(inf 或 0 表示無(wú)限)。  
  3. --delete-after 刪除下載后的文件。  
  4. -k, --convert-links 將絕對鏈接轉換為相對鏈接。  
  5. -K, --backup-converted 轉換文件 X 前先將其備份為 X.orig。  
  6. -m, --mirror 等效于 -r -N -l inf -nr 的選項。  
  7. -p, --page-requisites 下載所有顯示完整網(wǎng)頁(yè)所需的文件,例如圖像。  
  8. --strict-comments 打開(kāi)對 HTML 備注的嚴格(SGML)處理選項。 

遞歸下載時(shí)有關(guān)接受/拒絕的選項:

  1. -A, --accept=列表 接受的文件樣式列表,以逗號分隔。  
  2. -R, --reject=列表 排除的文件樣式列表,以逗號分隔。  
  3. -D, --domains=列表 接受的域列表,以逗號分隔。  
  4. --exclude-domains=列表 排除的域列表,以逗號分隔。  
  5. --follow-ftp 跟隨 HTML 文件中的 FTP 鏈接。  
  6. --follow-tags=列表 要跟隨的 HTML 標記,以逗號分隔。  
  7. -G, --ignore-tags=列表 要忽略的 HTML 標記,以逗號分隔。  
  8. -H, --span-hosts 遞歸時(shí)可進(jìn)入其它主機。  
  9. -L, --relative 只跟隨相對鏈接。  
  10. -I, --include-directories=列表 要下載的目錄列表。  
  11. -X, --exclude-directories=列表 要排除的目錄列表。  
  12. -np, --no-parent 不搜索上層目錄。 

四 FQA

A.使用wget工具linux所以的主要版本都自帶了Linux wget這個(gè)下載工具.bash$ wget http://place.your.url/here它還能控制ftp來(lái)下載整個(gè)web站點(diǎn)的各級目錄,當然,如果你不小心,可能會(huì )把整個(gè)網(wǎng)站以及其他和他做鏈接的網(wǎng)站全部下載下來(lái).bash$ wget -m http://target.web.site/subdirectory由于這個(gè)工具具有很強的下載能力,所以可以在服務(wù)器上把它用作鏡像網(wǎng)站的工具.讓它按照”robots.txt”的規定來(lái)執行.有很多參數用來(lái)控制它如何正確地做鏡像,可以限制鏈接的類(lèi)型和下載文件的類(lèi)型等等.例如:只下載有聯(lián)系的鏈接并且忽略GIF圖片:bash$ wget -m -L –reject=gif http://target.web.site/subdirectory

Linux wget也能夠實(shí)現斷點(diǎn)續傳(-c參數),當然,這種操作是需要遠程服務(wù)器支持的.bash$ wget -c http://the.url.of/incomplete/file可以把斷點(diǎn)續傳和鏡像功能結合起來(lái),這樣可以在以前斷過(guò)多次的情況下繼續鏡像一個(gè)有大量選擇性文件的站點(diǎn).如何自動(dòng)實(shí)現這個(gè)目的我們在后面會(huì )討論得更多.

如果你覺(jué)得下載時(shí)老是斷線(xiàn)會(huì )影響你辦公的話(huà),你可以限制Linux wget重試的次數.bash$ wget -t 5 http://place.your.url/here這樣重試五次后就放棄了.用”-t inf”參數表示永遠不放棄.不停地重試.

B.那對于代理服務(wù)該怎么辦呢?可以使用http代理的參數或者在.wgetrc配置文件里指定一個(gè)如何通過(guò)代理去下載的途徑.但是有這么一個(gè)問(wèn)題,如果通過(guò)代理來(lái)進(jìn)行斷點(diǎn)續傳的話(huà)可能會(huì )有幾次失敗.如果有一次通過(guò)代理下載的過(guò)程發(fā)生中斷,那么代理服務(wù)器上緩存里保存是那個(gè)完整的文件拷貝. 所以當你用”wget -c”來(lái)下載剩余部分的時(shí)候代理服務(wù)器查看它的緩存,并錯誤地認為你已經(jīng)下載了整個(gè)文件.于是就發(fā)出了錯誤的信號.這個(gè)時(shí)候你可以用添加一個(gè)特定的請求參數來(lái)促使代理服務(wù)器清除他們的緩存:bash$ wget -c –header=”P(pán)ragma: no-cache” http://place.your.url/here

這個(gè)”–header”參數能夠以各種數字,各種方式添加。通過(guò)它我們可以更改web服務(wù)器或者代理服務(wù)器的某些屬性。有些站點(diǎn)不提供外部連接的文件服務(wù),只有通過(guò)同一個(gè)站點(diǎn)上其他的一些頁(yè)面時(shí)內容才會(huì )被提交。這個(gè)時(shí)候你可以用加上”Referer:”參數:bash$ wget –header=”Referer: http://coming.from.this/page” http://surfing.to.this/page有些特殊的網(wǎng)站只支持某種特定的瀏覽器,這個(gè)時(shí)候可以用”User-Agent:”參數bash$ wget –header=”User-Agent: Mozilla/4.0 (compatible; MSIE 5.0;Windows NT; DigExt)” http://msie.only.url/here

C.那我怎么設定下載時(shí)間呢?
如果你需要在你的辦公電腦上通過(guò)和其他同事共享的一個(gè)連接來(lái)下載一些很大的文件,而且你希望你的同事不會(huì )因為網(wǎng)絡(luò )速度的減慢而收到影響,那你就應該盡量避開(kāi)高峰時(shí)段。當然,不需要在辦公室里等到所以人都走掉,也不需要在家里用完晚飯后還惦記著(zhù)要上網(wǎng)下載一次。用at來(lái)就可以很好的定制工作時(shí)間:bash$ at 23:00warning: commands will be executed using /bin/shat> wget http://place.your.url/hereat> press Ctrl-D這樣,我們設定了下載工作在晚上11點(diǎn)進(jìn)行。為了使這個(gè)安排能夠正常進(jìn)行,請確認atd這個(gè)后臺程序正在運行。

D.下載要花很多時(shí)間?
當你需要下載大量的數據,而且你又沒(méi)有享有足夠的帶寬,這個(gè)時(shí)候你會(huì )經(jīng)常發(fā)現在你安排的下載任務(wù)還沒(méi)有完成,一天的工作卻又要開(kāi)始了。
作為一個(gè)好同事,你只能停掉了這些任務(wù),而開(kāi)始另外的工作。然后你又需要反復地重復使用”wget -c”來(lái)完成你的下載。這樣肯定太繁瑣了,所以最好是用crontab來(lái)自動(dòng)執行。創(chuàng )建一個(gè)純文本文件,叫做”crontab.txt”,包含下面的內容:0 23 * * 1-5 wget -c -N http://place.your.url/here0 6 * * 1-5 killall wgetz這個(gè)crontab文件指定某些任務(wù)定期地執行。前五列聲明是什么時(shí)候執行這個(gè)命令,而每行的剩余部分則告訴crontab執行什么內容。

前兩列指定了每天一到晚上11點(diǎn)就開(kāi)始用Linux wget下載,一到早上6點(diǎn)就停止一切Linux wget下載。第三四列的*表示每個(gè)月的每一天都執行這個(gè)任務(wù)。第五列則指定了一個(gè)星期的哪幾天來(lái)執行這個(gè)程序。 –”1-5″表示從星期一到星期五。這樣在每個(gè)工作日的晚上11點(diǎn),下載工作開(kāi)始,到了上午的6點(diǎn),任何的Linux wget任務(wù)就被停掉了。你可以用下面的命令來(lái)執行crontab:bash$ crontab crontab.txt

Linux wget的這個(gè)”-N”參數將會(huì )檢查目標文件的時(shí)間戳,如果匹配了,下載程序就會(huì )停止,因為它說(shuō)明整個(gè)文件已經(jīng)下載完全了。用”crontab -r”可以刪除這個(gè)計劃安排。我已經(jīng)多次采用這種方法,通過(guò)共享的電話(huà)撥號來(lái)下載過(guò)很多的ISO鏡像文件,還是比較實(shí)用的。

E.如何下載動(dòng)態(tài)變化的網(wǎng)頁(yè)
有些網(wǎng)頁(yè)每天都要根據要求變化好幾次.所以從技術(shù)上講,目標不再是一個(gè)文件,它沒(méi)有文件長(cháng)度.因此”-c”這個(gè)參數也就失去了意義.例如:一個(gè)PHP寫(xiě)的并且經(jīng)常變動(dòng)的linux周末新聞網(wǎng)頁(yè):bash$ wget http://lwn.net/bigpage.php3

我辦公室里的網(wǎng)絡(luò )條件經(jīng)常很差,給我的下載帶了很大的麻煩,所以我寫(xiě)了個(gè)簡(jiǎn)單的腳本來(lái)檢測動(dòng)態(tài)頁(yè)面是否已經(jīng)完全更新了.

  1. #!/bin/bash  
  2. #create it if absent  
  3. touch bigpage.php3  
  4. #check if we got the whole thing  
  5. while ! grep -qi bigpage.php3  
  6. do  
  7. rm -f bigpage.php3  
  8. #download LWN in one big page  
  9. wget http://lwn.net/bigpage.php3  
  10. done 

這個(gè)腳本能夠保證持續的下載該網(wǎng)頁(yè),直到網(wǎng)頁(yè)里面出現了" ",這就表示該文件已經(jīng)完全更新了.

F.對于ssl和Cookies怎么辦?
如果你要通過(guò)ssl來(lái)上網(wǎng),那么網(wǎng)站地址應該是以”https://”來(lái)開(kāi)頭的.在這樣的情況下你就需要另外一種下載工具,叫做curl,它能夠很容易獲得.有些網(wǎng)站迫使網(wǎng)友在瀏覽的時(shí)候必須使用cookie.所以你必須從在網(wǎng)站上得到的那個(gè) Cookie里面得到”Cookie:”這個(gè)參數.這樣才能保證下載的參數正確.對于lynx和Mozilla的Cookie的文件格式,用下面的:
bash$ cookie=$( grep nytimes ~/.lynx_cookies |awk {printf(”%s=%s;”,$6,$7)} )就可以構造一個(gè)請求Cookie來(lái)下載http://www.nytimes.com上的內容.當然,你要已經(jīng)用這個(gè)瀏覽器在該網(wǎng)站上完成注冊.w3m使用了一種不同的,更小巧的Cookie文件格式:bash$ cookie=$( grep nytimes ~/.w3m/cookie |awk {printf(”%s=%s;”,$2,$3)} )
現在就可以用這種方法來(lái)下載了:bash$ wget –header=”Cookie: $cookie” http://www.nytimes.com/reuters/technology/tech-tech-supercomput.html
或者用curl工具:bash$ curl -v -b $cookie -o supercomp.html http://www.nytimes.com/reuters/technology/tech-tech-supercomput.htm

G.如何建立地址列表?
到現在為止我們下載的都是單個(gè)文件或者是整個(gè)網(wǎng)站.有的時(shí)候我們需要下載某個(gè)網(wǎng)頁(yè)上鏈接的大量文件,但沒(méi)有必要把它整個(gè)網(wǎng)站都鏡像下來(lái).比如說(shuō)我們想從一個(gè)依次排列的100首歌里面下載前20首.注意,這里”–accept”和”–reject”參數是不會(huì )起作用的, 因為他們只對文件操作起作用.所以一定要用”lynx -dump”參數來(lái)代替.
bash$ lynx -dump ftp://ftp.ssc.com/pub/lg/ |grep gz$ |tail -10 |awk {print $2} > urllist.txt
lynx的輸出結果可以被各種GNU文本處理工具過(guò)慮.在上面的例子里,我們的鏈接地址是以”gz”結尾的,并且把最后10個(gè)文件地址放到urllist.txt文件里.然后我們可以寫(xiě)一個(gè)簡(jiǎn)單的bash腳本來(lái)自動(dòng)下載這個(gè)文件里的目標文件:
bash$ for x in $(cat urllist.txt)
> do
> wget $x
> done
這樣我們就能夠成功下載Linux Gazette網(wǎng)站(ftp://ftp.ssc.com/pub/lg/)上的最新10個(gè)論題.

H.擴大使用的帶寬
如果你選擇下載一個(gè)受帶寬限制的文件,那你的下載會(huì )因為服務(wù)器端的限制而變得很慢.下面這個(gè)技巧會(huì )大大縮短下載的過(guò)程.但這個(gè)技巧需要你使用curl并且遠程服務(wù)器有多個(gè)鏡像可以供你下載.例如,假設你想從下面的三個(gè)地址下載Mandrake 8.0:
url1=http://ftp.eecs.umich.edu/pub/linux/mandrake/iso/Mandrake80-inst.iso
url2=http://ftp.rpmfind.net/linux/Mandrake/iso/Mandrake80-inst.iso
url3=http://ftp.wayne.edu/linux/mandrake/iso/Mandrake80-inst.iso
這個(gè)文件的長(cháng)度是677281792個(gè)字節,所以用curl程序加”–range”參數來(lái)建立三個(gè)同時(shí)進(jìn)行的下載:
bash$ curl -r 0-199999999 -o mdk-iso.part1 $url1 &
bash$ curl -r 200000000-399999999 -o mdk-iso.part2 $url2 &
bash$ curl -r 400000000- -o mdk-iso.part3 $url3 &
這樣就創(chuàng )建了三個(gè)后臺進(jìn)程.每個(gè)進(jìn)程從不同的服務(wù)器傳輸這個(gè)ISO文件的不同部分.這個(gè)”-r”參數指定目標文件的字節范圍.當這三個(gè)
進(jìn)程結束后,用一個(gè)簡(jiǎn)單的cat命令來(lái)把這三個(gè)文件銜接起來(lái)– cat mdk-iso.part? > mdk-80.iso.(強烈建議在刻盤(pán)之前先檢查md5)
你也可以用”–verbose”參數來(lái)使每個(gè)curl進(jìn)程都有自己的窗口來(lái)顯示傳輸的過(guò)程.

本站僅提供存儲服務(wù),所有內容均由用戶(hù)發(fā)布,如發(fā)現有害或侵權內容,請點(diǎn)擊舉報。
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
Linux用wget命令行方式進(jìn)行網(wǎng)絡(luò )下載文件
15個(gè)Linux Wget下載實(shí)例終極指南 | Lamp Blog
linux wget 命令用法詳解(附實(shí)例說(shuō)明)
linux wget 命令小白教學(xué),做一個(gè)有技術(shù)范的下載狂魔
wget命令詳解
處理日常事務(wù)的 Linux 程序和它們的配置
更多類(lèi)似文章 >>
生活服務(wù)
分享 收藏 導長(cháng)圖 關(guān)注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久