用wget下载网站,实现离线浏览
生活随笔
收集整理的這篇文章主要介紹了
用wget下载网站,实现离线浏览
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
資料來源:http://www.truevue.org/linux/wget-download-website
想下一些LSF的文檔,windows下的離線瀏覽有teleport等軟件可以選擇,Linux下面的類似的離線瀏覽的軟件就更多了。
本來想看看能不能用curl來實現整個網站下載,后來發現curl沒有網站下載這個功能。Linux下面除了curl外另一個強大的軟件就是wget。
發現wget果然強大,有網站下載這個功能,而且還可以控制網站下載的方式,下面就是wget進行網站下載的命令:
$ wget \--recursive \--no-clobber \--page-requisites \--html-extension \--convert-links \--restrict-file-names=windows \--domains w3schools.com \--no-parent \http://www.w3schools.com/html/default.asp上面的命令會下載 http://www.w3schools.com/html/default.asp 下面所有的頁面。
上面用到的wget網站下載選擇解釋:
- --recursive: 下載整個網站
- --domains w3schools.com: 不要下載指定域名之外的網頁。
- --no-parent: 僅下載html/文件夾下的網頁。
- --page-requisites: 現在網頁包括的所有內容(images, CSS and so on).
- --html-extension: 將網頁保存為html文件。
- --convert-links: 將連接轉換為本地連接
- --restrict-file-names=windows: 文件名保存為windows格式。
- --no-clobber: 不要覆蓋已有文件,在下載中斷后繼續下載。
總結
以上是生活随笔為你收集整理的用wget下载网站,实现离线浏览的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: java-net-php-python-
- 下一篇: GNOME3 美化