如何禁止网络爬虫频繁爬自己网站
http://zhumeng8337797.blog.163.com/blog/static/100768914201261625145485/
轉自google中國網站管理員的博客?http://www.google.com.hk/ggblog/googlewebmaster-cn
robots.txt?文件對抓取網絡的搜索引擎漫游器(稱為漫游器)/*漫游器就是網絡爬蟲,或者搜索引擎機器人。隨便你怎么叫它。*/?或者進行限制。這些漫游器是自動的,在它們訪問網頁前會查看是否存在限制其訪問特定網頁的?robots.txt?文件。如果你想保護網站上的某些內容不被搜索引擎收入的話,robots.txt是一個簡單有效的工具。這里簡單介紹一下怎么使用它。
如何放置Robots.txt文件
robots.txt自身是一個文本文件。它必須位于域名的根目錄中并?被命名為"robots.txt"。位于子目錄中的?robots.txt?文件無效,因為漫游器只在域名的根目錄中查找此文件。例如,http://www.example.com/robots.txt?是有效位置,http://www.example.com/mysite/robots.txt?則不是。
這里舉一個robots.txt的例子:
User-agent:?*
Disallow:?/cgi-bin/
Disallow:?/tmp/
Disallow:?/~name/
使用?robots.txt?文件攔截或刪除整個網站?
要從搜索引擎中刪除您的網站,并防止所有漫游器在以后抓取您的網站,請將以下?robots.txt?文件放入您服務器的根目錄:
User-agent:?*
Disallow:?/
要只從?Google?中刪除您的網站,并只是防止?Googlebot?將來抓取您的網站,請將以下?robots.txt?文件放入您服務器的根目錄:User-agent:?Googlebot
Disallow:?/
每個端口都應有自己的?robots.txt?文件。尤其是您通過?http?和?https?托管內容的時候,這些協議都需要有各自的?robots.txt?文件。例如,要讓?Googlebot?只為所有的?http?網頁而不為?https?網頁編制索引,應使用下面的?robots.txt?文件。
對于?http?協議?(http://yourserver.com/robots.txt):
User-agent:?*
Allow:?/
對于?https?協議?(https://yourserver.com/robots.txt):
User-agent:?*
Disallow:?/
允許所有的漫游器訪問您的網頁
User-agent:?*
Disallow:
(另一種方法:?建立一個空的?"/robots.txt"?文件,?或者不使用robot.txt。)
使用?robots.txt?文件攔截或刪除網頁
您可以使用?robots.txt?文件來阻止?Googlebot?抓取您網站上的網頁。?例如,如果您正在手動創建?robots.txt?文件以阻止?Googlebot?抓取某一特定目錄下(例如,private)的所有網頁,可使用以下?robots.txt?條目:?
User-agent:?Googlebot
Disallow:?/private
要阻止?Googlebot?抓取特定文件類型(例如,.gif)的所有文件,可使用以下?robots.txt?條目:User-agent:?Googlebot
Disallow:?/*.gif$
要阻止?Googlebot?抓取所有包含???的網址(具體地說,這種網址以您的域名開頭,后接任意字符串,然后是問號,而后又是任意字符串),可使用以下條目:User-agent:?Googlebot
Disallow:?/*?
盡管我們不抓取被?robots.txt?攔截的網頁內容或為其編制索引,但如果我們在網絡上的其他網頁中發現這些內容,我們仍然會抓取其網址并編制索引。因此,網頁網址及其他公開的信息,例如指?向該網站的鏈接中的定位文字,有可能會出現在?Google?搜索結果中。不過,您網頁上的內容不會被抓取、編制索引和顯示。
作為網站管理員工具的一部分,Google提供了robots.txt分析工具。它可以按照?Googlebot?讀取?robots.txt?文件的相同方式讀取該文件,并且可為?Google?user-agents(如?Googlebot)提供結果。我們強烈建議您使用它。?在創建一個robots.txt文件之前,有必要考慮一下哪些內容可以被用戶搜得到,而哪些則不應該被搜得到。?這樣的話,通過合理地使用robots.txt,?搜索引擎在把用戶帶到您網站的同時,又能保證隱私信息不被收錄。
總結
以上是生活随笔為你收集整理的如何禁止网络爬虫频繁爬自己网站的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 编译Linux内核的详细过程
- 下一篇: jvm垃圾回收参数配置