robots协议
Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫扫除规范”(RobotsExclusionProtocol),网站经过Robots协议通知查找引擎哪些页面可以抓取,哪些页面不能抓取
是查找引擎的一部分来定位和索引互联网上的每个可能答复查找恳求的网页,一般只在评论robots的HTML标签或许robots.txt文件的时分运用。
Public @ 2010-10-17 15:26:25
也被称为链接盛行程度,查找引擎运用的技能,经过检测网页之间的网络链接来决议网页的权威程度,查找引擎在按相关性排名查找成果的时分也运用链接剖析。
一个查找引擎将许多查找者的输入的查找恳求发到其他许多查找,比较每个查找引擎的成果并显现在单一的成果列表上。
名称 搜索引擎google蜘蛛: googlebot百度蜘蛛:baiduspideryahoo蜘蛛:slurpalexa蜘蛛:ia_archivermsn蜘蛛:msnbotaltavista蜘蛛:scooterlycos蜘蛛: lycos_spider_(t-rex)alltheweb蜘蛛: fast-webcrawler/inktomi蜘蛛: slurp一个在线写robots.txt的工具。最后
robots.txt文件通常放在网站的根目录下,即与主页文件(如index.html)同一级目录下。例如,如果网站的域名是www.example.com,那么robots.txt文件的完整路径可能是www.example.com/robots.txt。