robots.txt文件应用

1.     在“百度搜索帮助中心”中,

  对如何禁止百度蜘蛛访问是这样定义的 :

User-agent: Baiduspider

Disallow: /

  仅允许百度蜘蛛的访问:

User-agent: Baiduspider

Disallow:

  禁止百度蜘蛛访问特定目录:

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

QQ截图20170122101826.jpg

2.    2

下面我们以举例子的方法逐步介绍,例1

QQ截图20170122101956.jpg

3.    3

例2

2.jpg

4.    4

例3

3.jpg

5.    例4

4.jpg

6.    例5

5.jpg

7.    例6

6.jpg

8.    例7

7.jpg

9.    例8

8.jpg

10. 例9

9.jpg

11. 例10

10.jpg

12. 例11

11.jpg

13. 例12

12.jpg

14. 新旧页面的处理方法:

新旧页面的处理即网站改版,旧的内容页面和新的内容页面重复,只是URL不同的情况下则需要以robots.txt把旧页面屏蔽掉,只充许搜索引擎收录新的页面。