由于该网站的robots.txt文件存在限制指令,是什么情况
答案:2 悬赏:0 手机版
解决时间 2021-03-09 02:14
- 提问者网友:难遇难求
- 2021-03-08 13:46
由于该网站的robots.txt文件存在限制指令,是什么情况
最佳答案
- 五星知识达人网友:青灯有味
- 2021-03-08 15:13
Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。如果网站的运营者通过该文件协议做出了限制,那么在搜索界面就会提示由于该网站的robots.txt文件存在限制指令。
全部回答
- 1楼网友:上分大魔王
- 2021-03-08 16:03
由于该网站的robots.txt文件存在限制指令的解决办法
1. 找到根目录下的robots.txt文件,去掉这一句disallow:/,解除屏蔽抓取;
2. 下面一步很关键,就是到站长平台下去更新robots文件,告诉搜索引擎你的网站已经对它解除了屏蔽,可以来抓取我的网页内容了,主动对搜索引擎示好,快照更新过来之后,现象就会消失了。
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯