网站的robots.txt文件已经被我删掉了,为什么百度检测还是显示不允许抓取?
答案:2 悬赏:50 手机版
解决时间 2021-11-30 22:13
- 提问者网友:轻浮
- 2021-11-30 00:59
网站的robots.txt文件已经被我删掉了,为什么百度检测还是显示不允许抓取?
最佳答案
- 五星知识达人网友:北方的南先生
- 2021-11-30 01:27
需要时间进行更新处理,百度本身的响应速度就慢。你删除了ROBOTS我建议你还是把robots修改成允许抓取,在提交上去!!这样响应更快!追问一般响应要多久?我都删了一个星期了,那个允许全部收录怎么写?追答时间不确定,百度是个神奇的系统。
允许抓取
User-agent: *
Allow: /追问还是不行,依然是不允许抓取,弄的我蛋都碎了一地
允许抓取
User-agent: *
Allow: /追问还是不行,依然是不允许抓取,弄的我蛋都碎了一地
全部回答
- 1楼网友:山有枢
- 2021-11-30 02:50
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯