为了做SEO,如果网站的ajax很多,判断user-agent是否是爬虫,然后服务器curl获取ajax接口数据,专门生成一个静态页面给爬虫抓取是否可行?
答案:1 悬赏:40 手机版
解决时间 2021-01-04 16:45
- 提问者网友:献世佛
- 2021-01-03 18:14
为了做SEO,如果网站的ajax很多,判断user-agent是否是爬虫,然后服务器curl获取ajax接口数据,专门生成一个静态页面给爬虫抓取是否可行?
最佳答案
- 五星知识达人网友:野慌
- 2021-01-03 19:29
为了用户体验,网站的全部内容使用ajax异步加载,但是搜索引擎也爬不到...答:这个想法貌似不错 可以尝试下 可以先做个页面 用百度站长工具模拟下爬取过程
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯