我需要根据书籍的ISBN号码在Amazon网站上抓取对应所有tags。问题是tags多的时候就会有分页。我用下面的方法抓取第一页的tags没有问题,但是当抓取>1的页面时,就返回的HTML仍然是第1页的HTML,真的很奇怪????????
使用java 语言,我用下面这个方法来根据URL得到HTML字符串:
public static String GetHTMLStringByURLString(String urlString) {
String hTMLString="";
try {
URL url=new URL(urlString);
URLConnection urlConnection=url.openConnection();
BufferedReader bufferedReader=new BufferedReader(new InputStreamReader(urlConnection.getInputStream()));
String tmpString;
while ((tmpString=bufferedReader.readLine())!=null) {
hTMLString+=tmpString;
}
} catch (MalformedURLException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
return hTMLString;
}
似乎也不是Ajax做的页面啊 ?
URL例如:http://www.amazon.com/dp/tags-on-product/0345803485?page=2
其中page是页数的参数
为什么爬虫程序抓取同一个页面的HTML和实际显示的HTML不同?
答案:2 悬赏:20 手机版
解决时间 2022-01-01 11:51
- 提问者网友:玫瑰园
- 2021-12-31 16:49
最佳答案
- 五星知识达人网友:蓝房子
- 2021-12-31 18:06
一定要设置User-Agent
urlConnection.setRequestProperty("User-Agent","Mozilla/4.0 (compatible; MSIE 6.0; Windows 2000)");
urlConnection.setRequestProperty("User-Agent","Mozilla/4.0 (compatible; MSIE 6.0; Windows 2000)");
全部回答
- 1楼网友:走死在岁月里
- 2021-12-31 19:45
代码:user-agent: baiduspider
disallow: /
操作方法:
第一步骤:登陆网站后台
第二步骤:找到根目录里的robots.txt文件并打开
第三步骤:把上面的代码复制黏贴到robots.txt文件里
第四步骤:保存及更新
代码的意思是:禁止百度蜘蛛抓取的意思,禁止百度蜘蛛抓取网站信息的意思
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯