自动化问题,求帮助,如图很多页每个都需要单独下载有没有什么好的办法

wyzc小胖胖 发布于 2011/10/18 20:18
阅读 256
收藏 0
现在在一个网站的页面需要下载几百个考生的报告,一页有20个,一般都是几十页,而且每个月或每个星期都会有这样的工作,下载报告只能单独下载点击每个学生右边的操作按钮,点击后弹出是否下载,点击是选择路径保存,期间会受网速的影响,有没有一个比较好的方 法实现,是 saville网站的报告,没有权限给他们提需求

加载中
0
sniperBlank
sniperBlank

没看懂问题?要下载,还不占网速?

0
wediolee
wediolee
抓取页面-》提取链接-》下载文件
0
wyzc小胖胖
wyzc小胖胖

引用来自“memeyang”的答案

没看懂问题?要下载,还不占网速?

是网速问题会影响自动化 如果定义鼠标位置还好都设长点 但效率不高 用脚本那个下载对话框好像又没法识别
0
wyzc小胖胖
wyzc小胖胖

引用来自“wediolee”的答案

抓取页面-》提取链接-》下载文件
详细点 谢谢 那是不是要每个页面单独提取 这样是不是自己要打开所有的页面
0
sniperBlank
sniperBlank
抓取页面还不如一个一个下载,效率更低。
0
wyzc小胖胖
wyzc小胖胖

顶 期待高手解答 现在自己只想到模拟鼠标位置 但效率很低 每个等待时间必须给够

0
老程
老程
如果下载链接有某种固定格式的话,用迅雷的批量下载功能。
0
wyzc小胖胖
wyzc小胖胖

引用来自“老程”的答案

如果下载链接有某种固定格式的话,用迅雷的批量下载功能。

那获取这个下载地址也是个巨大工作量了 比如单个页面我怎么去抓取 如图的

0
北落
北落

引用来自“wangrunhui”的答案

引用来自“老程”的答案

如果下载链接有某种固定格式的话,用迅雷的批量下载功能。

那获取这个下载地址也是个巨大工作量了 比如单个页面我怎么去抓取 如图的

你可以获取页面然后用正则去分析,找到翻页的规则就好办了
0
老程
老程

引用来自“wangrunhui”的答案

引用来自“老程”的答案

如果下载链接有某种固定格式的话,用迅雷的批量下载功能。

那获取这个下载地址也是个巨大工作量了 比如单个页面我怎么去抓取 如图的

我是说下载地址有某种规律,比如http://www.xxx.com/file-1.pdf ... http://www.xxx.com/file-100.pdf

可以在迅雷里面新建批量任务,http://www.xxx.com/file-(*).pdf 并指定*的范围就可以了。

现在一想,即便如此,下载操作如果需要登录的话,迅雷也不中用。

先看下载地址是否有规律吧。有规律总好办。

下下策:登录后,保留session,写个本地html页面,定时弹窗也把他下载下来。

返回顶部
顶部