avatar
l*k
1
不知道有没有什么好的办法可以从网络(比如说amazon.com)上定时搜集数据。
老板最近让我给他搜集网上书店的教材的价格数据,要我跟踪搜集整理500多本书
连续3个月的数据。不知有没有什么专门的软件可以把这个下载整理的过程自动化
一下。听说web crawler/spider一类的软件可以,但没有找到一个可以用的。
多谢了!
avatar
s*f
2
推荐 irobotsoft. 可以记录一串网络操作,提取数据,并直接把数据保存到数据库或
文件里。内置定时操作,所以你让它连续跑3个月就行了。
avatar
l*k
3
太感谢了。我已经大概弄清楚了怎么用了。
挺不错的一个软件,而且还是免费的。
真的省了我好多的时间。
我上个月找了好多个都没找到一个能用的。
avatar
l*d
4
有这功夫学点perl就够了

【在 l****k 的大作中提到】
: 太感谢了。我已经大概弄清楚了怎么用了。
: 挺不错的一个软件,而且还是免费的。
: 真的省了我好多的时间。
: 我上个月找了好多个都没找到一个能用的。

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。