https://github.com/sunshineplan/web-crawler
collect data from web
https://github.com/sunshineplan/web-crawler
beautifulsoup4 pyhton3 webcrawler
Last synced: 5 months ago
JSON representation
collect data from web
- Host: GitHub
- URL: https://github.com/sunshineplan/web-crawler
- Owner: sunshineplan
- Created: 2018-09-06T07:11:52.000Z (about 7 years ago)
- Default Branch: main
- Last Pushed: 2021-09-14T08:23:25.000Z (about 4 years ago)
- Last Synced: 2025-02-17T05:41:21.195Z (8 months ago)
- Topics: beautifulsoup4, pyhton3, webcrawler
- Language: Python
- Homepage:
- Size: 106 KB
- Stars: 0
- Watchers: 1
- Forks: 0
- Open Issues: 0
-
Metadata Files:
- Readme: README.md
Awesome Lists containing this project
README
# web-crawler
collect data from web(JD.com, dangdang.com, amazon.cn, taobao.com, etc.)### 相对于[原版程序](https://github.com/LewisTian/RAM-JD),该版本主要改动如下:
- 1.设计成在命令行环境下运行,后面的第一个参数为搜索关键字,第二个参数为保存路径。如`jingdong.py 笔记本内存条 d:\`
- 2.自动获取页码数,并按照该页码数抓取数据(各网站最多也只有100页),如无结果也会提示
- 3.由输出到数据库改为输出成CSV文件(为了方便,不用搭数据库环境,可用Excel软件直接打开)
- 4.使用内置库替换requests库,运行环境除了Python之外只需安装BeautifulSoup4即可
- 5.增加抓取当当网、亚马逊图书的内容
- 6.增加了主控制程序,一个命令即可调用不同的网站库
- 7.增加多线程### 次要改动:
- 1.去除一些不影响运行的headers,并简化了抓取地址
- 2.更改了京东的产品排序(因工作需要)
- 3.调整一些字段(因工作需要)