Ecosyste.ms: Awesome

An open API service indexing awesome lists of open source software.

Awesome Lists | Featured Topics | Projects

https://github.com/p1g3/JSINFO-SCAN

递归式寻找域名和api。
https://github.com/p1g3/JSINFO-SCAN

js-info src-hunter

Last synced: 3 months ago
JSON representation

递归式寻找域名和api。

Awesome Lists containing this project

README

        

# JSINFO-SCAN

### 前言

很早以前就想写一款对网站进行爬取,并且对网站中引入的JS进行信息搜集的一个工具,之前一直没有思路,因为对正则的熟悉程度没有到可以对js中的info进行匹配的地步,最近实验室的朋友写了一款工具:[JSFinder](https://github.com/Threezh1/JSFinder "JSFinder"),借用了他的思路,写了一款递归爬取域名(netloc/domain),以及递归从JS中获取信息的工具。

### 思路

写这个工具主要有这么几个点:

- 如何爬取域名
- 如何爬取JS
- 如何从JS中获取信息

三个点的解决方案:

- 正则匹配href属性中的链接
- 正则匹配src属性中的链接,并判断链接是否为js。正则匹配``标签中的文本。
- 使用LinkFinder的正则从JS中匹配敏感信息

### 优点

- 实现递归爬取
- 对JS中匹配到的info进行了处理,直观的展示出来

### 缺点

使用的是单线程,因为目前多线程还没学够,如果冒昧使用担心引起数据混乱的问题,也并不熟悉使用Lock()函数,怕使用的地方多了,多线程也变成了单线程。

### Usage

```
python3 jsinfo.py -d jd.com --keyword jd --save jd.api.txt --savedomain jd.domain.txt
```

- -d/-f

对单个域名或对域名文件进行扫描,文件需要一行一个域名。

- --keyword

设置爬取关键字,会使用该关键字对域名进行匹配,必选项。

- --savedomain

设置爬取出来的域名保存路径

- --save

设置api保存路径

### 实例

- 对京东进行爬取

只爬取jd.com,设置keyword为jd,joybuy,360:

![enter image description here](https://s2.ax1x.com/2019/06/27/Zma4Tf.png)

- 对百度进行爬取

![enter image description here](https://s2.ax1x.com/2019/06/27/Zmablj.png)

### Update

2019-7-5:重构代码,加入了爬行深度的设定,深度为1~2,默认为1,2即为深度爬取,同时增加了url的存储,即深度爬取爬取到的链接。

2020-2-10:重构代码,整体使用了协程,使用队列的方式作为递归标准,默认递归深度为8,可根据自身需要进行修改。

经过测试,速度是v1版本的十倍不止,并且获取到的域名也是v1版本的两倍,但是这一版取消了获取api。

效果:

![](https://s2.ax1x.com/2020/02/10/1ImiUe.jpg)

2020-2-16:增加搜集其他信息的功能,比如邮箱,代码作者,ip等。

效果:

![3Ufg5n.png](https://s2.ax1x.com/2020/02/26/3Ufg5n.png)

2020-8-1:重构代码,具体看下面的README。

#### JSINFO流程图

```bash
_____ ___ _ _ _ ___ _____
(___ )( _`\ (_)( ) ( )( _`\ ( _ )
| || (_(_)| || `\| || (_(_)| ( ) |
_ | |`\__ \ | || , ` || _) | | | |
( )_| |( )_) || || |`\ || | | (_) |
`\___/'`\____)(_)(_) (_)(_) (_____)
Author:P1g3#[email protected]
```

![jsinfo.jpg](https://i.loli.net/2020/08/01/QRMeW2HABCxVamk.png)

目的:

- 扩充资产(主要体现在爬取根域名这块)
- 爬取敏感信息(新增了大量敏感信息正则,对邮箱的提取进行了优化)
- 爬取api(将前面版本中去除的api功能恢复)

##### update

- 新增banner信息
- 新增敏感信息正则
- 代码优化
- 对Ctrl+C退出进行优化(当退出时,会自动将已爬取到的信息保存到当前目录下)
- 无需自动指定输出结果,最终输出为四个文件,为str(int(time.time()))_xxx(xxx为root_domains、sub_domains、leak_infos、apis)
- 错误处理优化
- 减少传入参数

##### Usage

```
python3 jsinfo.py --target www.baidu.com --keywords baidu
```

- target(域名 ==> 可传入单个域名或域名文件)
- keywords(域名中的关键字,用于搜集根域名以及扩充子域名)
- black_keywords(黑名单关键字,当返回包中含有这些关键字则不再进行二次爬取,用于某些商城页面避免爬到无用链接)

##### 使用效果

![image-20200801011132874.png](https://i.loli.net/2020/08/01/e5rxjcQCFhLBdlU.png)

阿里的资产还在跑,目前获取到了如下信息:

- 2k+ 子域
- 80+ 根域
- 80000+ api
- 5000+ 敏感信息

PS:欢迎反馈Bug,本项目将持续更新,如有问题请联系wx:p1g3___,如果需要下载历史版本的jsinfo,请从commit中寻找...

##### 部分正则来源

- https://github.com/m4ll0k/SecretFinder/blob/master/SecretFinder.py
- https://github.com/GerbenJavado/LinkFinder