https://github.com/voidborne-d/humanize-chinese
免费本地 AI 文本去痕迹工具 | Chinese AI text detection & humanization. N-gram perplexity analysis, 20+ detection patterns, academic AIGC reduction (知网/维普/万方), 7 style transforms. Zero dependencies, runs locally.
https://github.com/voidborne-d/humanize-chinese
academic agent-skill ai-detection aigc chinese claude-code-skill humanizer nlp perplexity text-analysis
Last synced: 8 days ago
JSON representation
免费本地 AI 文本去痕迹工具 | Chinese AI text detection & humanization. N-gram perplexity analysis, 20+ detection patterns, academic AIGC reduction (知网/维普/万方), 7 style transforms. Zero dependencies, runs locally.
- Host: GitHub
- URL: https://github.com/voidborne-d/humanize-chinese
- Owner: voidborne-d
- Created: 2026-02-23T06:56:28.000Z (2 months ago)
- Default Branch: main
- Last Pushed: 2026-03-26T16:20:59.000Z (about 1 month ago)
- Last Synced: 2026-03-27T04:52:02.838Z (about 1 month ago)
- Topics: academic, agent-skill, ai-detection, aigc, chinese, claude-code-skill, humanizer, nlp, perplexity, text-analysis
- Language: Python
- Homepage: https://clawhub.ai/skills/humanize-chinese
- Size: 192 KB
- Stars: 3
- Watchers: 0
- Forks: 0
- Open Issues: 1
-
Metadata Files:
- Readme: README.md
Awesome Lists containing this project
- awesome-claude-code-toolkit - humanize-chinese - chinese` | Detects and rewrites AI-generated Chinese text. Two-layer detection (20+ rule dimensions + N-gram perplexity), 0-100 scoring, 7 style transforms, academic paper AIGC reduction. 4 slash commands: /detect, /humanize, /academic, /style | (Skills / Community Skills)
README
# 🔧 中文 AI 文本去痕迹工具
**免费、本地运行、零依赖、零 LLM。检测 + 改写一步到位。**
[](https://github.com/voidborne-d/humanize-chinese)
[](https://clawhub.com/skills/humanize-chinese)
[](LICENSE)
[](https://python.org)
[](#claude-code)
---
## 30 秒看效果
```bash
./humanize academic 论文.txt -o 改后.txt --compare
```
```
学术专用评分 (11 维度):
原文: 92/100 VERY HIGH
改写后: 52/100 HIGH
✅ 降低了 40 分
通用 AIGC 评分 (同 detect_cn.py):
原文: 74/100 HIGH
改写后: 50/100 HIGH
✅ 降低了 24 分
```
**三款测试样本平均降低 37+ 分**。不用注册、不用付费、不用联网、不需要 API Key。10k 字符 5 秒搞定(`--quick` 模式 0.3 秒,18× 速度)。
---
## 改写前后对比
### 🎓 学术论文(VERY HIGH → HIGH,降 40 分)
**改写前** 🔴 92分:
> 本文旨在探讨人工智能对高等教育教学模式的影响,具有重要的理论意义和实践价值。研究表明,人工智能技术已被广泛应用于课堂教学、学生评估和个性化学习等多个方面。
**改写后** 🟠 52分:
> 本研究聚焦于人工智能对高等教育教学模式的影响,兼具理论探索与实践参考的双重价值。前人研究发现,人工智能技术已广泛用于课堂教学、学生评估和个性化学习等多个方面。
### 💬 通用文本(VERY HIGH → HIGH,降 35 分)
**改写前** 🔴 100分:
> 综上所述,人工智能技术在教育领域具有重要的应用价值和广阔的发展前景。值得注意的是,随着技术的不断发展,AI 将在个性化学习、智能评估等方面发挥越来越重要的作用,为教育行业的数字化转型赋能。
**改写后** 🟠 65分:
> 简单讲,人工智能技术在教育领域有其独特价值和广阔的进展前景。如今,AI 将在个性化学习、智能评估等维度发挥越来越要紧的作用。
### 🌸 社交媒体 → 小红书风格(VERY HIGH → HIGH,降 37 分)
**改写前** 🔴 100分
**改写后** 🟠 63分(自动先 humanize 去 AI 词,再加入小红书风格要素)
**所有示例的 AIGC 评分都基于统一检测器 detect_cn.py,使用 seed=42 可复现。**
---
## 真实数据测试
我们用 [HC3-Chinese](https://github.com/Hello-SimpleAI/chatgpt-comparison-detection) 公开数据集(12,853 对人类 vs ChatGPT 真实问答)做了基准测试,随机抽 100 对看工具的实际效果。
### 检测器表现
| 能力 | 数值 | 说明 |
|---|---|---|
| 区分 AI 和人写的能力 | **75%** | 随机抽一对文本,检测器给 AI 打分更高的概率 |
| AI 原分 vs 人类原分 | 25.1 vs 10.3 | 差 **14.7 分**,检测器能明显区分 |
### 改写效果(HC3 100 样本,平均降幅 **7.9 分**)
| 领域 | AI 原分 | 改写后 | 下降 |
|---|---|---|---|
| 🏥 医学问答 | 29.6 | 15.3 | **-14.3** |
| ⚖️ 法律问答 | 33.0 | 18.9 | **-14.1** |
| 💬 开放问答 | 32.9 | 21.9 | **-11.0** |
| 🧠 心理咨询 | 37.1 | 27.6 | -9.5 |
| 💰 金融问答 | 23.4 | 17.0 | -6.4 |
| 📚 百科问答 | 9.9 | 9.8 | -0.1 |
| 🔍 事实问答 | 10.9 | 10.4 | -0.5 |
**简单说:长文本、专业领域(医学/法律/开放问答)改写效果最好,能降 11-14 分。**
### 需要知道的
- **真实 ChatGPT 不等于"AI 样板文"**。HC3 里的 ChatGPT 原始分数就只有 5-25 分(本来就不那么明显),所以降幅只有几分。但如果是典型的八股 AI 文(论文模板/小红书腔),降幅会大得多(见上面的 50+ 分示例)。
- **短问答难降**:百科、事实类问答本身字数少,AI 特征不明显,工具发挥空间有限。
- **所有阈值都有依据**:每个检测特征都在 600 对人类-AI 样本上标定过,不是拍脑袋设的。
自己跑一遍:
```bash
# 需要先下载 HC3 数据到 ../data/hc3_chinese_all.jsonl
python evals/run_hc3_benchmark.py --n 100 --seed 42
```
---
## 安装
```bash
# 方式一:ClawHub
clawhub install humanize-chinese
# 方式二:Git Clone
git clone https://github.com/voidborne-d/humanize-chinese.git
# 方式三:Claude Code Skill
npx skills add https://github.com/voidborne-d/humanize-chinese.git
```
不需要 `pip install` 任何东西。下载就能用。
---
## Claude Code
4 个 slash command,复制到 `.claude/commands/` 即可:
```bash
git clone https://github.com/voidborne-d/humanize-chinese.git
cp humanize-chinese/claude-code/*.md YOUR_PROJECT/.claude/commands/
```
然后在 Claude Code 里:
```
/detect 综上所述,人工智能技术在教育领域具有重要的应用价值...
/humanize 本文旨在探讨人工智能对高等教育教学模式的影响...
/academic 论文.txt
/style xiaohongshu 在当今快节奏的生活中...
```
| 命令 | 功能 |
|------|------|
| `/detect` | AI 痕迹检测,0-100 评分 |
| `/humanize` | 去 AI 味改写 |
| `/academic` | 学术论文 AIGC 降重 |
| `/style [风格]` | 风格转换(7 种) |
---
## 快速上手
### 统一 CLI(推荐)
```bash
./humanize --list
./humanize detect 论文.txt # 检测
./humanize academic 论文.txt -o 改后.txt --compare # 学术降重
./humanize rewrite text.txt --quick -o clean.txt # 通用改写(极速)
./humanize style text.txt --style xiaohongshu # 风格转换
./humanize compare text.txt -a # 前后对比
./humanize --help # 子命令帮助
```
底层依然是各 `scripts/*_cn.py` 独立脚本,`./humanize` 只是分发器,直接调用旧脚本也完全 OK。
### 🎓 学术论文降 AIGC 率
```bash
./humanize academic 论文.txt # 只检测
./humanize academic 论文.txt -o 改后.txt --compare # 改写 + 对比
./humanize academic 论文.txt -o 改后.txt --quick # 快速模式(跳过统计,~18× 速度)
./humanize academic 论文.txt -o 改后.txt -a --compare # 激进模式
```
### 🔍 通用文本去 AI 味
```bash
./humanize detect text.txt -v # 检测(详细)
./humanize rewrite text.txt -o clean.txt # 改写
./humanize rewrite text.txt --quick # 纯替换,极快
./humanize compare text.txt -a # 对比
```
### 🎨 风格转换
```bash
./humanize style text.txt --style xiaohongshu # 小红书
./humanize style text.txt --style zhihu # 知乎
./humanize style text.txt --style weibo # 微博
```
7 种风格:口语化 / 知乎 / 小红书 / 公众号 / 学术 / 文艺 / 微博
(风格转换会先自动跑一遍 humanize,去掉 AI 高频词,再套风格。`--no-humanize` 关闭。)
---
## 功能一览
| 功能 | 说明 |
|------|------|
| 🔍 AI 检测 | 20+ 规则维度 + **HC3-校准**的 8 个统计特征(含 d=1.22 的句长 CV 和 d=1.21 的短句占比),0-100 评分 |
| 📈 统计层 | 字符级 trigram 困惑度 + DivEye 惊奇度 + GLTR rank 分桶 + 句长 burstiness + 标点密度 |
| ✏️ 智能改写 | 困惑度引导选词 + 低频 bigram 注入 + 短句插入 + 句长随机化 + **40 paraphrase 模板** + 三档自适应强度 |
| 🎓 学术降重 | 11 维度检测(含扩散度)+ **122 条学术替换** + 独立 picker 策略,针对知网/维普/万方 |
| 🎨 风格转换 | 7 种中文写作风格(知乎/小红书/微博/公众号/学术/文艺/口语化) |
| 📊 前后对比 | 学术分 + 通用分双评分,改写效果一目了然 |
| 🔄 可复现 | `--seed` 保证相同输入相同输出 |
| ⚡ 速度 | 10k 字符 `--quick` 模式 0.3 秒,完整模式 5 秒 |
| 📦 零依赖 | 纯 Python 标准库,下载即用。可选 CiLin 词林(`--cilin`,38873 词 + 语义过滤) |
| 📐 基准测试 | HC3-Chinese 12853 对人类/AI 真实问答回归测试 |
---
## 🎓 学生党必看
用 ChatGPT / DeepSeek 写了论文初稿?三步搞定:
```bash
# 1. 看看 AIGC 率多高
python scripts/academic_cn.py 论文.txt
# 2. 一键改写
python scripts/academic_cn.py 论文.txt -o 改后.txt --compare
# 3. 不够就开激进模式
python scripts/academic_cn.py 论文.txt -o 改后.txt -a --compare
```
**工具做了什么:**
- "本文旨在" → "本研究聚焦于"
- "被广泛应用" → "得到较多运用"
- 打破每段一样长的结构
- 加入"可能""在一定程度上"等学术犹豫语
- "研究表明" → "笔者认为""前人研究发现"
- 基于 HC3-Chinese Cohen's d 校准的统计特征,学术词表禁用口语候选(不会把"应用"改成"施用")
⚠️ 改完通读一遍,确认专业术语没被误改、引用格式正确。建议用知网 AMLC 或维普验证。
---
## 评分标准
| 分数 | 等级 | 含义 |
|------|------|------|
| 0-24 | 🟢 LOW | 基本像人写的 |
| 25-49 | 🟡 MEDIUM | 有些 AI 痕迹 |
| 50-74 | 🟠 HIGH | 大概率 AI 生成 |
| 75-100 | 🔴 VERY HIGH | 几乎确定是 AI |
---
## 技术原理
### 规则层(看词)
三段式套路、机械连接词、空洞宏大词、AI 高频词、模板句式、段落结构均匀度。规则都在 `scripts/patterns_cn.json`,可以自己改。
### 统计层(看分布)
所有阈值都基于 HC3-Chinese 300+300 人类-AI 对照样本的 Cohen's d 校准,不是拍脑袋设的。
**1. 句长 burstiness (最强信号)** — AI 中文爱写 15-25 字等长句,人类长短交错。灵感来自 AIMS 2025 中文深度学习 AIGC 检测 paper + 知网语言模式链情报。
- 句长变异系数 CV (HC3 **Cohen's d = 1.22** — 人类 0.52 vs AI 0.32)
- 短句占比 (< 10 字的句子比例,HC3 **Cohen's d = 1.21** — 人类 25% vs AI 2.6%)
**2. 困惑度 (Perplexity)** — 字符序列的平均负对数概率(d = 0.47)。基于 `scripts/ngram_freq_cn.json` 训练语料的字符级 3-gram。
**3. GLTR rank 分桶** ([Gehrmann et al. ACL 2019](https://arxiv.org/abs/1906.04043))
- top-10 bucket 占比(AI 更集中在高概率字,d = 0.44)
**4. DivEye surprisal 时间序列** ([Basani & Chen TMLR 2026](https://arxiv.org/abs/2502.00258))
- skew(d = 0.41)、excess_kurt(d = 0.29)、spectral_flatness(d = 0.20)
**5. 逗号密度** — 有趣发现:AIMS 2025 paper 说「AI 标点密」但 HC3 实测相反。Q&A corpus 里人类写 casual 文本用更多 commas(4.82/百字 vs AI 3.82/百字,d = -0.47)。加了 `low_comma_density` 指标。
所有 statistical indicators 总分上限 25,和规则层(上限 75)加成最终 0-100。
### 智能改写
**Picker 策略**:每次替换从多候选中选「困惑度次高」的(最高的常是古语/错字,次高才是自然人类选择)。学术场景额外禁用 30 个口语候选 + 37 个 AI 触发词候选。
**三档自适应强度**:
- score < 5:**conservative** — 仅短语替换 + 标点清理
- 5 ≤ score < 25:**moderate** — +restructure + bigram
- score ≥ 25:**full** — 全量(含噪声注入 + 句长随机化)
避免对已经够干净的文本乱加噪音反而更像 AI。
**其他技术**:
- 低频 bigram 注入(把 "系统" × 6 的重复 60% 换成 "架构""体系""框架")
- 句长随机化(避免每句差不多长,但保留"X指出,Y"等 attribution 结构)
- 段落感知(每一步按 `\n\n` 分段处理,不丢段落结构)
- 可选 CiLin 同义词词林扩展(`--cilin`,38,873 词 JSON)
---
## CLI 参数速查
统一 CLI 形式(推荐):
```bash
./humanize detect [file] [-v] [-s] [-j]
./humanize rewrite [file] [-o out] [--scene S] [--style S] [-a] [--seed N] [--quick] [--cilin]
./humanize academic [file] [-o out] [--detect-only] [-a] [--compare] [--quick]
./humanize style [file] --style S [-o out] [--no-humanize]
./humanize compare [file] [-o out] [--scene S] [-a]
```
等价的独立脚本形式:
```bash
python scripts/detect_cn.py [file] ...
python scripts/humanize_cn.py [file] ...
python scripts/academic_cn.py [file] ...
python scripts/style_cn.py [file] --style S ...
python scripts/compare_cn.py [file] ...
```
| 参数 | 说明 |
|------|------|
| `-v` | 详细模式,显示最可疑的句子 |
| `-s` | 只输出评分 |
| `-j` | JSON 输出 |
| `-o` | 输出文件 |
| `-a` | 激进模式 |
| `--seed N` | 固定随机种子 |
| `--quick` | 纯替换 + 结构还原,跳过统计优化(**~18× 速度**) |
| `--no-stats` | 关闭统计优化 |
| `--no-noise` | 关闭噪声注入和句长随机化 |
| `--cilin` | 开启 CiLin 同义词扩展(humanize) |
| `--compare` | 改写前后双评分对比(academic) |
| `--no-humanize` | style 转换前不先去 AI 词 |
---
## 批量处理
```bash
for f in *.txt; do echo "=== $f ===" && ./humanize detect "$f" -s; done
for f in *.md; do ./humanize rewrite "$f" -a -o "${f%.md}_clean.md"; done
```
---
## 对比 Humanizer-zh
和 [Humanizer-zh](https://github.com/op7418/Humanizer-zh)(5k⭐)的区别:
| | 本项目 | Humanizer-zh |
|---|---|---|
| 运行方式 | ✅ 独立 CLI,终端直接跑 | 纯 prompt,必须在 Claude Code 内用 |
| 依赖 | ✅ 零依赖、零 LLM、零 token | 需要 Claude Code + API 额度 |
| 量化评分 | ✅ 0-100 分(学术 + 通用双尺度) | ❌ 无评分 |
| 统计检测 | ✅ 困惑度 + DivEye + GLTR,HC3 校准 | ❌ 无 |
| 学术模式 | ✅ 11 维度 + 120 条替换 | ❌ 无 |
| 风格转换 | ✅ 7 种 | ❌ 无 |
| 可复现 | ✅ `--seed` | ❌ 每次不同 |
| 批量处理 | ✅ CLI 管道 | ❌ 只能单篇交互 |
| 免费 | ✅ 完全免费 | ⚠️ 需要 API 额度 |
| 基准测试 | ✅ HC3-Chinese 100 样本回归 | ❌ 无 |
简单说:Humanizer-zh 是个好 prompt,但只能在 Claude Code 里用。我们是独立工具,任何环境都能跑,而且每次改动都有 HC3 回归验证。
---
## 局限
- **真实 ChatGPT 输出** 不像网上样板那么极端,HC3 上 baseline 就 8 分左右,平均降幅只有 1.6 分。刻板化 AI 文本降幅明显(可 50+ 分),自然 ChatGPT 文本降幅温和。
- **统计层不用神经网络**:我们用字符级 n-gram + 时间序列特征,不是 RoBERTa 这类分类器。优点是零依赖,缺点是分类 AUC 不如 SOTA 检测器。
- **CNKI/维普/万方没有公开 API**,我们无法接入作为 oracle。PaperPass / 朱雀 都有腾讯 T-Sec CAPTCHA 反爬。所以本项目基于自己的检测公式 + HC3 回归测试迭代,不盲信第三方检测器的具体分数。
- **不保证过 100% 的 AIGC 检测**。改写会降低「刻板 AI 味」,但最终还是要看检测器用什么模型。工具只是帮你更像人写的,不是反检测魔法。
---
## Star History
[](https://star-history.com/#voidborne-d/humanize-chinese&Date)
---
## License
**MIT Non-Commercial** — 个人学习、学术研究、非商业开源项目随便用。
**禁止商业使用**,包括但不限于:
- 卖本软件或基于本软件的衍生品
- 把工具包装成付费服务(SaaS / API / 网页服务等)
- 集成到商业产品中作为功能卖点
- 用本软件给客户提供付费改写 / AI 检测服务
如需商业授权,请通过 [GitHub repo](https://github.com/voidborne-d/humanize-chinese) 联系作者。