Run this helper free — no credit card
Every helper is free for 30 days. Answer 3 questions and get the full result in 2 minutes.
Start free →Humanize Chinese AI Text
Detect and humanize AI Chinese text in seconds
❌ Chinese AI-generated text gets flagged by academic plagiarism detectors and reads unnaturally, risking rejection from journals and readers.
✅ Transform AI text into natural-sounding Chinese that passes AIGC detection systems and reads like human writing.
- ✓20+ rule detection categories identify AI writing patterns
- ✓7 style transforms: casual, academic, literary, social media
- ✓122 academic replacements for journal submission
- ✓HC3-calibrated statistical analysis with 8 features
- ✓CNKI/VIP/Wanfang AIGC detection bypass support
👁 3 views · 📦 0 installs
Install in one line
CLI$ mfkvault install voidborne-d-humanize-chineseRequires the MFKVault CLI. Prefer MCP?
Free to install — no account needed
Copy the command below and paste into your agent.
Instant access • No coding needed • No account needed
What you get in 5 minutes
- Full skill code ready to install
- Works with 7 AI agents
- Lifetime updates included
Run this helper
Answer a few questions and let this helper do the work.
▸Advanced: use with your AI agent
Description
--- name: humanize-chinese description: > Detect and humanize AI-generated Chinese text. 20+ rule detection categories plus 8 HC3-calibrated statistical features (sentence-length CV Cohen's d=1.22, short-sentence fraction d=1.21, comma density, GLTR rank buckets, DivEye surprisal). Unified CLI: ./humanize {detect,rewrite,academic,style,compare}. 7 style transforms (casual/zhihu/xiaohongshu/wechat/academic/literary/weibo), 40 paraphrase templates, 122 academic replacements, CiLin synonym expansion with semantic filter. Academic paper AIGC reduction for CNKI/VIP/Wanfang (知网/维普/万方 AIGC 检测降重), 11 academic detection dimensions. Pure Python, no dependencies. v3.0.0 — HC3 accuracy 73%, humanize avg delta +4.2 on HC3-Chinese 100-sample. Use when user says: "去AI味", "降AIGC", "人性化文本", "humanize chinese", "AI检测", "AIGC降重", "去除AI痕迹", "文本改写", "论文降重", "知网检测", "维普检测", "AI写作检测", "让文字更自然", "detect AI text", "humanize text", "reduce AIGC score", "make text human-like", "去ai化", "改成人话", "去机器味", "降低AI率", "过AIGC检测" allowed-tools: - Read - Write - Edit - exec --- # Humanize Chinese AI Text v3.0 检测和改写中文 AI 生成文本的完整工具链。可独立运行(统一 CLI 或独立脚本),也可作为 LLM prompt 指南使用。 **v3.0 亮点:** HC3 accuracy 51→73% (+22 pts);句长 CV Cohen's d=1.22 最强统计特征;40 paraphrase 模板 + 122 学术替换;统一 CLI + `--quick` 18× 速度。 ## CLI Tools ### 统一 CLI(推荐) ```bash ./humanize detect 文本.txt -v # 检测 + 详细 ./humanize rewrite 文本.txt -o 改后.txt --quick # 快速改写(18× 速度) ./humanize academic 论文.txt -o 改后.txt --compare # 学术降重 + 双评分对比 ./humanize style 文本.txt --style xiaohongshu # 风格转换 ./humanize compare 文本.txt -a # 前后对比 ``` ### 独立脚本形式(等价) 所有脚本在 `scripts/` 目录下,纯 Python,无依赖。 ```bash # 检测 AI 模式(20+ 规则维度 + 8 统计特征,0-100 分) python scripts/detect_cn.py text.txt python scripts/detect_cn.py text.txt -v # 详细 + 最可疑句子 python scripts/detect_cn.py text.txt -s # 仅评分 python scripts/detect_cn.py text.txt -j # JSON 输出 # 改写(三档自适应:conservative/moderate/full) python scripts/humanize_cn.py text.txt -o clean.txt python scripts/humanize_cn.py text.txt --scene social -a # 社交 + 激进 python scripts/humanize_cn.py text.txt --quick # 18× 速度,纯替换 python scripts/humanize_cn.py text.txt --cilin # 启用 CiLin 同义词扩展 # 风格转换(先自动 humanize 再套风格) python scripts/style_cn.py text.txt --style zhihu -o out.txt # 前后对比 python scripts/compare_cn.py text.txt --scene tech -a # 学术论文 AIGC 降重(11 维度 + 扩散度 + 双评分) python scripts/academic_cn.py paper.txt -o clean.txt --compare python scripts/academic_cn.py paper.txt -o clean.txt -a --compare # 激进 python scripts/academic_cn.py paper.txt -o clean.txt --quick # 快速模式 ``` ### 评分标准 | 分数 | 等级 | 含义 | |------|------|------| | 0-24 | LOW | 基本像人写的 | | 25-49 | MEDIUM | 有些 AI 痕迹 | | 50-74 | HIGH | 大概率 AI 生成 | | 75-100 | VERY HIGH | 几乎确定是 AI | ### 参数速查 | 参数 | 说明 | |------|------| | `-v` | 详细模式,显示可疑句子 | | `-s` | 仅评分 | | `-j` | JSON 输出 | | `-o` | 输出文件 | | `-a` | 激进模式 | | `--seed N` | 固定随机种子 | | `--scene` | general / social / tech / formal / chat | | `--style` | casual / zhihu / xiaohongshu / wechat / academic / literary / weibo | | `--compare` | 前后对比(学术双评分) | | `--quick` | 快速模式(跳过统计优化,18× 速度) | | `--cilin` | 启用 CiLin 同义词扩展(humanize,38873 词) | | `--no-humanize` | style 转换前不先去 AI 词 | ### 工作流 ```bash # 1. 检测 ./humanize detect document.txt -v # 2. 改写 + 对比 ./humanize compare document.txt -a -o clean.txt # 3. 验证 ./humanize detect clean.txt -s # 4. 可选:转风格 ./humanize style clean.txt --style zhihu -o final.txt ``` ### HC3-Chinese 基准测试 v3.0 所有阈值都基于 [HC3-Chinese](https://github.com/Hello-SimpleAI/chatgpt-comparison-detection) 300+300 人类/AI 样本的 Cohen's d 校准: - 句长变异系数 CV: d = 1.22(最强单信号) - 短句占比 (< 10 字): d = 1.21 - 困惑度: d = 0.47 - GLTR top-10 bucket: d = 0.44 - DivEye skew / kurt: d = 0.41 / 0.29 - 逗号密度: d = -0.47 100 样本回归测试:73% 正确分离率 / 9.9 分差距 / +4.2 平均降幅。 --- ## LLM 直接使用指南 当用户要求"去 AI 味"、"降 AIGC"、"人性化文本"、"改成人话"时,如果无法运行 CLI 工具,按以下流程手动处理。 ### 第一步:检测 AI 写作模式 扫描文本中的以下模式,按严重程度分类: #### 🔴 高危模式(一眼就能看出是 AI) **三段式套路:** - 首先…其次…最后 - 一方面…另一方面 - 第一…第二…第三 **机械连接词:** 值得注意的是、综上所述、不难发现、总而言之、与此同时、由此可见、不仅如此、换句话说、更重要的是、不可否认、显而易见、不言而喻、归根结底 **空洞宏大词:** 赋能、闭环、数字化转型、协同增效、降本增效、深度融合、全方位、多维度、系统性、高质量发展、新质生产力 #### 🟠 中危模式 **AI 高频词:** 助力、彰显、凸显、底层逻辑、抓手、触达、沉淀、复盘、迭代、破圈、颠覆 **填充废话:** 值得一提的是、众所周知、毫无疑问、具体来说、简而言之 **模板句式:** - 随着…的不断发展 - 在当今…时代 - 在…的背景下 - 作为…的重要组成部分 - 这不仅…更是… **平衡论述套话:** 虽然…但是…同时、既有…也有…更有 #### 🟡 低危模式 - 犹豫语过多(在一定程度上、某种程度上 出现 >5 次) - 列举成瘾(动辄①②③④⑤) - 标点滥用(大量分号、破折号) - 修辞堆砌(排比对偶过多) #### ⚪ 风格信号 - 段落长度高度一致 - 句子长度单调 - 情感表达平淡 - 开头方式重复 - 信息熵低(用词可预测) ### 第二步:改写策略 按以下顺序处理: **1. 砍掉三段式** 把"首先…其次…最后"打散,用自然过渡代替。不是每个论点都要编号。 **2. 替换 AI 套话** - 综上所述 → 总之 / 说到底 / (直接删掉) - 值得注意的是 → (直接删掉,后面的话自己能说清楚) - 赋能 → 帮助 / 支持 / 提升 - 数字化转型 → 信息化改造 / 技术升级 - 不难发现 → 可以看到 / (删掉) - 助力 → 帮 / 推动 **3. 句式重组** - 过短的句子合并("他很累。他决定休息。" → "他累了,干脆歇会儿。") - 过长的句子拆开(在"但是""不过""同时"等转折处断开) - 打破均匀节奏(长短句交替,不要每句差不多长) **4. 减少重复用词** 同一个词出现 3 次以上就换同义词。比如"进行"可以换成"做""搞""开展""着手"。 **5. 注入人味** - 加一两句口语化表达(场景允许的话) - 用具体的例子代替抽象概括 - 偶尔加个反问或感叹 - 不要每段都总分总结构 **6. 段落节奏** 打破每段差不多长的格局。有的段落 2 句话,有的 5 句话,像人写东西时自然的长短变化。 ### 第三步:学术论文特殊处理 当文本是学术论文时,改写规则不同——不能口语化,要保持学术严谨性: **学术专用检测维度:** 1. AI 学术措辞("本文旨在""具有重要意义""进行了深入分析") 2. 被动句式过度("被广泛应用""被认为是") 3. 段落结构过于整齐(每段总-分-总) 4. 连接词密度异常 5. 同义表达匮乏("研究"出现 8 次) 6. 引用整合度低(每个引用都是"XX(2020)指出…") 7. 数据论述模板化("从表中可以看出") 8. 过度列举(①②③④ 频繁出现) 9. 结论过于圆满(只说好不说局限) 10. 语气过于确定("必然""毫无疑问") **学术改写策略:** - **替换 AI 学术套话(保持学术性):** - 本文旨在 → 本文尝试 / 本研究关注 - 具有重要意义 → 值得关注 / 有一定参考价值 - 研究表明 → 前人研究发现 / 已有文献显示 / 笔者观察到 - 进行了深入分析 → 做了初步探讨 / 展开了讨论 - 取得了显著成效 → 产生了一定效果 / 初见成效 - **减少被动句:** - 被广泛应用 → 得到较多运用 / 在多个领域有所应用 - 被认为是 → 通常被看作 / 一般认为 - **注入学术犹豫语(hedging):** 在过于绝对的判断前加"可能""在一定程度上""就目前而言""初步来看" - **增强作者主体性:** - 研究表明 → 笔者认为 / 本研究发现 - 可以认为 → 笔者倾向于认为 - **补充局限性:** 如果结论段没有提到局限,补一句"当然,本研究也存在一定局限…" - **打破结构均匀度:** 调整段落长度,避免每段都一样。合并过短的段落,拆分过长的。 ### 第四步:验证 改写完成后,用 CLI 工具验证效果: ```bash ./humanize detect output.txt -s ``` 目标(基于 v3.0 的强化检测器): - 通用文本降到 50 分以下(MEDIUM 区间) - 学术论文降到 40 分以下(学术专用),通用评分降到 35 分以下 - 真实 ChatGPT 输出 baseline 通常已在 5-25 分,改写后能降 3-10 分就算成功 - 刻板化 AI 样板文(论文模板/八股)可以看到 50+ 分降幅 注:v3.0 detect_cn 加了句长 CV + 短句占比 + 逗号密度三个强指标,相同文本的分数会比 v2.x 略高(更准确),这是正常现象。 --- ## 配置说明 所有检测模式和替换规则在 `scripts/patterns_cn.json`,可自定义: - 添加新 AI 词汇 - 调整权重 - 增加替换规则 - 修改正则匹配 ## 外部配置字段 ``` critical_patterns — 高权重检测(三段式、连接词、空洞词) high_signal_patterns — 中权重检测(AI 高频词、模板句) replacements — 替换词库(正则 + 纯文本) academic_patterns — 学术专用检测与替换 scoring — 权重和阈值配置 ```
Security Status
Verified
Manually verified by security team
Related AI Tools
More Career Boost tools you might like
ru-text — Russian Text Quality
FreeApplies professional Russian typography, grammar, and style rules to improve text quality across content types
Run free/forge:工作流总入口
Free'Forge 工作流总入口。检查项目状态,推荐下一步该用哪个 skill。任何时候不知道下一步该干什么,就用 /forge。触发方式:用户说"forge"、"下一步"、"接下来做什么"、"继续"(在没有明确上下文时)。'
Run freeCharles Proxy Session Extractor
FreeExtracts HTTP/HTTPS request and response data from Charles Proxy session files (.chlsj format), including URLs, methods, status codes, headers, request bodies, and response bodies. Use when analyzing captured network traffic from Charles Proxy debug
Run freeJava Backend Interview Simulator
FreeSimulates realistic Java backend technical interviews with customizable interviewer styles and candidate levels for Chinese tech companies
Run freeTypeScript React & Next.js Production Patterns
FreeProduction-grade TypeScript reference for React & Next.js covering type safety, component patterns, API validation, state management, and debugging
Run freeAI News & Trends Intelligence
FreeFetches latest AI/ML news, trending open-source projects, and social media discussions from 75+ curated sources for comprehensive AI briefings
Run free