论文修改是学术写作中最耗时的环节。 一篇初稿从"能读"到"能投",传统上需要 8-10 小时反复打磨。AI Agent 的多代理系统能把这个过程系统化、可追溯化。
| 属性 | 说明 |
|---|---|
| 来源 | ClawHub (clawhub.com) |
| 功能 | 针对顶会标准(NeurIPS、ICML、ACL)逐段润色 |
| 特色 | 可以单独丢一个 section,不用整篇丢进去 |
| 适用 | 虽然标准偏 CS,但英文学术写作的逻辑是相通的:简洁、精确、避免废话 |
| 安装 | clawhub install academic-writing-refiner |
| 属性 | 说明 |
|---|---|
| 来源 | 学术社区开源项目 |
| 架构 | 3 子代理多代理系统 |
| 原理 | 把修改方法论写进 SKILL.md,底层参考标准(Strunk & White 文体规则、McCloskey 学术写作原则)被编码进 Skill |
工作流详解:
输入: copy-edit papers/draft.md
↓
自动检测文档类型:
→ 一般学术论文 → 2 阶段流程
→ 理论论文(含定理/形式化模型)→ 5 阶段流程
↓
阶段 1: structure-editor(结构编辑器)
- 全局视野,ultra-think 模式
- 调整论文整体逻辑和结构
↓
阶段 2: line-editor(逐行编辑器)
- 逐 section 精细处理
- 使用 Sonnet 模型控制成本
↓
quality-reviewer(质量审阅器)
- 独立审阅,避免"自我感觉良好"偏差
- 每阶段最多迭代 2 次,未通过升级人工
↓
输出: 修改后的论文 + 阶段报告 + git 检查点
安全机制:
- 自动备份(
.backup)+ 每阶段git commit+ 阶段报告 - 三类修改 Agent 不会自动处理:研究贡献重新定位、数据来源声明、统计显著性声明——这些留给人工
- 2 次未通过后提供明确的三选一决策
| 属性 | 说明 |
|---|---|
| 来源 | 学术社区开源项目(goyal-intro-writer) |
| 架构 | 4 个角色各司其职 |
| 角色 | 功能 |
|---|---|
intro-strategist |
分析全文,制定写作策略 |
intro-drafter |
按 Keith Head 公式起草引言 |
intro-reviewer |
独立评分,识别贡献声明不清等问题 |
intro-reviser |
针对性修订,不破坏已通过部分 |
为什么要分角色? 审阅者与起草者独立,才能形成真正的质量闭环。如果同一个 Agent 既写又审,它倾向于认为自己写的都是对的。
| 属性 | 说明 |
|---|---|
| 来源 | claesbackman/AI-research-feedback |
| 功能 | 预投稿审阅,专为经济学论文设计 |
| 检查项 | 贡献清晰度、识别策略可信度、因果过度声称、未支持的声明 |
| 支持 | Top-5 经济学期刊 + 顶级金融期刊 |
| 属性 | 说明 |
|---|---|
| 来源 | ShiyanW/ai-revision-guard |
| 功能 | 防止 AI 越改越差——限制修改轮次、检测同质化、保护作者 voice |
| 安装 | git clone https://github.com/ShiyanW/ai-revision-guard.git ~/.claude/skills/revision-guard |
解决的问题:
AI 总能找到"改进空间",用户反复迭代后反而得到更差的结果——Liz Fosslien 称之为"Frankenstein-ed slop"。研究表明 LLM 修改量是人类的 3 倍,论点向中性偏移 70%(CHI 2025; Georgetown 2025)。
工作流:
Step 0: 锚定 — 锁定用户满意的内容(不是初稿,是用户确认的版本)
Step 1: 分类 — 结构/实质/语言/格式/全面重写,各有明确边界
Step 2: 执行 — 最小有效改动,15 个禁止的 AI 替换模式
Step 3: 报告 — 自评:实质改进 / 微调 / 边际(边际则建议停止)
Step 4: 限制 — 每节最多 2 轮,第 3 轮触发警告
Step 5: 检测 — 7 项同质化清单,2+ 项触发则警告并提供回滚
Step 5b: 交叉验证(可选)— 发送修改前后文本给 Codex/GPT 独立判断
特色:
- 8 个领域预设(经济学、法学、医学、人文、STEM、心理学、政治学、教育学)自动锁定核心学术判断
- 锁定保护 voice 但不保护事实错误——发现锁定区有错会主动标记
- 附带
scripts/diff-check.py自动检测同质化信号(词数膨胀、第一人称消失、hedge 词增加等) - 研究支撑:8 项学术来源(CHI 2025、Georgetown 2025、Xie & Xie 2026 等)
| 属性 | 说明 |
|---|---|
| 来源 | matsuikentaro1/humanizer_academic |
| 功能 | 检测并消除学术论文中的 23 种 AI 写作痕迹,降低 AIGC 检测率 |
| 安装 | git clone https://github.com/matsuikentaro1/humanizer_academic.git ~/.claude/skills/humanizer_academic |
解决的问题:
AI 生成的文本有统计上可检测的模式——"LLM 使用统计算法猜测下一个最可能的词,结果趋向于最广泛适用的统计最大概率结果"(Wikipedia)。这导致学术论文中出现夸大重要性、空洞过渡词、em dash 滥用、人工三项列表等模式,容易被 AIGC 检测系统识别。
23 种检测模式:
- 内容模式(6 个):重要性夸大、知名度声称、浅层分析、推销式语言、模糊归因、公式化问题陈述
- 语言模式(6 个):AI 偏好词汇("pivotal"/"landscape"/"crucial")、避免系动词、否定并列("not only...but also")、三项排列、同义词轮换、虚假范围
- 风格模式(3 个):em dash 零容忍、标题大写规范、弯引号标记
- 填充与对冲(3 个):冗余短语("in order to"→"to")、过度对冲、泛化结论
- 用词选择(5 个):不自然短语替换、人为压缩表达、对冲调整不足
特色:
- 示例来自心血管研究(EMPA-REG OUTCOME 试验),适合医学/自然科学
- 保留合法的学术过渡词("Notably"、"Furthermore")
- 基于 Wikipedia "Signs of AI writing" 指南改编
| 属性 | 说明 |
|---|---|
| 来源 | stephenturner/skill-deslop |
| 功能 | 专为科学写作设计的去 AI 化工具,尊重学科惯例(如方法论部分的被动语态) |
| 使用 | 直接说 "make this sound human" 或使用 5 维评分量表 |
核心特色:
- 智能区分"合法的科学写作惯例"和"AI 生成痕迹"——不会误伤方法论章节的被动语态或领域专用术语
- 5 维评分量表:直接性(Directness)、节奏变化(Rhythm)、读者信任(Trust)、真实感(Authenticity)、内容密度(Density)
- 针对空洞过渡词、重复句式、虚假对冲、人为热情、舞台式戏剧化等模式
| 属性 | 说明 |
|---|---|
| 来源 | hardikpandya/stop-slop |
| 功能 | 从散文中移除 AI 写作特征,三层检测 + 五维评分 |
| 兼容 | Claude Code、Claude Projects、自定义指令、API 集成 |
三层检测:
- 禁用短语:清喉开场白、强调拐杖、商业行话、模糊声明、元评论
- 结构套路:二元对比、否定列表、戏剧性碎片化、修辞铺垫、虚假能动性、旁白者视角、被动构造
- 句级规则:禁止 Wh- 开头、em dash、断续碎片化;强制主动语态
评分:5 维各 1-10 分,总分低于 35/50 建议重写。
| 属性 | 说明 |
|---|---|
| 来源 | voidborne-d/humanize-chinese |
| 形态 | 同时提供 SKILL.md 和独立 Python CLI/库——仓库根目录含 SKILL.md(带 frontmatter,topics 标 claude-code-skill),可在 Claude Code / OpenClaw / Hermes 等 agent 内直接加载;同时也是 0 第三方依赖的 Python 库,可独立 pip install 后在任意 pipeline / CI / 服务器跑批。本条目侧重 CLI/库的非 agent 用法,agent 内用法可参考 chinese-de-aigc 的工作流定位 |
| 功能 | 中文 AI 文本检测与改写:17 类检测特征 + 7 风格改写器(academic / novel / blog / casual / 小红书 / 微信 / 文学),针对知网 / 万方 / 维普 / Turnitin 中文版实测调参 |
| 安装 | pip install humanize-chinese 或 git clone https://github.com/voidborne-d/humanize-chinese && pip install -e . |
| License | MIT (Non-Commercial)——非标准修改版 MIT,明确禁止商业用途(禁止 SaaS / 付费 API / 集成进商业产品 / 付费内容改写服务等)。个人使用、学术研究、教育用途、非商用衍生开源项目允许。下游商用需联系作者另行授权,不能按标准 MIT 使用 |
与 chinese-de-aigc / humanizer_academic 的差异(聚焦 CLI/库形态的互补面):
| 维度 | chinese-de-aigc | humanizer_academic | humanize-chinese (CLI/库形态) |
|---|---|---|---|
| 主用形态 | Markdown SKILL.md(agent 内) | Markdown SKILL.md(agent 内) | Python CLI + 库(pipeline 可调用,亦提供 SKILL.md) |
| 语言 | 中文学术 | 英文学术 | 中文学术(含 novel / blog / 通用) |
| 检测维度 | 17 类(agent 自查) | 23 类(agent 自查) | 17 类(程序化打分,逻辑回归 ensemble) |
| 改写形式 | agent 五步工作流 | agent 模式重写 | 7 个风格改写器,规则 + best-of-n 采样,可复现(seed=42) |
| 长篇支持 | 通用 | 通用 | 长度 ≥1500 字自动切长篇 LR;段落级特征(段内句长 CV、段长 CV、跨段 3-gram 重复率) |
核心特色(v5 段落级特化):
- 段落级信号:段内句长 CV、段长 CV、跨段 3-gram 重复率。LR holdout 0.897 → 0.926
- HC3 100 短问答基准:95% 正确分离,长篇平均降幅 -55 / 短样本 -63
- 可复现:默认
--best-of-n 10 --seed 42;场景感知 detector--scene academic / novel / blog / news / auto
使用建议:
- 中文论文 batch 处理(CI / 服务器,不在 Claude Code 内)→ humanize-chinese CLI
- agent 内交互式改写 → chinese-de-aigc Skill(或 humanize-chinese 的 SKILL.md)
- 中英双语论文 → humanize-chinese(中文段)+ humanizer_academic(英文段)
- 商用场景 → humanize-chinese 不可(License 限制),需用 chinese-de-aigc / humanizer_academic / stop-slop 等标准 MIT 项目
从使用者到设计者,可以分为三个层次:
Level 1: 工具(Claude Code 内置读写搜索能力)
↓
Level 2: Skill(你写操作手册,Agent 按手册执行)
↓
Level 3: Custom Agent(你定义专门化子代理,独立身份、独立工具集、独立模型选择)
SKILL.md 编写原则:
- 步骤要可执行:写"应用 Strunk & White Rule 13",而非"适当润色"
- 输出要可验证:写"生成 stage-1-report.md",而非"改善质量"
- 边界要明确:什么修改 Agent 做,什么修改留给人工
成长路径:
先用别人的 Skill → 记录自己重复做的任务 → 写成 SKILL.md → 拆分为多 Agent 系统
- 不要跳过 structure-editor:很多人急着逐句润色,但如果论文结构有问题,句子再漂亮也没用
- 利用 git 检查点:copy-edit-master 的每阶段 git commit 让你可以随时回滚,大胆让 AI 改
- 投稿前必做:用
AI-research-feedback跑一遍预审,看看 AI 模拟审稿人会提什么意见——这些很可能就是真正审稿人会问的