humanizer
Humanizer 是一款专为 Claude Code 和 OpenCode 设计的技能插件,旨在消除文本中明显的 AI 生成痕迹,让内容读起来更加自然、流畅,仿佛出自真人之手。它主要解决了大语言模型写作时常见的“机器味”问题,例如过度使用华丽辞藻、句式结构单一、滥用被动语态以及缺乏具体细节等,帮助将生硬的机器译文或草稿转化为符合人类表达习惯的文章。
这款工具非常适合需要频繁利用 AI 辅助写作的内容创作者、开发者、研究人员以及任何希望提升文本自然度的普通用户。其独特之处在于深度参考了维基百科关于"AI 写作特征”的权威指南,能够精准识别并修正多达 29 种典型的 AI 写作模式,如“意义夸大”、“同义词循环”和“虚假范围”等。更贴心的是,Humanizer 支持“声音校准”功能:用户只需提供几段自己的写作样本,它就能分析个人的用词偏好与行文节奏,从而在改写时完美匹配用户的独特风格,而非输出千篇一律的通用文本。通过内置的双重审查机制,它能确保最终成果彻底摆脱 AI 腔调,呈现真实自然的质感。
使用场景
一位技术博主刚用 AI 生成了关于“微服务架构演进”的草稿,准备发布到个人技术专栏,但担心文章读起来太像机器生成的“通稿”而缺乏个人特色。
没有 humanizer 时
- 文章充斥着"marking a pivotal moment(标志着关键时刻)”、"showcasing innovation(展示创新)”等典型的 AI 夸张词汇,显得空洞且过度营销。
- 句式结构高度雷同,频繁使用“不仅……而且……"的排比句和“从大数据到云计算”这种虚假的范围描述,缺乏真实的技术细节支撑。
- 被动语态和无主语句过多(如“无需配置文件”),导致行文冷冰冰,读者无法感受到作者作为开发者的真实视角。
- 为了规避重复,AI 强行轮换同义词(如交替使用“主角”、“核心人物”、“中心角色”),反而让技术叙述显得混乱且不专业。
- 整体语调过于平滑完美,缺乏人类写作中自然的节奏感和特定的用词习惯,容易被老练的读者一眼识破是 AI 代笔。
使用 humanizer 后
- 自动将浮夸的形容词替换为平实的事实陈述(如改为“成立于 1989 年以收集区域数据”),显著提升了内容的可信度。
- 打破了僵化的排比结构,直接陈述具体的技术挑战与解决方案,去除了“虚假范围”,使逻辑更加紧凑清晰。
- 将被动语态还原为主动表达,明确动作执行者,让技术复盘读起来更像是一位资深工程师的亲历分享。
- 统一了关键术语的使用,不再为了“丰富性”而强行替换词汇,确保了技术概念传达的准确性。
- 通过输入博主过往的文章样本,humanizer 模仿了其独特的句子节奏和用词癖好,使最终成文完美贴合博主的个人风格。
humanizer 通过精准识别并重构 29 种 AI 写作特征,将机械的算法输出转化为具有真实温度和独特个性的自然文本。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
人性化工具
一款适用于 Claude Code 和 OpenCode 的技能,用于去除文本中的人工智能生成痕迹,使其听起来更自然、更像人类写作。
安装
Claude Code
直接克隆到 Claude Code 的技能目录中:
mkdir -p ~/.claude/skills
git clone https://github.com/blader/humanizer.git ~/.claude/skills/humanizer
或者,如果你已经克隆了这个仓库,可以手动复制技能文件:
mkdir -p ~/.claude/skills/humanizer
cp SKILL.md ~/.claude/skills/humanizer/
OpenCode
直接克隆到 OpenCode 的技能目录中:
mkdir -p ~/.config/opencode/skills
git clone https://github.com/blader/humanizer.git ~/.config/opencode/skills/humanizer
或者,如果你已经克隆了这个仓库,可以手动复制技能文件:
mkdir -p ~/.config/opencode/skills/humanizer
cp SKILL.md ~/.config/opencode/skills/humanizer/
注意: OpenCode 也会扫描
~/.claude/skills/目录以确保兼容性,因此只需将技能克隆到~/.claude/skills/humanizer/即可同时在两个工具中使用。
使用方法
Claude Code
/humanizer
[在此粘贴你的文本]
OpenCode
/humanizer
[在此粘贴你的文本]
你也可以直接让模型来人性化这段文本:
请将这段文字人性化:[你的文本]
语音校准
为了匹配你个人的写作风格,提供一段你自己的写作样本:
/humanizer
以下是我用于语音匹配的写作样本:
[粘贴2-3段你自己的文字]
现在请人性化这段文字:
[粘贴需要人性化的AI生成文本]
该技能会分析你的句子节奏、用词习惯和独特风格,并将其应用到改写后的文本中,而不是生成千篇一律的“干净”输出。
概述
基于维基百科维护的“人工智能写作迹象”指南(Wikipedia:Signs of AI writing),该指南由 WikiProject AI Cleanup 编写。这份全面的指南源自对数千例人工智能生成文本的观察。
该技能还包含最后的“明显为AI生成”审核步骤以及第二次改写,以捕捉初稿中残留的人工智能特征。
维基百科的关键见解
“大型语言模型通过统计算法来猜测接下来应该出现的内容。其结果往往倾向于最符合统计规律且适用范围最广的情况。”
检测到的29种模式(附改写前后示例)
内容模式
| 序号 | 模式 | 改写前 | 改写后 |
|---|---|---|---|
| 1 | 夸大重要性 | “标志着……发展进程中的关键时刻” | “于1989年成立,旨在收集区域统计数据” |
| 2 | 过度提及知名机构或人物 | “被《纽约时报》、BBC、《金融时报》和《印度教徒报》引用” | “她在2024年接受《纽约时报》采访时指出……” |
| 3 | 表面化的-ing分析 | “象征着……反映着……展示着……” | 删除或补充实际来源 |
| 4 | 宣传性语言 | “坐落在令人惊叹的地区之中” | “是贡德尔地区的一个小镇” |
| 5 | 模糊的归属说明 | “专家认为它发挥着至关重要的作用” | “根据……2019年的调查” |
| 6 | 公式化的挑战描述 | “尽管面临种种挑战……仍然蓬勃发展” | 具体说明实际面临的挑战 |
语言模式
| 序号 | 模式 | 改写前 | 改写后 |
|---|---|---|---|
| 7 | AI专用词汇 | “实际上……此外……证明……格局……展示着” | “也……仍然是常见的” |
| 8 | 避免系动词 | “作为……具有……拥有” | “是……有” |
| 9 | 否定并列结构/尾部否定 | “不仅仅是X,还是Y”,“……无需猜测” | 直接陈述观点 |
| 10 | 三元法则 | “创新、灵感和洞见” | 使用自然数量的项目 |
| 11 | 同义词循环使用 | “主角……主要角色……中心人物……英雄” | 使用“主角”(在最清晰时重复) |
| 12 | 虚假范围表述 | “从大爆炸到暗物质” | 直接列出主题 |
| 13 | 被动语态/无主句片段 | “无需配置文件” | 在有助于清晰表达时明确主语 |
风格模式
| 序号 | 模式 | 改写前 | 改写后 |
|---|---|---|---|
| 14 | 破折号滥用 | “机构——而非人民——然而这种情况仍在继续——” | 更倾向于使用逗号或句号 |
| 15 | 粗体字滥用 | “OKR、KPI、BMC” | “OKR、KPI、BMC” |
| 16 | 内嵌标题式列表 | “绩效: 绩效有所提升” | 转换为普通叙述 |
| 17 | 标题大小写混用 | “战略谈判与伙伴关系” | “战略谈判和伙伴关系” |
| 18 | 表情符号 | “🚀 启动阶段:💡 关键洞察:” | 移除表情符号 |
| 19 | 引号样式 | said “the project” |
said “the project” |
| 26 | 连字符连接的词语对 | “跨职能、数据驱动、面向客户” | 对常见词语对去掉连字符 |
| 27 | 空洞的权威性修辞 | “归根结底,重要的是……” | 直接陈述核心观点 |
| 28 | 引导式开场白 | “让我们开始吧”,“以下是您需要了解的内容” | 直接进入内容 |
| 29 | 碎片化标题 | “## 绩效” + “速度很重要。” | 让标题本身发挥作用 |
沟通模式
| 序号 | 模式 | 改写前 | 改写后 |
|---|---|---|---|
| 20 | 聊天机器人痕迹 | “希望这能帮到您!如果您有任何问题,请告诉我……” | 完全移除 |
| 21 | 信息不足的免责声明 | “虽然现有资料对细节的描述有限……” | 寻找更多资料或删除 |
| 22 | 奉承语气 | “好问题!您说得太对了!” | 直接回应 |
填充与缓和措辞
| 序号 | 模式 | 改写前 | 改写后 |
|---|---|---|---|
| 23 | 填充性短语 | “为了……”,“由于……的事实” | “为了……”,“因为……” |
| 24 | 过度缓和 | “可能潜在地有可能” | “可能” |
| 25 | 空洞的结论 | “未来一片光明” | 提供具体的计划或事实 |
完整示例
修改前(AI风格):
很好的问题!这里有一篇关于这个主题的文章。希望对您有所帮助!
AI辅助编码是大型语言模型变革潜力的持久见证,标志着软件开发演进中的一个关键时刻。在当今快速发展的技术环境中,这些突破性工具位于研究与实践的交汇处,正在重塑工程师们构思、迭代和交付的方式,凸显了它们在现代工作流中的重要作用。
从根本上说,其价值主张非常明确:简化流程、增强协作并促进一致性。这不仅仅是自动补全的问题;而是要大规模释放创造力,确保组织在保持敏捷的同时,能够为用户提供无缝、直观且强大的体验。该工具充当催化剂,助手则扮演合作伙伴的角色,整个系统成为创新的基础。
行业观察人士指出,这种技术的采用已从业余爱好者的实验迅速扩展到企业级部署,从单个开发者发展到跨职能团队。这项技术曾登上《纽约时报》、《连线》和《Verge》等媒体。此外,自动生成文档、测试用例和重构代码的能力,展示了AI如何助力实现更好的成果,突显了自动化与人类判断之间的复杂互动。
- 💡 速度: 代码生成显著加快,减少了开发过程中的摩擦,赋予开发者更多能力。
- 🚀 质量: 通过改进训练,输出质量得到了提升,推动了更高标准的实现。
- ✅ 采用: 使用率持续增长,反映了更广泛的行业趋势。
尽管基于现有信息,具体细节有限,但可以认为这些工具可能产生一定的积极影响。尽管新兴技术普遍存在幻觉、偏见和责任归属等问题,生态系统仍在蓬勃发展。为了充分发挥其潜力,团队必须遵循最佳实践。
总之,未来充满希望。随着我们继续迈向卓越,激动人心的时刻即将到来。如果您想让我进一步扩展某个部分,请告诉我!
修改后(人性化):
AI编码助手能帮你加快完成那些枯燥的工作。它们特别擅长处理样板代码——比如配置文件和那些你并不想手写的胶水代码。它们还能帮你草拟测试用例,不过你仍然需要仔细阅读一遍。
最危险的地方在于,它的建议看起来总是那么自信。我曾经接受过一些编译通过且通过了代码检查的代码,结果后来才发现它根本没抓住重点,因为我当时已经不再认真思考了。
如果你把它当作自动补全工具来使用,并逐行审查每一段代码,它就会很有用。但如果你用它来逃避思考,那只会让你更快地把错误代码发布出去。
唯一真正的保障就是测试。如果没有测试,你所做的大部分判断都只是凭感觉而已。
参考文献
- 维基百科:AI写作的迹象 - 主要来源
- 维基项目AI清理 - 维护组织
版本历史
- 2.5.1 - 新增被动语态/无主句片段规则,使总模式数达到29种。
- 2.5.0 - 新增说服性措辞、引导性表达和碎片化标题的模式;扩展否定平行结构以涵盖尾部否定;收紧关于破折号过度使用的表述;修正前言部分的措辞,改为“填充短语”。
- 2.4.0 - 新增语音校准功能:根据用户提供的样本匹配其个人写作风格。
- 2.3.0 - 新增第25种模式:连字符词组过度使用。
- 2.2.0 - 新增最后的“明显由AI生成”审核环节及二次改写提示。
- 2.1.1 - 修正第18种模式的示例(曲引号与直引号混用问题)。
- 2.1.0 - 为所有24种模式添加了修改前后的对比示例。
- 2.0.0 - 根据原始维基百科文章内容进行全面重写。
- 1.0.0 - 初始发布。
许可证
MIT
常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。