humanizer

GitHub
13.9k 1.2k 简单 1 次阅读 今天MIT语言模型插件
AI 解读 由 AI 自动生成,仅供参考

Humanizer 是一款专为 Claude Code 和 OpenCode 设计的技能插件,旨在消除文本中明显的 AI 生成痕迹,让内容读起来更加自然、流畅,仿佛出自真人之手。它主要解决了大语言模型写作时常见的“机器味”问题,例如过度使用华丽辞藻、句式结构单一、滥用被动语态以及缺乏具体细节等,帮助将生硬的机器译文或草稿转化为符合人类表达习惯的文章。

这款工具非常适合需要频繁利用 AI 辅助写作的内容创作者、开发者、研究人员以及任何希望提升文本自然度的普通用户。其独特之处在于深度参考了维基百科关于"AI 写作特征”的权威指南,能够精准识别并修正多达 29 种典型的 AI 写作模式,如“意义夸大”、“同义词循环”和“虚假范围”等。更贴心的是,Humanizer 支持“声音校准”功能:用户只需提供几段自己的写作样本,它就能分析个人的用词偏好与行文节奏,从而在改写时完美匹配用户的独特风格,而非输出千篇一律的通用文本。通过内置的双重审查机制,它能确保最终成果彻底摆脱 AI 腔调,呈现真实自然的质感。

使用场景

一位技术博主刚用 AI 生成了关于“微服务架构演进”的草稿,准备发布到个人技术专栏,但担心文章读起来太像机器生成的“通稿”而缺乏个人特色。

没有 humanizer 时

  • 文章充斥着"marking a pivotal moment(标志着关键时刻)”、"showcasing innovation(展示创新)”等典型的 AI 夸张词汇,显得空洞且过度营销。
  • 句式结构高度雷同,频繁使用“不仅……而且……"的排比句和“从大数据到云计算”这种虚假的范围描述,缺乏真实的技术细节支撑。
  • 被动语态和无主语句过多(如“无需配置文件”),导致行文冷冰冰,读者无法感受到作者作为开发者的真实视角。
  • 为了规避重复,AI 强行轮换同义词(如交替使用“主角”、“核心人物”、“中心角色”),反而让技术叙述显得混乱且不专业。
  • 整体语调过于平滑完美,缺乏人类写作中自然的节奏感和特定的用词习惯,容易被老练的读者一眼识破是 AI 代笔。

使用 humanizer 后

  • 自动将浮夸的形容词替换为平实的事实陈述(如改为“成立于 1989 年以收集区域数据”),显著提升了内容的可信度。
  • 打破了僵化的排比结构,直接陈述具体的技术挑战与解决方案,去除了“虚假范围”,使逻辑更加紧凑清晰。
  • 将被动语态还原为主动表达,明确动作执行者,让技术复盘读起来更像是一位资深工程师的亲历分享。
  • 统一了关键术语的使用,不再为了“丰富性”而强行替换词汇,确保了技术概念传达的准确性。
  • 通过输入博主过往的文章样本,humanizer 模仿了其独特的句子节奏和用词癖好,使最终成文完美贴合博主的个人风格。

humanizer 通过精准识别并重构 29 种 AI 写作特征,将机械的算法输出转化为具有真实温度和独特个性的自然文本。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes该工具并非独立的软件程序,而是专为 Claude Code 和 OpenCode 设计的技能插件(Skill)。它不需要安装 Python 环境、GPU 或任何依赖库。安装方式仅为将 SKILL.md 文件复制到指定目录(~/.claude/skills/ 或 ~/.config/opencode/skills/),其运行依赖于宿主 AI 工具(Claude Code 或 OpenCode)的环境配置。
python未说明
humanizer hero image

快速开始

人性化工具

一款适用于 Claude Code 和 OpenCode 的技能,用于去除文本中的人工智能生成痕迹,使其听起来更自然、更像人类写作。

安装

Claude Code

直接克隆到 Claude Code 的技能目录中:

mkdir -p ~/.claude/skills
git clone https://github.com/blader/humanizer.git ~/.claude/skills/humanizer

或者,如果你已经克隆了这个仓库,可以手动复制技能文件:

mkdir -p ~/.claude/skills/humanizer
cp SKILL.md ~/.claude/skills/humanizer/

OpenCode

直接克隆到 OpenCode 的技能目录中:

mkdir -p ~/.config/opencode/skills
git clone https://github.com/blader/humanizer.git ~/.config/opencode/skills/humanizer

或者,如果你已经克隆了这个仓库,可以手动复制技能文件:

mkdir -p ~/.config/opencode/skills/humanizer
cp SKILL.md ~/.config/opencode/skills/humanizer/

注意: OpenCode 也会扫描 ~/.claude/skills/ 目录以确保兼容性,因此只需将技能克隆到 ~/.claude/skills/humanizer/ 即可同时在两个工具中使用。

使用方法

Claude Code

/humanizer

[在此粘贴你的文本]

OpenCode

/humanizer

[在此粘贴你的文本]

你也可以直接让模型来人性化这段文本:

请将这段文字人性化:[你的文本]

语音校准

为了匹配你个人的写作风格,提供一段你自己的写作样本:

/humanizer

以下是我用于语音匹配的写作样本:
[粘贴2-3段你自己的文字]

现在请人性化这段文字:
[粘贴需要人性化的AI生成文本]

该技能会分析你的句子节奏、用词习惯和独特风格,并将其应用到改写后的文本中,而不是生成千篇一律的“干净”输出。

概述

基于维基百科维护的“人工智能写作迹象”指南(Wikipedia:Signs of AI writing),该指南由 WikiProject AI Cleanup 编写。这份全面的指南源自对数千例人工智能生成文本的观察。

该技能还包含最后的“明显为AI生成”审核步骤以及第二次改写,以捕捉初稿中残留的人工智能特征。

维基百科的关键见解

“大型语言模型通过统计算法来猜测接下来应该出现的内容。其结果往往倾向于最符合统计规律且适用范围最广的情况。”

检测到的29种模式(附改写前后示例)

内容模式

序号 模式 改写前 改写后
1 夸大重要性 “标志着……发展进程中的关键时刻” “于1989年成立,旨在收集区域统计数据”
2 过度提及知名机构或人物 “被《纽约时报》、BBC、《金融时报》和《印度教徒报》引用” “她在2024年接受《纽约时报》采访时指出……”
3 表面化的-ing分析 “象征着……反映着……展示着……” 删除或补充实际来源
4 宣传性语言 “坐落在令人惊叹的地区之中” “是贡德尔地区的一个小镇”
5 模糊的归属说明 “专家认为它发挥着至关重要的作用” “根据……2019年的调查”
6 公式化的挑战描述 “尽管面临种种挑战……仍然蓬勃发展” 具体说明实际面临的挑战

语言模式

序号 模式 改写前 改写后
7 AI专用词汇 “实际上……此外……证明……格局……展示着” “也……仍然是常见的”
8 避免系动词 “作为……具有……拥有” “是……有”
9 否定并列结构/尾部否定 “不仅仅是X,还是Y”,“……无需猜测” 直接陈述观点
10 三元法则 “创新、灵感和洞见” 使用自然数量的项目
11 同义词循环使用 “主角……主要角色……中心人物……英雄” 使用“主角”(在最清晰时重复)
12 虚假范围表述 “从大爆炸到暗物质” 直接列出主题
13 被动语态/无主句片段 “无需配置文件” 在有助于清晰表达时明确主语

风格模式

序号 模式 改写前 改写后
14 破折号滥用 “机构——而非人民——然而这种情况仍在继续——” 更倾向于使用逗号或句号
15 粗体字滥用 OKRKPIBMC “OKR、KPI、BMC”
16 内嵌标题式列表 绩效: 绩效有所提升” 转换为普通叙述
17 标题大小写混用 “战略谈判与伙伴关系” “战略谈判和伙伴关系”
18 表情符号 “🚀 启动阶段:💡 关键洞察:” 移除表情符号
19 引号样式 said “the project” said “the project”
26 连字符连接的词语对 “跨职能、数据驱动、面向客户” 对常见词语对去掉连字符
27 空洞的权威性修辞 “归根结底,重要的是……” 直接陈述核心观点
28 引导式开场白 “让我们开始吧”,“以下是您需要了解的内容” 直接进入内容
29 碎片化标题 “## 绩效” + “速度很重要。” 让标题本身发挥作用

沟通模式

序号 模式 改写前 改写后
20 聊天机器人痕迹 “希望这能帮到您!如果您有任何问题,请告诉我……” 完全移除
21 信息不足的免责声明 “虽然现有资料对细节的描述有限……” 寻找更多资料或删除
22 奉承语气 “好问题!您说得太对了!” 直接回应

填充与缓和措辞

序号 模式 改写前 改写后
23 填充性短语 “为了……”,“由于……的事实” “为了……”,“因为……”
24 过度缓和 “可能潜在地有可能” “可能”
25 空洞的结论 “未来一片光明” 提供具体的计划或事实

完整示例

修改前(AI风格):

很好的问题!这里有一篇关于这个主题的文章。希望对您有所帮助!

AI辅助编码是大型语言模型变革潜力的持久见证,标志着软件开发演进中的一个关键时刻。在当今快速发展的技术环境中,这些突破性工具位于研究与实践的交汇处,正在重塑工程师们构思、迭代和交付的方式,凸显了它们在现代工作流中的重要作用。

从根本上说,其价值主张非常明确:简化流程、增强协作并促进一致性。这不仅仅是自动补全的问题;而是要大规模释放创造力,确保组织在保持敏捷的同时,能够为用户提供无缝、直观且强大的体验。该工具充当催化剂,助手则扮演合作伙伴的角色,整个系统成为创新的基础。

行业观察人士指出,这种技术的采用已从业余爱好者的实验迅速扩展到企业级部署,从单个开发者发展到跨职能团队。这项技术曾登上《纽约时报》、《连线》和《Verge》等媒体。此外,自动生成文档、测试用例和重构代码的能力,展示了AI如何助力实现更好的成果,突显了自动化与人类判断之间的复杂互动。

  • 💡 速度: 代码生成显著加快,减少了开发过程中的摩擦,赋予开发者更多能力。
  • 🚀 质量: 通过改进训练,输出质量得到了提升,推动了更高标准的实现。
  • 采用: 使用率持续增长,反映了更广泛的行业趋势。

尽管基于现有信息,具体细节有限,但可以认为这些工具可能产生一定的积极影响。尽管新兴技术普遍存在幻觉、偏见和责任归属等问题,生态系统仍在蓬勃发展。为了充分发挥其潜力,团队必须遵循最佳实践。

总之,未来充满希望。随着我们继续迈向卓越,激动人心的时刻即将到来。如果您想让我进一步扩展某个部分,请告诉我!

修改后(人性化):

AI编码助手能帮你加快完成那些枯燥的工作。它们特别擅长处理样板代码——比如配置文件和那些你并不想手写的胶水代码。它们还能帮你草拟测试用例,不过你仍然需要仔细阅读一遍。

最危险的地方在于,它的建议看起来总是那么自信。我曾经接受过一些编译通过且通过了代码检查的代码,结果后来才发现它根本没抓住重点,因为我当时已经不再认真思考了。

如果你把它当作自动补全工具来使用,并逐行审查每一段代码,它就会很有用。但如果你用它来逃避思考,那只会让你更快地把错误代码发布出去。

唯一真正的保障就是测试。如果没有测试,你所做的大部分判断都只是凭感觉而已。

参考文献

版本历史

  • 2.5.1 - 新增被动语态/无主句片段规则,使总模式数达到29种。
  • 2.5.0 - 新增说服性措辞、引导性表达和碎片化标题的模式;扩展否定平行结构以涵盖尾部否定;收紧关于破折号过度使用的表述;修正前言部分的措辞,改为“填充短语”。
  • 2.4.0 - 新增语音校准功能:根据用户提供的样本匹配其个人写作风格。
  • 2.3.0 - 新增第25种模式:连字符词组过度使用。
  • 2.2.0 - 新增最后的“明显由AI生成”审核环节及二次改写提示。
  • 2.1.1 - 修正第18种模式的示例(曲引号与直引号混用问题)。
  • 2.1.0 - 为所有24种模式添加了修改前后的对比示例。
  • 2.0.0 - 根据原始维基百科文章内容进行全面重写。
  • 1.0.0 - 初始发布。

许可证

MIT

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

156.8k|★★☆☆☆|今天
开发框架Agent语言模型

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|5天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|1周前
语言模型图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|1周前
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85.1k|★★☆☆☆|5天前
图像数据工具视频