[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-blader--humanizer":3,"tool-blader--humanizer":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156804,2,"2026-04-15T11:34:33",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[25,14,26,13],"插件","图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[25,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":41,"last_commit_at":42,"category_tags":43,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,60,61,25,14,62,15,13,63],"数据工具","视频","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":79,"owner_email":78,"owner_twitter":78,"owner_website":80,"owner_url":81,"languages":78,"stars":82,"forks":83,"last_commit_at":84,"license":85,"difficulty_score":10,"env_os":86,"env_gpu":87,"env_ram":87,"env_deps":88,"category_tags":91,"github_topics":78,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":92,"updated_at":93,"faqs":94,"releases":125},7776,"blader\u002Fhumanizer","humanizer","Claude Code skill that removes signs of AI-generated writing from text","Humanizer 是一款专为 Claude Code 和 OpenCode 设计的技能插件，旨在消除文本中明显的 AI 生成痕迹，让内容读起来更加自然、流畅，仿佛出自真人之手。它主要解决了大语言模型写作时常见的“机器味”问题，例如过度使用华丽辞藻、句式结构单一、滥用被动语态以及缺乏具体细节等，帮助将生硬的机器译文或草稿转化为符合人类表达习惯的文章。\n\n这款工具非常适合需要频繁利用 AI 辅助写作的内容创作者、开发者、研究人员以及任何希望提升文本自然度的普通用户。其独特之处在于深度参考了维基百科关于\"AI 写作特征”的权威指南，能够精准识别并修正多达 29 种典型的 AI 写作模式，如“意义夸大”、“同义词循环”和“虚假范围”等。更贴心的是，Humanizer 支持“声音校准”功能：用户只需提供几段自己的写作样本，它就能分析个人的用词偏好与行文节奏，从而在改写时完美匹配用户的独特风格，而非输出千篇一律的通用文本。通过内置的双重审查机制，它能确保最终成果彻底摆脱 AI 腔调，呈现真实自然的质感。","# Humanizer\n\nA skill for Claude Code and OpenCode that removes signs of AI-generated writing from text, making it sound more natural and human.\n\n## Installation\n\n### Claude Code\n\nClone directly into Claude Code's skills directory:\n\n```bash\nmkdir -p ~\u002F.claude\u002Fskills\ngit clone https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer.git ~\u002F.claude\u002Fskills\u002Fhumanizer\n```\n\nOr copy the skill file manually if you already have this repo cloned:\n\n```bash\nmkdir -p ~\u002F.claude\u002Fskills\u002Fhumanizer\ncp SKILL.md ~\u002F.claude\u002Fskills\u002Fhumanizer\u002F\n```\n\n### OpenCode\n\nClone directly into OpenCode's skills directory:\n\n```bash\nmkdir -p ~\u002F.config\u002Fopencode\u002Fskills\ngit clone https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer.git ~\u002F.config\u002Fopencode\u002Fskills\u002Fhumanizer\n```\n\nOr copy the skill file manually if you already have this repo cloned:\n\n```bash\nmkdir -p ~\u002F.config\u002Fopencode\u002Fskills\u002Fhumanizer\ncp SKILL.md ~\u002F.config\u002Fopencode\u002Fskills\u002Fhumanizer\u002F\n```\n\n> **Note:** OpenCode also scans `~\u002F.claude\u002Fskills\u002F` for compatibility, so a single clone into `~\u002F.claude\u002Fskills\u002Fhumanizer\u002F` works for both tools.\n\n## Usage\n\n### Claude Code\n\n```\n\u002Fhumanizer\n\n[paste your text here]\n```\n\n### OpenCode\n\n```\n\u002Fhumanizer\n\n[paste your text here]\n```\n\nOr ask the model to humanize text directly in either tool:\n\n```\nPlease humanize this text: [your text]\n```\n\n### Voice Calibration\n\nTo match your personal writing style, provide a sample of your own writing:\n\n```\n\u002Fhumanizer\n\nHere's a sample of my writing for voice matching:\n[paste 2-3 paragraphs of your own writing]\n\nNow humanize this text:\n[paste AI text to humanize]\n```\n\nThe skill will analyze your sentence rhythm, word choices, and quirks, then apply them to the rewrite instead of producing generic \"clean\" output.\n\n## Overview\n\nBased on [Wikipedia's \"Signs of AI writing\"](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FWikipedia:Signs_of_AI_writing) guide, maintained by WikiProject AI Cleanup. This comprehensive guide comes from observations of thousands of instances of AI-generated text.\n\nThe skill also includes a final \"obviously AI generated\" audit pass and a second rewrite, to catch lingering AI-isms in the first draft.\n\n### Key Insight from Wikipedia\n\n> \"LLMs use statistical algorithms to guess what should come next. The result tends toward the most statistically likely result that applies to the widest variety of cases.\"\n\n## 29 Patterns Detected (with Before\u002FAfter Examples)\n\n### Content Patterns\n\n| # | Pattern | Before | After |\n|---|---------|--------|-------|\n| 1 | **Significance inflation** | \"marking a pivotal moment in the evolution of...\" | \"was established in 1989 to collect regional statistics\" |\n| 2 | **Notability name-dropping** | \"cited in NYT, BBC, FT, and The Hindu\" | \"In a 2024 NYT interview, she argued...\" |\n| 3 | **Superficial -ing analyses** | \"symbolizing... reflecting... showcasing...\" | Remove or expand with actual sources |\n| 4 | **Promotional language** | \"nestled within the breathtaking region\" | \"is a town in the Gonder region\" |\n| 5 | **Vague attributions** | \"Experts believe it plays a crucial role\" | \"according to a 2019 survey by...\" |\n| 6 | **Formulaic challenges** | \"Despite challenges... continues to thrive\" | Specific facts about actual challenges |\n\n### Language Patterns\n\n| # | Pattern | Before | After |\n|---|---------|--------|-------|\n| 7 | **AI vocabulary** | \"Actually... additionally... testament... landscape... showcasing\" | \"also... remain common\" |\n| 8 | **Copula avoidance** | \"serves as... features... boasts\" | \"is... has\" |\n| 9 | **Negative parallelisms \u002F tailing negations** | \"It's not just X, it's Y\", \"..., no guessing\" | State the point directly |\n| 10 | **Rule of three** | \"innovation, inspiration, and insights\" | Use natural number of items |\n| 11 | **Synonym cycling** | \"protagonist... main character... central figure... hero\" | \"protagonist\" (repeat when clearest) |\n| 12 | **False ranges** | \"from the Big Bang to dark matter\" | List topics directly |\n| 13 | **Passive voice \u002F subjectless fragments** | \"No configuration file needed\" | Name the actor when it helps clarity |\n\n### Style Patterns\n\n| # | Pattern | Before | After |\n|---|---------|--------|-------|\n| 14 | **Em dash overuse** | \"institutions—not the people—yet this continues—\" | Prefer commas or periods |\n| 15 | **Boldface overuse** | \"**OKRs**, **KPIs**, **BMC**\" | \"OKRs, KPIs, BMC\" |\n| 16 | **Inline-header lists** | \"**Performance:** Performance improved\" | Convert to prose |\n| 17 | **Title Case Headings** | \"Strategic Negotiations And Partnerships\" | \"Strategic negotiations and partnerships\" |\n| 18 | **Emojis** | \"🚀 Launch Phase: 💡 Key Insight:\" | Remove emojis |\n| 19 | **Curly quotes** | `said “the project”` | `said “the project”` |\n| 26 | **Hyphenated word pairs** | “cross-functional, data-driven, client-facing” | Drop hyphens on common word pairs |\n| 27 | **Persuasive authority tropes** | \"At its core, what matters is...\" | State the point directly |\n| 28 | **Signposting announcements** | \"Let's dive in\", \"Here's what you need to know\" | Start with the content |\n| 29 | **Fragmented headers** | \"## Performance\" + \"Speed matters.\" | Let the heading do the work |\n\n### Communication Patterns\n\n| # | Pattern | Before | After |\n|---|---------|--------|-------|\n| 20 | **Chatbot artifacts** | \"I hope this helps! Let me know if...\" | Remove entirely |\n| 21 | **Cutoff disclaimers** | \"While details are limited in available sources...\" | Find sources or remove |\n| 22 | **Sycophantic tone** | \"Great question! You're absolutely right!\" | Respond directly |\n\n### Filler and Hedging\n\n| # | Pattern | Before | After |\n|---|---------|--------|-------|\n| 23 | **Filler phrases** | \"In order to\", \"Due to the fact that\" | \"To\", \"Because\" |\n| 24 | **Excessive hedging** | \"could potentially possibly\" | \"may\" |\n| 25 | **Generic conclusions** | \"The future looks bright\" | Specific plans or facts |\n\n## Full Example\n\n**Before (AI-sounding):**\n> Great question! Here is an essay on this topic. I hope this helps!\n>\n> AI-assisted coding serves as an enduring testament to the transformative potential of large language models, marking a pivotal moment in the evolution of software development. In today's rapidly evolving technological landscape, these groundbreaking tools—nestled at the intersection of research and practice—are reshaping how engineers ideate, iterate, and deliver, underscoring their vital role in modern workflows.\n>\n> At its core, the value proposition is clear: streamlining processes, enhancing collaboration, and fostering alignment. It's not just about autocomplete; it's about unlocking creativity at scale, ensuring that organizations can remain agile while delivering seamless, intuitive, and powerful experiences to users. The tool serves as a catalyst. The assistant functions as a partner. The system stands as a foundation for innovation.\n>\n> Industry observers have noted that adoption has accelerated from hobbyist experiments to enterprise-wide rollouts, from solo developers to cross-functional teams. The technology has been featured in The New York Times, Wired, and The Verge. Additionally, the ability to generate documentation, tests, and refactors showcases how AI can contribute to better outcomes, highlighting the intricate interplay between automation and human judgment.\n>\n> - 💡 **Speed:** Code generation is significantly faster, reducing friction and empowering developers.\n> - 🚀 **Quality:** Output quality has been enhanced through improved training, contributing to higher standards.\n> - ✅ **Adoption:** Usage continues to grow, reflecting broader industry trends.\n>\n> While specific details are limited based on available information, it could potentially be argued that these tools might have some positive effect. Despite challenges typical of emerging technologies—including hallucinations, bias, and accountability—the ecosystem continues to thrive. In order to fully realize this potential, teams must align with best practices.\n>\n> In conclusion, the future looks bright. Exciting times lie ahead as we continue this journey toward excellence. Let me know if you’d like me to expand on any section!\n\n**After (Humanized):**\n> AI coding assistants can speed up the boring parts of the job. They're great at boilerplate: config files and the little glue code you don't want to write. They can also help you sketch a test, but you still have to read it.\n>\n> The dangerous part is how confident the suggestions look. I've accepted code that compiled and passed lint, then discovered later it missed the point because I stopped paying attention.\n>\n> If you treat it like autocomplete and review every line, it's useful. If you use it to avoid thinking, it will help you ship bugs faster.\n>\n> The only real backstop is tests. Without them, you're mostly judging vibes.\n\n## References\n\n- [Wikipedia: Signs of AI writing](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FWikipedia:Signs_of_AI_writing) - Primary source\n- [WikiProject AI Cleanup](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FWikipedia:WikiProject_AI_Cleanup) - Maintaining organization\n\n## Version History\n\n- **2.5.1** - Added a passive-voice \u002F subjectless-fragment rule, raising the total to 29 patterns\n- **2.5.0** - Added patterns for persuasive framing, signposting, and fragmented headers; expanded negative parallelisms to cover tailing negations; tightened wording around em dash overuse; fixed frontmatter wording to use \"filler phrases\"\n- **2.4.0** - Added voice calibration: match the user's personal writing style from samples\n- **2.3.0** - Added pattern #25: hyphenated word pair overuse\n- **2.2.0** - Added a final \"obviously AI generated\" audit + second-pass rewrite prompts\n- **2.1.1** - Fixed pattern #18 example (curly quotes vs straight quotes)\n- **2.1.0** - Added before\u002Fafter examples for all 24 patterns\n- **2.0.0** - Complete rewrite based on raw Wikipedia article content\n- **1.0.0** - Initial release\n\n## License\n\nMIT\n","# 人性化工具\n\n一款适用于 Claude Code 和 OpenCode 的技能，用于去除文本中的人工智能生成痕迹，使其听起来更自然、更像人类写作。\n\n## 安装\n\n### Claude Code\n\n直接克隆到 Claude Code 的技能目录中：\n\n```bash\nmkdir -p ~\u002F.claude\u002Fskills\ngit clone https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer.git ~\u002F.claude\u002Fskills\u002Fhumanizer\n```\n\n或者，如果你已经克隆了这个仓库，可以手动复制技能文件：\n\n```bash\nmkdir -p ~\u002F.claude\u002Fskills\u002Fhumanizer\ncp SKILL.md ~\u002F.claude\u002Fskills\u002Fhumanizer\u002F\n```\n\n### OpenCode\n\n直接克隆到 OpenCode 的技能目录中：\n\n```bash\nmkdir -p ~\u002F.config\u002Fopencode\u002Fskills\ngit clone https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer.git ~\u002F.config\u002Fopencode\u002Fskills\u002Fhumanizer\n```\n\n或者，如果你已经克隆了这个仓库，可以手动复制技能文件：\n\n```bash\nmkdir -p ~\u002F.config\u002Fopencode\u002Fskills\u002Fhumanizer\ncp SKILL.md ~\u002F.config\u002Fopencode\u002Fskills\u002Fhumanizer\u002F\n```\n\n> **注意：** OpenCode 也会扫描 `~\u002F.claude\u002Fskills\u002F` 目录以确保兼容性，因此只需将技能克隆到 `~\u002F.claude\u002Fskills\u002Fhumanizer\u002F` 即可同时在两个工具中使用。\n\n## 使用方法\n\n### Claude Code\n\n```\n\u002Fhumanizer\n\n[在此粘贴你的文本]\n```\n\n### OpenCode\n\n```\n\u002Fhumanizer\n\n[在此粘贴你的文本]\n```\n\n你也可以直接让模型来人性化这段文本：\n\n```\n请将这段文字人性化：[你的文本]\n```\n\n### 语音校准\n\n为了匹配你个人的写作风格，提供一段你自己的写作样本：\n\n```\n\u002Fhumanizer\n\n以下是我用于语音匹配的写作样本：\n[粘贴2-3段你自己的文字]\n\n现在请人性化这段文字：\n[粘贴需要人性化的AI生成文本]\n```\n\n该技能会分析你的句子节奏、用词习惯和独特风格，并将其应用到改写后的文本中，而不是生成千篇一律的“干净”输出。\n\n## 概述\n\n基于维基百科维护的“人工智能写作迹象”指南（[Wikipedia:Signs of AI writing](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FWikipedia:Signs_of_AI_writing)），该指南由 WikiProject AI Cleanup 编写。这份全面的指南源自对数千例人工智能生成文本的观察。\n\n该技能还包含最后的“明显为AI生成”审核步骤以及第二次改写，以捕捉初稿中残留的人工智能特征。\n\n### 维基百科的关键见解\n\n> “大型语言模型通过统计算法来猜测接下来应该出现的内容。其结果往往倾向于最符合统计规律且适用范围最广的情况。”\n\n## 检测到的29种模式（附改写前后示例）\n\n### 内容模式\n\n| 序号 | 模式 | 改写前 | 改写后 |\n|---|---------|--------|-------|\n| 1 | **夸大重要性** | “标志着……发展进程中的关键时刻” | “于1989年成立，旨在收集区域统计数据” |\n| 2 | **过度提及知名机构或人物** | “被《纽约时报》、BBC、《金融时报》和《印度教徒报》引用” | “她在2024年接受《纽约时报》采访时指出……” |\n| 3 | **表面化的-ing分析** | “象征着……反映着……展示着……” | 删除或补充实际来源 |\n| 4 | **宣传性语言** | “坐落在令人惊叹的地区之中” | “是贡德尔地区的一个小镇” |\n| 5 | **模糊的归属说明** | “专家认为它发挥着至关重要的作用” | “根据……2019年的调查” |\n| 6 | **公式化的挑战描述** | “尽管面临种种挑战……仍然蓬勃发展” | 具体说明实际面临的挑战 |\n\n### 语言模式\n\n| 序号 | 模式 | 改写前 | 改写后 |\n|---|---------|--------|-------|\n| 7 | **AI专用词汇** | “实际上……此外……证明……格局……展示着” | “也……仍然是常见的” |\n| 8 | **避免系动词** | “作为……具有……拥有” | “是……有” |\n| 9 | **否定并列结构\u002F尾部否定** | “不仅仅是X，还是Y”，“……无需猜测” | 直接陈述观点 |\n| 10 | **三元法则** | “创新、灵感和洞见” | 使用自然数量的项目 |\n| 11 | **同义词循环使用** | “主角……主要角色……中心人物……英雄” | 使用“主角”（在最清晰时重复） |\n| 12 | **虚假范围表述** | “从大爆炸到暗物质” | 直接列出主题 |\n| 13 | **被动语态\u002F无主句片段** | “无需配置文件” | 在有助于清晰表达时明确主语 |\n\n### 风格模式\n\n| 序号 | 模式 | 改写前 | 改写后 |\n|---|---------|--------|-------|\n| 14 | **破折号滥用** | “机构——而非人民——然而这种情况仍在继续——” | 更倾向于使用逗号或句号 |\n| 15 | **粗体字滥用** | “**OKR**、**KPI**、**BMC**” | “OKR、KPI、BMC” |\n| 16 | **内嵌标题式列表** | “**绩效：** 绩效有所提升” | 转换为普通叙述 |\n| 17 | **标题大小写混用** | “战略谈判与伙伴关系” | “战略谈判和伙伴关系” |\n| 18 | **表情符号** | “🚀 启动阶段：💡 关键洞察：” | 移除表情符号 |\n| 19 | **引号样式** | `said “the project”` | `said “the project”` |\n| 26 | **连字符连接的词语对** | “跨职能、数据驱动、面向客户” | 对常见词语对去掉连字符 |\n| 27 | **空洞的权威性修辞** | “归根结底，重要的是……” | 直接陈述核心观点 |\n| 28 | **引导式开场白** | “让我们开始吧”，“以下是您需要了解的内容” | 直接进入内容 |\n| 29 | **碎片化标题** | “## 绩效” + “速度很重要。” | 让标题本身发挥作用 |\n\n### 沟通模式\n\n| 序号 | 模式 | 改写前 | 改写后 |\n|---|---------|--------|-------|\n| 20 | **聊天机器人痕迹** | “希望这能帮到您！如果您有任何问题，请告诉我……” | 完全移除 |\n| 21 | **信息不足的免责声明** | “虽然现有资料对细节的描述有限……” | 寻找更多资料或删除 |\n| 22 | **奉承语气** | “好问题！您说得太对了！” | 直接回应 |\n\n### 填充与缓和措辞\n\n| 序号 | 模式 | 改写前 | 改写后 |\n|---|---------|--------|-------|\n| 23 | **填充性短语** | “为了……”，“由于……的事实” | “为了……”，“因为……” |\n| 24 | **过度缓和** | “可能潜在地有可能” | “可能” |\n| 25 | **空洞的结论** | “未来一片光明” | 提供具体的计划或事实 |\n\n## 完整示例\n\n**修改前（AI风格）：**\n> 很好的问题！这里有一篇关于这个主题的文章。希望对您有所帮助！\n>\n> AI辅助编码是大型语言模型变革潜力的持久见证，标志着软件开发演进中的一个关键时刻。在当今快速发展的技术环境中，这些突破性工具位于研究与实践的交汇处，正在重塑工程师们构思、迭代和交付的方式，凸显了它们在现代工作流中的重要作用。\n>\n> 从根本上说，其价值主张非常明确：简化流程、增强协作并促进一致性。这不仅仅是自动补全的问题；而是要大规模释放创造力，确保组织在保持敏捷的同时，能够为用户提供无缝、直观且强大的体验。该工具充当催化剂，助手则扮演合作伙伴的角色，整个系统成为创新的基础。\n>\n> 行业观察人士指出，这种技术的采用已从业余爱好者的实验迅速扩展到企业级部署，从单个开发者发展到跨职能团队。这项技术曾登上《纽约时报》、《连线》和《Verge》等媒体。此外，自动生成文档、测试用例和重构代码的能力，展示了AI如何助力实现更好的成果，突显了自动化与人类判断之间的复杂互动。\n>\n> - 💡 **速度：** 代码生成显著加快，减少了开发过程中的摩擦，赋予开发者更多能力。\n> - 🚀 **质量：** 通过改进训练，输出质量得到了提升，推动了更高标准的实现。\n> - ✅ **采用：** 使用率持续增长，反映了更广泛的行业趋势。\n>\n> 尽管基于现有信息，具体细节有限，但可以认为这些工具可能产生一定的积极影响。尽管新兴技术普遍存在幻觉、偏见和责任归属等问题，生态系统仍在蓬勃发展。为了充分发挥其潜力，团队必须遵循最佳实践。\n>\n> 总之，未来充满希望。随着我们继续迈向卓越，激动人心的时刻即将到来。如果您想让我进一步扩展某个部分，请告诉我！\n\n**修改后（人性化）：**\n> AI编码助手能帮你加快完成那些枯燥的工作。它们特别擅长处理样板代码——比如配置文件和那些你并不想手写的胶水代码。它们还能帮你草拟测试用例，不过你仍然需要仔细阅读一遍。\n>\n> 最危险的地方在于，它的建议看起来总是那么自信。我曾经接受过一些编译通过且通过了代码检查的代码，结果后来才发现它根本没抓住重点，因为我当时已经不再认真思考了。\n>\n> 如果你把它当作自动补全工具来使用，并逐行审查每一段代码，它就会很有用。但如果你用它来逃避思考，那只会让你更快地把错误代码发布出去。\n>\n> 唯一真正的保障就是测试。如果没有测试，你所做的大部分判断都只是凭感觉而已。\n\n## 参考文献\n\n- [维基百科：AI写作的迹象](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FWikipedia:Signs_of_AI_writing) - 主要来源\n- [维基项目AI清理](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FWikipedia:WikiProject_AI_Cleanup) - 维护组织\n\n## 版本历史\n\n- **2.5.1** - 新增被动语态\u002F无主句片段规则，使总模式数达到29种。\n- **2.5.0** - 新增说服性措辞、引导性表达和碎片化标题的模式；扩展否定平行结构以涵盖尾部否定；收紧关于破折号过度使用的表述；修正前言部分的措辞，改为“填充短语”。\n- **2.4.0** - 新增语音校准功能：根据用户提供的样本匹配其个人写作风格。\n- **2.3.0** - 新增第25种模式：连字符词组过度使用。\n- **2.2.0** - 新增最后的“明显由AI生成”审核环节及二次改写提示。\n- **2.1.1** - 修正第18种模式的示例（曲引号与直引号混用问题）。\n- **2.1.0** - 为所有24种模式添加了修改前后的对比示例。\n- **2.0.0** - 根据原始维基百科文章内容进行全面重写。\n- **1.0.0** - 初始发布。\n\n## 许可证\n\nMIT","# Humanizer 快速上手指南\n\nHumanizer 是一款专为 **Claude Code** 和 **OpenCode** 设计的技能工具，旨在消除文本中的\"AI 生成痕迹”，使其读起来更自然、更像人类书写。它基于维基百科\"AI 写作特征”指南，能识别并修正 29 种常见的 AI 写作模式（如过度使用强调词、被动语态、空洞的结论等）。\n\n## 环境准备\n\n*   **系统要求**：Linux \u002F macOS \u002F Windows (WSL)\n*   **前置依赖**：\n    *   已安装 **Git**\n    *   已安装 **Claude Code** 或 **OpenCode** 命令行工具\n*   **网络要求**：需能访问 GitHub (`github.com`)。若下载缓慢，建议配置国内 Git 镜像或使用代理。\n\n## 安装步骤\n\nHumanizer 通过克隆仓库到特定技能目录进行安装。由于 OpenCode 兼容 Claude Code 的技能目录，**推荐只需执行一次安装即可同时支持两个工具**。\n\n在终端中运行以下命令：\n\n```bash\n# 创建技能目录并克隆仓库\nmkdir -p ~\u002F.claude\u002Fskills\ngit clone https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer.git ~\u002F.claude\u002Fskills\u002Fhumanizer\n```\n\n> **注意**：上述命令将工具安装至 `~\u002F.claude\u002Fskills\u002Fhumanizer`。OpenCode 会自动扫描该目录，因此无需为 OpenCode 单独安装。\n\n## 基本使用\n\n安装完成后，重启你的 Claude Code 或 OpenCode 会话即可生效。\n\n### 1. 基础用法\n在对话框中输入 `\u002Fhumanizer` 命令，然后粘贴需要优化的文本：\n\n```text\n\u002Fhumanizer\n\n[paste your text here]\n```\n\n或者直接通过自然语言指令调用：\n\n```text\nPlease humanize this text: [your text]\n```\n\n### 2. 风格校准（进阶）\n若希望生成的文本匹配你个人的写作风格（如句式节奏、用词习惯），可以先提供一段你的样本文本：\n\n```text\n\u002Fhumanizer\n\nHere's a sample of my writing for voice matching:\n[paste 2-3 paragraphs of your own writing]\n\nNow humanize this text:\n[paste AI text to humanize]\n```\n\n工具会分析你的样本特征，并应用到重写过程中，避免产出通用的“干净但无个性”的文本。","一位技术博主刚用 AI 生成了关于“微服务架构演进”的草稿，准备发布到个人技术专栏，但担心文章读起来太像机器生成的“通稿”而缺乏个人特色。\n\n### 没有 humanizer 时\n- 文章充斥着\"marking a pivotal moment（标志着关键时刻）”、\"showcasing innovation（展示创新）”等典型的 AI 夸张词汇，显得空洞且过度营销。\n- 句式结构高度雷同，频繁使用“不仅……而且……\"的排比句和“从大数据到云计算”这种虚假的范围描述，缺乏真实的技术细节支撑。\n- 被动语态和无主语句过多（如“无需配置文件”），导致行文冷冰冰，读者无法感受到作者作为开发者的真实视角。\n- 为了规避重复，AI 强行轮换同义词（如交替使用“主角”、“核心人物”、“中心角色”），反而让技术叙述显得混乱且不专业。\n- 整体语调过于平滑完美，缺乏人类写作中自然的节奏感和特定的用词习惯，容易被老练的读者一眼识破是 AI 代笔。\n\n### 使用 humanizer 后\n- 自动将浮夸的形容词替换为平实的事实陈述（如改为“成立于 1989 年以收集区域数据”），显著提升了内容的可信度。\n- 打破了僵化的排比结构，直接陈述具体的技术挑战与解决方案，去除了“虚假范围”，使逻辑更加紧凑清晰。\n- 将被动语态还原为主动表达，明确动作执行者，让技术复盘读起来更像是一位资深工程师的亲历分享。\n- 统一了关键术语的使用，不再为了“丰富性”而强行替换词汇，确保了技术概念传达的准确性。\n- 通过输入博主过往的文章样本，humanizer 模仿了其独特的句子节奏和用词癖好，使最终成文完美贴合博主的个人风格。\n\nhumanizer 通过精准识别并重构 29 种 AI 写作特征，将机械的算法输出转化为具有真实温度和独特个性的自然文本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fblader_humanizer_9bf16384.png","blader","Siqi Chen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fblader_e234ae68.jpg",null,"San Francisco","http:\u002F\u002Ftwitter.com\u002Fblader","https:\u002F\u002Fgithub.com\u002Fblader",13905,1208,"2026-04-15T08:26:24","MIT","Linux, macOS, Windows","未说明",{"notes":89,"python":87,"dependencies":90},"该工具并非独立的软件程序，而是专为 Claude Code 和 OpenCode 设计的技能插件（Skill）。它不需要安装 Python 环境、GPU 或任何依赖库。安装方式仅为将 SKILL.md 文件复制到指定目录（~\u002F.claude\u002Fskills\u002F 或 ~\u002F.config\u002Fopencode\u002Fskills\u002F），其运行依赖于宿主 AI 工具（Claude Code 或 OpenCode）的环境配置。",[],[15,25],"2026-03-27T02:49:30.150509","2026-04-16T01:43:21.840797",[95,100,105,110,115,120],{"id":96,"question_zh":97,"answer_zh":98,"source_url":99},34822,"该项目是否有明确的许可证文件？我可以在我的项目中合法使用它吗？","是的，项目已添加标准的 MIT LICENSE 文件以匹配 README.md 中声明的许可证。维护者已通过 PR #58 修复了此前缺少 LICENSE 文件的问题。根据版权法，没有许可证意味着“保留所有权利”，但现在您可以合法地 fork、修改或重新分发该技能。","https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer\u002Fissues\u002F7",{"id":101,"question_zh":102,"answer_zh":103,"source_url":104},34823,"如何减少 AI 生成文本中常见词对（如\"third-party\"）的过度连字符使用？","维护者已在 PR #56 中添加了新的样式模式 #25（连字符词对过度使用）。该模式指出 AI 倾向于一致地连字符化常见的开放复合词对（如\"client-facing\"），而人类写作通常不一致或根本不连字符化。技能已更新以包含此规则及前后对比示例，从而减少此类 AI 特征。","https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer\u002Fissues\u002F42",{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},34824,"AI 生成的文本中频繁出现单词\"Actually\"，如何让技能减少这种用法？","社区已识别出这是模型试图模仿人类语气但显得生硬的特征。维护者已接受相关建议并通过 PR 更新了技能，明确指示减少\"Actually\"一词的过度使用，使输出更自然。","https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer\u002Fissues\u002F72",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},34825,"SKILL.md 文件中存在哪些明显的 AI 生成痕迹需要移除？","主要痕迹包括：1) 每个标题前滥用任意分隔符（---），这破坏了阅读流且无实际结构意义；2) 标题全部大写，属于主观设计而非信息传达。维护者已在 PR #57 中移除了所有 28 个水平分隔符，并将标题格式调整为正常大小写（例如从\"## PERSONALITY AND SOUL\"改为\"## Personality and Soul\"）。","https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer\u002Fissues\u002F35",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},34826,"如何将一段关于气候案件的学术文本改写得更像人类书写，同时不改变原有信息和布局？","用户可以直接向该技能提供原始文本，并附加指令：“让它听起来更像人类写的，不要添加或删除任何信息，也不要改变布局”。该技能专为保留原意和结构的同时消除 AI 写作风格（如过度结构化、特定词汇重复等）而设计。","https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer\u002Fissues\u002F75",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},34827,"该技能是否通过了第三方质量验证？有哪些具体的验证结果？","该技能已通过 SkillCheck 验证，状态为“需注意”（仅有轻微警告，无关键问题）。具体结果为：通过 35 项检查，可获得\"enterprise\"和\"antislop-90\"徽章。轻微警告包括日期敏感内容（可能过时的年份引用）和顶层 version 字段（Anthropic 技能通常不使用）。虽然维护者暂未添加徽章，但验证表明技能符合 agentskills 规范、MCP 最佳实践和 WCAG 无障碍标准。","https:\u002F\u002Fgithub.com\u002Fblader\u002Fhumanizer\u002Fissues\u002F32",[]]