[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-hzy46--Char-RNN-TensorFlow":3,"tool-hzy46--Char-RNN-TensorFlow":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":23,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74963,"2026-04-06T11:16:39",[15,26,13,46],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":80,"difficulty_score":23,"env_os":91,"env_gpu":92,"env_ram":91,"env_deps":93,"category_tags":98,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":99,"updated_at":100,"faqs":101,"releases":132},4493,"hzy46\u002FChar-RNN-TensorFlow","Char-RNN-TensorFlow","Multi-language Char RNN for TensorFlow >= 1.2.","Char-RNN-TensorFlow 是一个基于 TensorFlow 框架开发的字符级循环神经网络（Char-RNN）开源项目。它的核心功能是让计算机通过学习大量文本数据中的字符规律，从而自动生成具有相似风格的新文本。\n\n这一工具有效解决了传统规则系统难以捕捉语言细微韵味和上下文逻辑的痛点，能够灵活适应不同语言体系。无论是英文戏剧、中国古诗词、现代歌词、武侠小说，甚至是 Linux 内核代码，只要提供相应的训练素材，它都能模仿其笔触进行创作。从示例结果看，它生成的中文诗歌意境优美，小说段落情节连贯，展现了强大的序列建模能力。\n\n该项目特别适合开发者、人工智能研究人员以及对自然语言处理感兴趣的学生使用。对于希望深入理解 RNN 原理、练习模型训练流程或需要快速搭建多语言文本生成原型的团队，这是一个极佳的入门与实践模板。其技术亮点在于支持多语言混合处理，并提供了灵活的参数配置（如嵌入层、LSTM 单元数等），允许用户根据任务复杂度调整模型结构。虽然运行环境依赖较早期的 Python 2.7 和 TensorFlow 1.2+ 版本，但其清晰的代码结构和详尽的多场景示例，使其成为学习深度","Char-RNN-TensorFlow 是一个基于 TensorFlow 框架开发的字符级循环神经网络（Char-RNN）开源项目。它的核心功能是让计算机通过学习大量文本数据中的字符规律，从而自动生成具有相似风格的新文本。\n\n这一工具有效解决了传统规则系统难以捕捉语言细微韵味和上下文逻辑的痛点，能够灵活适应不同语言体系。无论是英文戏剧、中国古诗词、现代歌词、武侠小说，甚至是 Linux 内核代码，只要提供相应的训练素材，它都能模仿其笔触进行创作。从示例结果看，它生成的中文诗歌意境优美，小说段落情节连贯，展现了强大的序列建模能力。\n\n该项目特别适合开发者、人工智能研究人员以及对自然语言处理感兴趣的学生使用。对于希望深入理解 RNN 原理、练习模型训练流程或需要快速搭建多语言文本生成原型的团队，这是一个极佳的入门与实践模板。其技术亮点在于支持多语言混合处理，并提供了灵活的参数配置（如嵌入层、LSTM 单元数等），允许用户根据任务复杂度调整模型结构。虽然运行环境依赖较早期的 Python 2.7 和 TensorFlow 1.2+ 版本，但其清晰的代码结构和详尽的多场景示例，使其成为学习深度学习文本生成的经典资源。","# Char-RNN-TensorFlow\n\nMulti-language Char RNN in TensorFlow. You can use this code to generate English text, Chinese poetries and lyrics, Japanese text and text in other language.\n\n一个基于最新版本TensorFlow的Char RNN实现。可以实现生成英文、写诗、歌词、小说、生成代码、生成日文等功能。\n\n\n## Requirements\n- Python 2.7.X\n- TensorFlow >= 1.2\n\n## Generate English Text\n\nTo train:\n\n```\npython train.py \\\n  --input_file data\u002Fshakespeare.txt  \\\n  --name shakespeare \\\n  --num_steps 50 \\\n  --num_seqs 32 \\\n  --learning_rate 0.01 \\\n  --max_steps 20000\n```\n\nTo sample:\n\n```\npython sample.py \\\n  --converter_path model\u002Fshakespeare\u002Fconverter.pkl \\\n  --checkpoint_path model\u002Fshakespeare\u002F \\\n  --max_length 1000\n```\n\nResult:\n\n```\nBROTON:\nWhen thou art at to she we stood those to that hath\nthink they treaching heart to my horse, and as some trousting.\n\nLAUNCE:\nThe formity so mistalied on his, thou hast she was\nto her hears, what we shall be that say a soun man\nWould the lord and all a fouls and too, the say,\nThat we destent and here with my peace.\n\nPALINA:\nWhy, are the must thou art breath or thy saming,\nI have sate it him with too to have me of\nI the camples.\n\n```\n\n## Generate Chinese Poetries\n\nTo train:\n\n```\npython train.py \\\n  --use_embedding \\\n  --input_file data\u002Fpoetry.txt \\\n  --name poetry \\\n  --learning_rate 0.005 \\\n  --num_steps 26 \\\n  --num_seqs 32 \\\n  --max_steps 10000\n```\n\nTo sample:\n\n```\npython sample.py \\\n  --use_embedding \\\n  --converter_path model\u002Fpoetry\u002Fconverter.pkl \\\n  --checkpoint_path model\u002Fpoetry\u002F \\\n  --max_length 300\n```\n\nResult:\n```\n何人无不见，此地自何如。\n一夜山边去，江山一夜归。\n山风春草色，秋水夜声深。\n何事同相见，应知旧子人。\n何当不相见，何处见江边。\n一叶生云里，春风出竹堂。\n何时有相访，不得在君心。\n```\n\n## Generate Chinese Novels\n\nTo train (The file \"novel.txt\" is not included in this repo. You should find one and make sure it is utf-8 encoded!):\n```\npython train.py \\\n  --use_embedding True \\\n  --input_file data\u002Fnovel.txt \\\n  --num_steps 80 \\\n  --name novel \\\n  --learning_rate 0.005 \\\n  --num_seqs 32 \\\n  --num_layers 3 \\\n  --embedding_size 256 \\\n  --lstm_size 256 \\\n  --max_steps 1000000\n```\n\nTo sample:\n```\npython sample.py \\\n  --converter_path model\u002Fnovel\u002Fconverter.pkl \\\n  --checkpoint_path  model\u002Fnovel \\\n  --use_embedding \\\n  --max_length 2000 \\\n  --num_layers 3 \\\n  --lstm_size 256 \\\n  --embedding_size 256\n```\n\nResult:\n```\n闻言，萧炎一怔，旋即目光转向一旁的那名灰袍青年，然后目光在那位老者身上扫过，那里，一个巨大的石台上，有着一个巨大的巨坑，一些黑色光柱，正在从中，一道巨大的黑色巨蟒，一股极度恐怖的气息，从天空上暴射而出 ，然后在其中一些一道道目光中，闪电般的出现在了那些人影，在那种灵魂之中，却是有着许些强者的感觉，在他们面前，那一道道身影，却是如同一道黑影一般，在那一道道目光中，在这片天地间，在那巨大的空间中，弥漫而开……\n\n“这是一位斗尊阶别，不过不管你，也不可能会出手，那些家伙，可以为了这里，这里也是能够有着一些异常，而且他，也是不能将其他人给你的灵魂，所以，这些事，我也是不可能将这一个人的强者给吞天蟒，这般一次，我们的实力，便是能够将之击杀……”\n\n“这里的人，也是能够与魂殿强者抗衡。”\n\n萧炎眼眸中也是掠过一抹惊骇，旋即一笑，旋即一声冷喝，身后那些魂殿殿主便是对于萧炎，一道冷喝的身体，在天空之上暴射而出，一股恐怖的劲气，便是从天空倾洒而下。\n\n“嗤！”\n```\n\n## Generate Chinese Lyrics\n\nTo train:\n\n```\npython train.py  \\\n  --input_file data\u002Fjay.txt \\\n  --num_steps 20 \\\n  --batch_size 32 \\\n  --name jay \\\n  --max_steps 5000 \\\n  --learning_rate 0.01 \\\n  --num_layers 3 \\\n  --use_embedding\n```\n\nTo sample:\n\n```\npython sample.py --converter_path model\u002Fjay\u002Fconverter.pkl \\\n  --checkpoint_path  model\u002Fjay  \\\n  --max_length 500  \\\n  --use_embedding \\\n  --num_layers 3 \\\n  --start_string 我知道\n```\n\nResult:\n```\n我知道\n我的世界 一种解\n我一直实现 语不是我\n有什么(客) 我只是一口\n我想想我不来 你的微笑\n我说 你我你的你\n只能有我 一个梦的\n我说的我的\n我不能再想\n我的爱的手 一点有美\n我们 你的我 你不会再会爱不到\n```\n\n## Generate Linux Code\n\nTo train:\n\n```\npython train.py  \\\n  --input_file data\u002Flinux.txt \\\n  --num_steps 100 \\\n  --name linux \\\n  --learning_rate 0.01 \\\n  --num_seqs 32 \\\n  --max_steps 20000\n```\n\nTo sample:\n\n```\npython sample.py \\\n  --converter_path model\u002Flinux\u002Fconverter.pkl \\\n  --checkpoint_path  model\u002Flinux \\\n  --max_length 1000 \n```\n\nResult:\n\n```\nstatic int test_trace_task(struct rq *rq)\n{\n        read_user_cur_task(state);\n        return trace_seq;\n}\n\nstatic int page_cpus(struct flags *str)\n{\n        int rc;\n        struct rq *do_init;\n};\n\n\u002F*\n * Core_trace_periods the time in is is that supsed,\n *\u002F\n#endif\n\n\u002F*\n * Intendifint to state anded.\n *\u002F\nint print_init(struct priority *rt)\n{       \u002F* Comment sighind if see task so and the sections *\u002F\n        console(string, &can);\n}\n```\n\n## Generate Japanese Text\n\nTo train:\n```\npython train.py  \\\n  --input_file data\u002Fjpn.txt \\\n  --num_steps 20 \\\n  --batch_size 32 \\\n  --name jpn \\\n  --max_steps 10000 \\\n  --learning_rate 0.01 \\\n  --use_embedding\n```\n\nTo sample:\n```\npython sample.py \\\n  --converter_path model\u002Fjpn\u002Fconverter.pkl \\\n  --checkpoint_path model\u002Fjpn \\\n  --max_length 1000 \\\n  --use_embedding\n```\n\nResult:\n```\n「ああ、それだ、」とお夏は、と夏のその、\n「そうだっていると、お夏は、このお夏が、その時、\n（あ、」\n　と声にはお夏が、これは、この膝の方を引寄って、お夏に、\n「まあ。」と、その時のお庇《おも》ながら、\n```\n\n## Acknowledgement\n\nSome codes are borrowed from [NELSONZHAO\u002Fzhihu\u002Fanna_lstm](https:\u002F\u002Fgithub.com\u002FNELSONZHAO\u002Fzhihu\u002Ftree\u002Fmaster\u002Fanna_lstm)\n\n","# Char-RNN-TensorFlow\n\nTensorFlow中的多语言字符级循环神经网络。你可以使用这段代码生成英文文本、中文诗歌和歌词、日文文本以及其他语言的文本。\n\n一个基于最新版本TensorFlow的Char RNN实现。可以实现生成英文、写诗、歌词、小说、生成代码、生成日文等功能。\n\n\n## 需求\n- Python 2.7.X\n- TensorFlow >= 1.2\n\n## 生成英文文本\n\n训练命令：\n\n```\npython train.py \\\n  --input_file data\u002Fshakespeare.txt  \\\n  --name shakespeare \\\n  --num_steps 50 \\\n  --num_seqs 32 \\\n  --learning_rate 0.01 \\\n  --max_steps 20000\n```\n\n采样命令：\n\n```\npython sample.py \\\n  --converter_path model\u002Fshakespeare\u002Fconverter.pkl \\\n  --checkpoint_path model\u002Fshakespeare\u002F \\\n  --max_length 1000\n```\n\n结果：\n\n```\nBROTON:\n当你在她那里站立时，那些拥有……\n他们认为那是对我马匹的教导之心，就像一些信任一样。\n\nLAUNCE:\n那形式如此巧妙地映射在他的身上，你已经看到了她……\n到她的耳朵里，我们将成为那种会发出声音的人。\n主啊，所有的鸟儿也一样，他们会说，\n我们注定要在这里与我的和平共处。\n\nPALINA:\n为什么，你呼吸的空气或你的影子才是最重要的呢？\n我已经告诉他了，他也同意让我……\n我感到非常困惑。\n\n```\n\n## 生成中文诗歌\n\n训练命令：\n\n```\npython train.py \\\n  --use_embedding \\\n  --input_file data\u002Fpoetry.txt \\\n  --name poetry \\\n  --learning_rate 0.005 \\\n  --num_steps 26 \\\n  --num_seqs 32 \\\n  --max_steps 10000\n```\n\n采样命令：\n\n```\npython sample.py \\\n  --use_embedding \\\n  --converter_path model\u002Fpoetry\u002Fconverter.pkl \\\n  --checkpoint_path model\u002Fpoetry\u002F \\\n  --max_length 300\n```\n\n结果：\n```\n何人无不见，此地自何如。\n一夜山边去，江山一夜归。\n山风春草色，秋水夜声深。\n何事同相见，应知旧子人。\n何当不相见，何处见江边。\n一叶生云里，春风出竹堂。\n何时有相访，不得在君心。\n```\n\n## 生成中文小说\n\n训练命令（文件“novel.txt”未包含在本仓库中。请自行寻找并确保其为UTF-8编码！）：\n```\npython train.py \\\n  --use_embedding True \\\n  --input_file data\u002Fnovel.txt \\\n  --num_steps 80 \\\n  --name novel \\\n  --learning_rate 0.005 \\\n  --num_seqs 32 \\\n  --num_layers 3 \\\n  --embedding_size 256 \\\n  --lstm_size 256 \\\n  --max_steps 1000000\n```\n\n采样命令：\n```\npython sample.py \\\n  --converter_path model\u002Fnovel\u002Fconverter.pkl \\\n  --checkpoint_path  model\u002Fnovel \\\n  --use_embedding \\\n  --max_length 2000 \\\n  --num_layers 3 \\\n  --lstm_size 256 \\\n  --embedding_size 256\n```\n\n结果：\n```\n闻言，萧炎一怔，旋即目光转向一旁的那名灰袍青年，然后目光在那位老者身上扫过，那里，一个巨大的石台上，有着一个巨大的巨坑，一些黑色光柱，正在从中，一道巨大的黑色巨蟒，一股极度恐怖的气息，从天空上暴射而出 ，然后在其中一些一道道目光中，闪电般的出现在了那些人影，在那种灵魂之中，却是有着许些强者的感觉，在他们面前，那一道道身影，却是如同一道黑影一般，在那一道道目光中，在这片天地间，在那巨大的空间中，弥漫而开……\n\n“这是一位斗尊阶别，不过不管你，也不可能会出手，那些家伙，可以为了这里，这里也是能够有着一些异常，而且他，也是不能将其他人给你的灵魂，所以，这些事，我也是不可能将这一个人的强者给吞天蟒，这般一次，我们的实力，便是能够将之击杀……”\n\n“这里的人，也是能够与魂殿强者抗衡。”\n\n萧炎眼眸中也是掠过一抹惊骇，旋即一笑，旋即一声冷喝，身后那些魂殿殿主便是对于萧炎，一道冷喝的身体，在天空之上暴射而出，一股恐怖的劲气，便是从天空倾洒而下。\n\n“嗤！”\n```\n\n## 生成中文歌词\n\n训练命令：\n\n```\npython train.py  \\\n  --input_file data\u002Fjay.txt \\\n  --num_steps 20 \\\n  --batch_size 32 \\\n  --name jay \\\n  --max_steps 5000 \\\n  --learning_rate 0.01 \\\n  --num_layers 3 \\\n  --use_embedding\n```\n\n采样命令：\n\n```\npython sample.py --converter_path model\u002Fjay\u002Fconverter.pkl \\\n  --checkpoint_path  model\u002Fjay  \\\n  --max_length 500  \\\n  --use_embedding \\\n  --num_layers 3 \\\n  --start_string 我知道\n```\n\n结果：\n```\n我知道\n我的世界 一种解\n我一直实现 语不是我\n有什么(客) 我只是一口\n我想想我不来 你的微笑\n我说 你我你的你\n只能有我 一个梦的\n我说的我的\n我不能再想\n我的爱的手 一点有美\n我们 你的我 你不会再会爱不到\n```\n\n## 生成Linux代码\n\n训练命令：\n\n```\npython train.py  \\\n  --input_file data\u002Flinux.txt \\\n  --num_steps 100 \\\n  --name linux \\\n  --learning_rate 0.01 \\\n  --num_seqs 32 \\\n  --max_steps 20000\n```\n\n采样命令：\n\n```\npython sample.py \\\n  --converter_path model\u002Flinux\u002Fconverter.pkl \\\n  --checkpoint_path  model\u002Flinux \\\n  --max_length 1000 \n```\n\n结果：\n\n```\nstatic int test_trace_task(struct rq *rq)\n{\n        read_user_cur_task(state);\n        return trace_seq;\n}\n\nstatic int page_cpus(struct flags *str)\n{\n        int rc;\n        struct rq *do_init;\n};\n\n\u002F*\n * Core_trace_periods the time in is is that supsed,\n *\u002F\n#endif\n\n\u002F*\n * Intendifint to state anded.\n *\u002F\nint print_init(struct priority *rt)\n{       \u002F* Comment sighind if see task so and the sections *\u002F\n        console(string, &can);\n}\n```\n\n## 生成日文文本\n\n训练命令：\n```\npython train.py  \\\n  --input_file data\u002Fjpn.txt \\\n  --num_steps 20 \\\n  --batch_size 32 \\\n  --name jpn \\\n  --max_steps 10000 \\\n  --learning_rate 0.01 \\\n  --use_embedding\n```\n\n采样命令：\n```\npython sample.py \\\n  --converter_path model\u002Fjpn\u002Fconverter.pkl \\\n  --checkpoint_path model\u002Fjpn \\\n  --max_length 1000 \\\n  --use_embedding\n```\n\n结果：\n```\n「ああ、それだ、」とお夏は、と夏のその、\n「そうだっていると、お夏は、このお夏が、その時、\n（あ、」\n　と声にはお夏が、これは、この膝の方を引寄って、お夏に、\n「まあ。」と、その時のお庇《おも》ながら、\n```\n\n## 致谢\n\n部分代码借鉴自[NELSONZHAO\u002Fzhihu\u002Fanna_lstm](https:\u002F\u002Fgithub.com\u002FNELSONZHAO\u002Fzhihu\u002Ftree\u002Fmaster\u002Fanna_lstm)","# Char-RNN-TensorFlow 快速上手指南\n\nChar-RNN-TensorFlow 是一个基于 TensorFlow 实现的字符级循环神经网络（Char-RNN）工具。它支持多语言文本生成，包括英文、中文诗词、小说、歌词、代码以及日文等。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows\n*   **Python 版本**：Python 2.7.X\n*   **深度学习框架**：TensorFlow >= 1.2\n\n> **注意**：本项目依赖较旧的 Python 2.7 和 TensorFlow 1.x 版本。如果您使用的是现代环境，建议创建独立的虚拟环境（如 `virtualenv` 或 `conda`）以避免依赖冲突。\n\n**安装依赖：**\n\n```bash\npip install tensorflow==1.15.0\n# 如果下载速度慢，推荐使用国内镜像源：\n# pip install tensorflow==1.15.0 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fsherjilozwer\u002Fchar-rnn-tensorflow.git\n    cd char-rnn-tensorflow\n    ```\n\n2.  **准备训练数据**\n    将您的文本数据（`.txt` 格式，推荐 UTF-8 编码）放入 `data\u002F` 目录下。\n    *   英文示例：`data\u002Fshakespeare.txt`\n    *   中文诗词示例：`data\u002Fpoetry.txt`\n    *   其他语言请自行准备对应文件。\n\n## 基本使用\n\n本工具的核心流程分为两步：**训练模型 (train)** 和 **采样生成 (sample)**。\n\n### 场景一：生成英文文本（莎士比亚风格）\n\n这是最基础的用法，无需额外嵌入层参数。\n\n**1. 训练模型**\n```bash\npython train.py \\\n  --input_file data\u002Fshakespeare.txt  \\\n  --name shakespeare \\\n  --num_steps 50 \\\n  --num_seqs 32 \\\n  --learning_rate 0.01 \\\n  --max_steps 20000\n```\n\n**2. 生成文本**\n```bash\npython sample.py \\\n  --converter_path model\u002Fshakespeare\u002Fconverter.pkl \\\n  --checkpoint_path model\u002Fshakespeare\u002F \\\n  --max_length 1000\n```\n\n---\n\n### 场景二：生成中文诗词\n\n处理中文等多字节字符时，**必须**添加 `--use_embedding` 参数。\n\n**1. 训练模型**\n```bash\npython train.py \\\n  --use_embedding \\\n  --input_file data\u002Fpoetry.txt \\\n  --name poetry \\\n  --learning_rate 0.005 \\\n  --num_steps 26 \\\n  --num_seqs 32 \\\n  --max_steps 10000\n```\n\n**2. 生成文本**\n```bash\npython sample.py \\\n  --use_embedding \\\n  --converter_path model\u002Fpoetry\u002Fconverter.pkl \\\n  --checkpoint_path model\u002Fpoetry\u002F \\\n  --max_length 300\n```\n\n---\n\n### 场景三：生成中文小说（进阶配置）\n\n对于长文本（如小说），建议增加网络层数 (`num_layers`) 和隐藏单元大小 (`lstm_size`) 以提升生成质量。\n\n**1. 训练模型**\n```bash\npython train.py \\\n  --use_embedding True \\\n  --input_file data\u002Fnovel.txt \\\n  --num_steps 80 \\\n  --name novel \\\n  --learning_rate 0.005 \\\n  --num_seqs 32 \\\n  --num_layers 3 \\\n  --embedding_size 256 \\\n  --lstm_size 256 \\\n  --max_steps 1000000\n```\n\n**2. 生成文本**\n*注意：采样时的网络结构参数需与训练时保持一致。*\n```bash\npython sample.py \\\n  --converter_path model\u002Fnovel\u002Fconverter.pkl \\\n  --checkpoint_path  model\u002Fnovel \\\n  --use_embedding \\\n  --max_length 2000 \\\n  --num_layers 3 \\\n  --lstm_size 256 \\\n  --embedding_size 256\n```\n\n### 常用参数说明\n\n*   `--input_file`: 输入训练数据的路径。\n*   `--name`: 模型保存的名称标识。\n*   `--max_steps`: 最大训练步数（迭代次数）。\n*   `--learning_rate`: 学习率。\n*   `--use_embedding`: **关键参数**，处理中文、日文等非 ASCII 字符时必须开启。\n*   `--start_string`: (仅在 sample.py 中有效) 指定生成文本的起始字符串，例如 `--start_string \"我知道\"`。","某独立游戏开发团队正在为一款古风武侠 RPG 制作程序化生成的 NPC 对话和江湖传闻，以丰富游戏世界的沉浸感。\n\n### 没有 Char-RNN-TensorFlow 时\n- 策划人员需手动撰写成千上万条对话文本，耗时耗力且难以维持风格统一，容易出现现代词汇混入的“出戏”感。\n- 想要扩展多语言支持（如加入日文版或英文版）时，需要重新招募对应语种的文案团队，开发成本呈倍数增长。\n- 静态文本库导致玩家重复游玩时内容千篇一律，缺乏动态变化，严重降低了游戏的可重玩性和探索乐趣。\n- 调整文本风格（如从严肃正剧转为幽默调侃）需要推翻原有文案库重新编写，迭代周期长达数周。\n\n### 使用 Char-RNN-TensorFlow 后\n- 只需投喂少量金庸小说或古诗词作为训练数据，Char-RNN-TensorFlow 即可自动批量生成风格高度一致的武侠风对话，效率提升数十倍。\n- 利用其多语言特性，团队复用同一套架构，仅更换训练语料（如莎士比亚文集或日文轻小说），便快速生成了地道的英文和日文版本。\n- 结合随机种子采样，Char-RNN-TensorFlow 能实时生成无限不重复的江湖传闻，确保每位玩家遇到的剧情细节都独一无二。\n- 通过微调训练参数，开发者可在几分钟内切换文本基调，灵活适配游戏中不同门派的说话风格，大幅缩短内容迭代时间。\n\nChar-RNN-TensorFlow 将原本昂贵且僵化的内容创作过程，转化为低成本、高动态的数据驱动流程，让小规模团队也能构建出拥有海量文本的鲜活世界。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhzy46_Char-RNN-TensorFlow_c8f24671.png","hzy46","Zhiyuan He","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhzy46_abbdfcf1.jpg","China",null,"Shanghai","https:\u002F\u002Fgithub.com\u002Fhzy46",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,929,423,"2026-03-31T08:59:21","未说明","未说明 (基于 TensorFlow 1.2，通常支持 CPU 或任意兼容的 NVIDIA GPU，无特定型号要求)",{"notes":94,"python":95,"dependencies":96},"该项目基于较旧的 Python 2.7 和 TensorFlow 1.2 版本，现代环境可能需要配置虚拟环境或降级依赖才能运行。训练中文小说、歌词或使用嵌入层（--use_embedding）时，建议根据数据量调整显存和内存。部分训练数据文件（如 novel.txt）未包含在仓库中，需用户自行准备并确保为 UTF-8 编码。","2.7.X",[97],"tensorflow>=1.2",[15],"2026-03-27T02:49:30.150509","2026-04-06T23:56:16.670011",[102,107,112,117,122,127],{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},20450,"代码中的 embedding 层是如何处理中文输入的？是直接生成中文向量吗？","初始时 embedding 是随机生成的。该模型相当于同时训练 embedding 层和 RNN 网络，而不是预先使用 word2vec 生成固定向量。随着训练进行，embedding 会学习到适合任务的中文表示。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FChar-RNN-TensorFlow\u002Fissues\u002F1",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},20451,"运行 sample 文件时报错 'Cannot feed value of shape (1, 1) for Tensor inputs:0'，如何解决？","这是因为采样模式下的输入形状与训练模式不一致。请检查代码中是否误删了以下逻辑：当 sampling 为 True 时，设置 num_seqs=1, num_steps=1；否则保持原有设置。确保这段代码存在以正确处理不同阶段的输入维度。\n代码片段：\nif sampling is True:\n    num_seqs, num_steps = 1, 1\nelse:\n    num_seqs, num_steps = num_seqs, num_steps","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FChar-RNN-TensorFlow\u002Fissues\u002F20",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},20452,"运行 train.py 报错 'module tensorflow has no attribute flags' 怎么办？","这是 TensorFlow 2.x 版本兼容性问题。需要在代码开头添加以下两行来启用 TF1.x 的行为：\nimport tensorflow.compat.v1 as tf\ntf.disable_v2_behavior()","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FChar-RNN-TensorFlow\u002Fissues\u002F19",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},20453,"在预测（生成文本）阶段，模型的输入是什么？是随机词汇吗？","是的，预测阶段的起始输入通常是随机选择的字符。具体实现位于 model.py 第 15 行附近，通过以下代码从词表中按概率分布随机选择一个字符作为起始输入：\nc = np.random.choice(vocab_size, 1, p=p)[0]","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FChar-RNN-TensorFlow\u002Fissues\u002F6",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},20454,"RNN 训练时总是预测换行符（\\n）或回车符（\\r），导致生成内容单一，如何解决？","这通常是因为训练数据中换行符和回车符的出现频率远高于其他字符（例如在周杰伦歌词数据中频次高达 5000\u002F70000），导致模型倾向于预测高频字符。解决思路包括：1. 对数据进行预处理，减少特殊字符的重复或比例；2. 调整损失函数或采样策略，降低高频字符的权重；3. 增加数据多样性，平衡字符分布。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FChar-RNN-TensorFlow\u002Fissues\u002F12",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},20455,"使用中文输入训练时 loss 变为 nan，即使使用了梯度截断也无法解决，可能是什么原因？","Loss 为 nan 通常由梯度爆炸引起，尤其是在加入 embedding 层后。虽然已使用梯度截断，但若仍出现 nan，建议检查：1. 学习率是否过大，尝试减小学习率；2. 初始化参数是否合理；3. 数据预处理是否有异常值；4. 尝试更换优化器或使用更小的梯度截断阈值。调试时可关注 Adam\u002Fupdate_embedding\u002Fsqrt 等操作的数值稳定性。","https:\u002F\u002Fgithub.com\u002Fhzy46\u002FChar-RNN-TensorFlow\u002Fissues\u002F9",[]]