[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-CR-Gjx--LeakGAN":3,"tool-CR-Gjx--LeakGAN":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151918,2,"2026-04-12T11:33:05",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":16},6590,"gpt4all","nomic-ai\u002Fgpt4all","GPT4All 是一款让普通电脑也能轻松运行大型语言模型（LLM）的开源工具。它的核心目标是打破算力壁垒，让用户无需依赖昂贵的显卡（GPU）或云端 API，即可在普通的笔记本电脑和台式机上私密、离线地部署和使用大模型。\n\n对于担心数据隐私、希望完全掌控本地数据的企业用户、研究人员以及技术爱好者来说，GPT4All 提供了理想的解决方案。它解决了传统大模型必须联网调用或需要高端硬件才能运行的痛点，让日常设备也能成为强大的 AI 助手。无论是希望构建本地知识库的开发者，还是单纯想体验私有化 AI 聊天的普通用户，都能从中受益。\n\n技术上，GPT4All 基于高效的 `llama.cpp` 后端，支持多种主流模型架构（包括最新的 DeepSeek R1 蒸馏模型），并采用 GGUF 格式优化推理速度。它不仅提供界面友好的桌面客户端，支持 Windows、macOS 和 Linux 等多平台一键安装，还为开发者提供了便捷的 Python 库，可轻松集成到 LangChain 等生态中。通过简单的下载和配置，用户即可立即开始探索本地大模型的无限可能。",77307,"2026-04-11T06:52:37",[15,13],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":80,"owner_twitter":80,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":80,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":94,"env_deps":96,"category_tags":101,"github_topics":102,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":108,"updated_at":109,"faqs":110,"releases":151},6980,"CR-Gjx\u002FLeakGAN","LeakGAN","The codes of paper \"Long Text Generation via Adversarial Training with Leaked Information\"  on AAAI 2018.  Text generation using GAN and Hierarchical Reinforcement Learning.","LeakGAN 是一款专注于长文本生成的开源人工智能模型，源自 AAAI 2018 的研究成果。它巧妙结合了生成对抗网络（GAN）与分层强化学习技术，旨在解决传统方法在生成长篇文本时难以保持连贯性和语义完整性的难题。\n\n在常规文本生成中，判别器通常只能在整段文字生成完毕后提供单一的评分反馈，导致生成器缺乏中间过程的指导，一旦文本超过 20 个词，质量往往大幅下降。LeakGAN 创新性地引入了“信息泄露”机制：允许判别器将其提取的高层特征“泄露”给生成器。其内部采用分层架构，包含一个“管理者（Manager）”和一个“工作者（Worker）”模块。管理者接收判别器的特征并转化为阶段性目标向量，指导工作者逐词生成，从而让模型在写作过程中就能实时获得结构化的引导信号。\n\n这一设计不仅显著提升了长文本的生成效果，在无监督情况下还能隐式学习到句子结构，同时也优化了短文本的表现。LeakGAN 非常适合从事自然语言处理、对话系统或机器翻译领域的研究人员与开发者使用，尤其是那些需要探索复杂序列生成算法或复现前沿学术成果的技术团队。项目基于 TensorFlow 构建，代码结构清晰，是深入理解对抗训","LeakGAN 是一款专注于长文本生成的开源人工智能模型，源自 AAAI 2018 的研究成果。它巧妙结合了生成对抗网络（GAN）与分层强化学习技术，旨在解决传统方法在生成长篇文本时难以保持连贯性和语义完整性的难题。\n\n在常规文本生成中，判别器通常只能在整段文字生成完毕后提供单一的评分反馈，导致生成器缺乏中间过程的指导，一旦文本超过 20 个词，质量往往大幅下降。LeakGAN 创新性地引入了“信息泄露”机制：允许判别器将其提取的高层特征“泄露”给生成器。其内部采用分层架构，包含一个“管理者（Manager）”和一个“工作者（Worker）”模块。管理者接收判别器的特征并转化为阶段性目标向量，指导工作者逐词生成，从而让模型在写作过程中就能实时获得结构化的引导信号。\n\n这一设计不仅显著提升了长文本的生成效果，在无监督情况下还能隐式学习到句子结构，同时也优化了短文本的表现。LeakGAN 非常适合从事自然语言处理、对话系统或机器翻译领域的研究人员与开发者使用，尤其是那些需要探索复杂序列生成算法或复现前沿学术成果的技术团队。项目基于 TensorFlow 构建，代码结构清晰，是深入理解对抗训练与强化学习结合应用的优秀范例。","﻿# LeakGAN\nThe code of research paper [Long Text Generation via Adversarial Training with Leaked Information](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.08624). \n\nThis paper has been accepted at the Thirty-Second AAAI Conference on Artificial Intelligence ([AAAI-18](https:\u002F\u002Faaai.org\u002FConferences\u002FAAAI-18\u002F)).\n## Requirements\n* **Tensorflow r1.2.1**\n* Python 2.7\n* CUDA 7.5+ (For GPU)\n\n## Introduction\nAutomatically generating coherent and semantically meaningful text has many applications in machine translation, dialogue systems, image captioning, etc. Recently, by combining with policy gradient, Generative Adversarial Nets (GAN) that use a discriminative model to guide the training of the generative model as a reinforcement learning policy has shown promising results in text generation. However, the scalar guiding signal is only available after the entire text has been generated and lacks intermediate information about text structure during the generative process. As such, it limits its success when the length of the generated text samples is long (more than 20 words). In this project, we propose a new framework, called LeakGAN, to address the problem for long text generation. We allow the discriminative net to leak its own high-level extracted features to the generative net to further help the guidance. The generator incorporates such informative signals into all generation steps through an additional Manager module, which takes the extracted features of current generated words and outputs a latent vector to guide the Worker module for next-word generation. Our extensive experiments on synthetic data and various real-world tasks with Turing test demonstrate that LeakGAN is highly effective in long text generation and also improves the performance in short text generation scenarios. More importantly, without any supervision, LeakGAN would be able to implicitly learn sentence structures only through the interaction between Manager and Worker.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCR-Gjx_LeakGAN_readme_0940ada07474.png)\n\nAs the illustration of LeakGAN. We specifically introduce a hierarchical generator G, which consists of a high-level MANAGER module and a low-level WORKER module. The MANAGER is a long short term memory network (LSTM) and serves as a mediator. In each step, it receives generator D’s high-level feature representation, e.g., the feature map of the CNN, and uses it to form the guiding goal for the WORKER module in that timestep. As the information from D is internally-maintained and in an adversarial game it is not supposed to provide G with such information. We thus call it a leakage of information from D.\n\nNext, given the goal embedding produced by the MANAGER, the WORKER firstly encodes current generated words with another LSTM, then combines the output of the LSTM and the goal embedding to take a final action at current state. As such, the guiding signals from D are not only available to G at the end in terms of the scalar reward signals, but also available in terms of a goal embedding vector during the generation process to guide G how to get improved.\n\n## Reference\n```bash\n@article{guo2017long,\n  title={Long Text Generation via Adversarial Training with Leaked Information},\n  author={Guo, Jiaxian and Lu, Sidi and Cai, Han and Zhang, Weinan and Yu, Yong and Wang, Jun},\n  journal={arXiv preprint arXiv:1709.08624},\n  year={2017}\n}\n```\n\n\nYou can get the code and run the experiments in follow folders.\n## Folder\n\nSynthetic Data: synthetic data experiment\n\nImage COCO: a real text example for our model using dataset Image COCO (http:\u002F\u002Fcocodataset.org\u002F#download)\n\nNote: this code is based on the [previous work by LantaoYu](https:\u002F\u002Fgithub.com\u002FLantaoYu\u002FSeqGAN). Many thanks to [LantaoYu](https:\u002F\u002Fgithub.com\u002FLantaoYu).\n","﻿# LeakGAN\n论文[通过泄露信息的对抗训练生成长文本](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.08624)的代码。\n\n该论文已被第三十二届美国人工智能协会会议（AAAI-18）接收([AAAI-18](https:\u002F\u002Faaai.org\u002FConferences\u002FAAAI-18\u002F))。\n## 需求\n* **Tensorflow r1.2.1**\n* Python 2.7\n* CUDA 7.5+（用于GPU）\n\n## 简介\n自动生成连贯且语义上有意义的文本在机器翻译、对话系统、图像字幕生成等领域有着广泛的应用。最近，通过结合策略梯度方法，利用判别模型作为强化学习策略来指导生成模型训练的生成对抗网络（GAN），在文本生成任务中展现了令人鼓舞的效果。然而，这种标量式的指导信号只有在整个文本生成完成后才能获得，并且在生成过程中缺乏关于文本结构的中间信息。因此，当生成的文本样本较长（超过20个词）时，其性能会受到限制。在本项目中，我们提出了一种名为LeakGAN的新框架，以解决长文本生成问题。我们允许判别网络将其提取的高层特征“泄漏”给生成网络，从而进一步辅助生成过程的指导。生成器通过一个额外的Manager模块将这些信息性信号融入到每一步的生成中：该模块接收当前已生成词的特征表示，并输出一个潜在向量，用以指导Worker模块进行下一步的词生成。我们在合成数据以及多种真实世界任务上的大量实验表明，LeakGAN不仅在长文本生成方面非常有效，而且在短文本生成场景中也显著提升了性能。更重要的是，在没有任何监督的情况下，LeakGAN仅通过Manager和Worker之间的交互就能隐式地学习句子结构。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCR-Gjx_LeakGAN_readme_0940ada07474.png)\n\n如图所示，LeakGAN引入了一个分层的生成器G，它由高层的MANAGER模块和低层的WORKER模块组成。MANAGER是一个长短期记忆网络（LSTM），充当媒介角色。在每一步中，它接收判别器D的高层特征表示，例如CNN的特征图，并利用这些特征为WORKER模块在当前时间步设定指导目标。由于D内部维护的信息在对抗游戏中不应提供给G，我们将这一行为称为D向G的信息泄漏。\n\n接下来，根据MANAGER生成的目标嵌入，WORKER首先使用另一个LSTM对当前已生成的词进行编码，然后将LSTM的输出与目标嵌入相结合，以在当前状态下做出最终决策。这样一来，来自D的指导信号不仅能在生成结束时以标量奖励的形式提供给G，还能在生成过程中以目标嵌入向量的形式持续指导G如何改进生成结果。\n\n## 参考文献\n```bash\n@article{guo2017long,\n  title={Long Text Generation via Adversarial Training with Leaked Information},\n  author={Guo, Jiaxian and Lu, Sidi and Cai, Han and Zhang, Weinan and Yu, Yong and Wang, Jun},\n  journal={arXiv preprint arXiv:1709.08624},\n  year={2017}\n}\n```\n\n\n您可以在以下文件夹中获取代码并运行实验。\n## 文件夹\n\n合成数据：合成数据实验\n\nImage COCO：使用Image COCO数据集（http:\u002F\u002Fcocodataset.org\u002F#download）的真实文本示例\n\n注：本代码基于[LantaoYu的先前工作](https:\u002F\u002Fgithub.com\u002FLantaoYu\u002FSeqGAN)。在此特别感谢[LantaoYu](https:\u002F\u002Fgithub.com\u002FLantaoYu)。","# LeakGAN 快速上手指南\n\nLeakGAN 是一个用于长文本生成的对抗生成网络（GAN）框架。它通过让判别器（Discriminator）将提取的高层特征“泄露”给生成器（Generator），利用管理器（Manager）和工作器（Worker）的分层结构，有效解决了长文本生成中引导信号稀疏的问题。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下严格的环境要求（该项目基于较早期的 TensorFlow 版本开发）：\n\n*   **操作系统**: Linux (推荐，Windows 需配置 CUDA 环境)\n*   **Python 版本**: Python 2.7 (**注意**：不支持 Python 3)\n*   **深度学习框架**: TensorFlow r1.2.1\n*   **GPU 支持** (可选但推荐):\n    *   CUDA 7.5 或更高版本\n    *   cuDNN (需与 CUDA 版本匹配)\n\n> **提示**：由于依赖 Python 2.7 和旧版 TensorFlow，建议在独立的虚拟环境（如 `virtualenv` 或 `conda`）中运行，以免污染现有开发环境。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FCR-Gjx\u002FLeakGAN.git\ncd LeakGAN\n```\n\n### 2. 创建 Python 2.7 虚拟环境\n如果您使用 `conda`：\n```bash\nconda create -n leakgan python=2.7\nconda activate leakgan\n```\n\n如果您使用 `virtualenv`：\n```bash\nvirtualenv -p \u002Fusr\u002Fbin\u002Fpython2.7 leakgan_env\nsource leakgan_env\u002Fbin\u002Factivate\n```\n\n### 3. 安装依赖\n由于 TensorFlow 1.2.1 较老，建议直接指定版本安装。国内用户可使用清华源加速下载：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow-gpu==1.2.1\n# 如果不需要 GPU 支持，安装 CPU 版本：\n# pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow==1.2.1\n\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple numpy scipy matplotlib\n```\n\n> **注意**：如果您的显卡驱动较新，可能无法直接支持 CUDA 7.5。在这种情况下，您可能需要寻找兼容的 Docker 镜像或在旧硬件上运行。\n\n## 基本使用\n\n本项目主要包含合成数据实验和真实数据集（Image COCO）实验。以下以**合成数据（Synthetic Data）**为例，展示最基础的运行流程。\n\n### 1. 进入合成数据目录\n```bash\ncd synthetic_data\n```\n\n### 2. 运行训练脚本\n执行主程序开始训练。默认配置下，模型将初始化生成器和判别器，并进行对抗训练。\n\n```bash\npython run.py\n```\n\n*   **过程说明**：脚本会自动生成合成数据，初始化 Manager 和 Worker 模块，并开始迭代训练。您可以在终端看到实时的损失值（Loss）和生成样本的质量评估。\n*   **参数调整**：如需修改超参数（如序列长度、隐藏层大小等），请直接编辑 `run.py` 或对应的配置文件（如有）。\n\n### 3. 运行 Image COCO 实验（可选）\n如果您已下载 Image COCO 数据集，可进入对应文件夹运行真实场景实验：\n\n```bash\ncd ..\u002Fimage_coco\n# 请确保已按照 dataset 目录下的说明预处理数据\npython run.py\n```\n\n### 4. 查看结果\n训练完成后，生成的文本样本和模型权重通常会保存在当前目录下的 `save\u002F` 或 `result\u002F` 文件夹中（具体路径视代码内部逻辑而定）。您可以检查生成的 `.txt` 文件来评估长文本的连贯性。\n\n---\n*注：本代码基于 LantaoYu 的 SeqGAN 项目开发，引用论文请参考项目根目录中的 `Reference` 部分。*","某电商平台的智能客服团队正试图利用 AI 自动生成针对复杂售后问题的长篇回复，以提升人工客服效率。\n\n### 没有 LeakGAN 时\n- **长文逻辑断裂**：生成的回复超过 20 个词后往往前后矛盾，无法维持连贯的叙事结构，导致用户阅读困惑。\n- **反馈信号滞后**：传统 GAN 仅在整段文字生成完毕后提供标量奖励，模型无法在写作过程中实时感知语义偏差。\n- **缺乏结构指导**：生成器只能盲目猜测下一个词，缺乏对句子整体架构的高层规划，难以隐式学习复杂的语法逻辑。\n- **人工修正成本高**：由于自动生成的长文本质量不稳定，客服人员仍需花费大量时间重写或大幅修改草稿。\n\n### 使用 LeakGAN 后\n- **长文连贯性显著提升**：通过判别器向生成器“泄露”高层特征，LeakGAN 能稳定生成语义通顺且逻辑严密的长篇解答。\n- **过程级实时引导**：引入的 Manager 模块将判别器的特征转化为每一步的目标向量，让 Worker 模块在生成每个词时都能获得即时指导。\n- **隐式掌握句法结构**：无需额外标注数据，Manager 与 Worker 的层级交互让模型自动学会了如何规划句子结构。\n- **直接可用率提高**：生成的草稿在长度和逻辑上均达到交付标准，大幅减少了人工干预，显著缩短了客诉响应时间。\n\nLeakGAN 的核心价值在于通过“信息泄露”机制打破了长文本生成的黑盒，让 AI 在写作过程中拥有了实时的宏观规划能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCR-Gjx_LeakGAN_43514058.png","CR-Gjx","Jiaxian Guo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FCR-Gjx_38dacf55.png",null,"Google Research","Sydney, Australia","https:\u002F\u002Fcr-gjx.github.io\u002F","https:\u002F\u002Fgithub.com\u002FCR-Gjx",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,576,183,"2026-01-16T14:49:42",4,"未说明","需要 NVIDIA GPU，显存大小未说明，CUDA 7.5+",{"notes":97,"python":98,"dependencies":99},"该工具基于早期的 TensorFlow (r1.2.1) 和 Python 2.7 开发，与现代环境兼容性较差。代码参考了 SeqGAN 项目。若需运行，可能需要配置旧的 Docker 容器或虚拟环境以匹配特定的 CUDA 和 TensorFlow 版本。","2.7",[100],"tensorflow==1.2.1",[15],[103,104,105,106,107],"natural-language-processing","generative-adversarial-network","hierarchical-reinforcement-learning","reinforcement-learning","text-generation","2026-03-27T02:49:30.150509","2026-04-13T07:05:08.640008",[111,116,121,126,131,136,141,146],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},31454,"为什么在 LeakGAN 中使用 CNN 作为判别器而不是 LSTM？","主要因为 LSTM 的并行化能力较差，导致训练速度受限。虽然 LSTM 的性能取决于具体任务，但在本项目中，LSTM 的表现并没有比 CNN 显著更好，因此选择了速度更快的 CNN。","https:\u002F\u002Fgithub.com\u002FCR-Gjx\u002FLeakGAN\u002Fissues\u002F7",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},31455,"训练过程中奖励值（rewards）没有变化是正常的吗？","这是正常现象。虽然具体的奖励数值会变化，但其期望值（expectation）和方差（variance）在训练初期可能保持稳定。如果您发现多个 mini-batch 后奖励完全不变，请检查代码逻辑，但通常奖励的统计特性不变并不代表训练出错。","https:\u002F\u002Fgithub.com\u002FCR-Gjx\u002FLeakGAN\u002Fissues\u002F17",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},31456,"如何判断训练何时停止？g_loss 和 w_loss 的值有意义吗？","实际上，g_loss 和 w_loss 的数值本身没有直接的参考意义（甚至可能出现负值）。判断训练是否结束的最佳方法是：在训练过程中，模型会将生成的样本保存到文件夹中。您应该定期运行 `convert.py` 将这些样本转换为可读文本，人工检查生成质量来决定是否停止训练。","https:\u002F\u002Fgithub.com\u002FCR-Gjx\u002FLeakGAN\u002Fissues\u002F10",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},31457,"BLEU 分数计算中的参考文件（realtest_coco.txt）有什么要求？论文中提到的接收特征的是 Generator 还是 Discriminator？","1. 关于 BLEU 计算：参考文件是从数据集中随机选取的测试集（例如从 Coco 数据集中随机选取 5000 句作为测试集 `save\u002Frealtest_coco.txt`），用于与生成结果对比。\n2. 关于架构细节：论文中接收判别器（Discriminator\u002FCNN）高层特征表示并以此形成指导目标的是 Worker 模块，Worker 属于生成器（Generator）部分。原文笔误写成了 generator D，实际指 discriminator。","https:\u002F\u002Fgithub.com\u002FCR-Gjx\u002FLeakGAN\u002Fissues\u002F6",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},31458,"在哪里可以找到“长文本生成（EMNLP2017 WMT News）”实验的代码？","仓库中目前公开了合成数据实验和真实数据实验（Image Coco）的代码。如果想运行其他真实数据实验（如 WMT News 或诗歌生成），您可以复用 ImageCoco 文件夹中的代码结构，只需替换相应的数据集即可。相关数据集下载地址：\n- EMNLP WMT 2017: http:\u002F\u002Fstatmt.org\u002Fwmt17\u002Ftranslation-task.html\n- 诗歌数据：http:\u002F\u002Fhomepages.inf.ed.ac.uk\u002Fmlap\u002FData\u002FEMNLP14\u002F","https:\u002F\u002Fgithub.com\u002FCR-Gjx\u002FLeakGAN\u002Fissues\u002F13",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},31459,"LeakGAN 模型中的潜在空间（latent space）输入在哪里？","LeakGAN 不像传统 GAN 那样有一个显式的初始潜在向量输入。其随机性（即潜在空间的效果）主要来源于采样过程，具体在代码中是通过 `tf.multinomial()` 函数实现的，该函数在生成过程中引入随机性以产生多样的样本。","https:\u002F\u002Fgithub.com\u002FCR-Gjx\u002FLeakGAN\u002Fissues\u002F28",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},31460,"为什么 Manager 和 Worker 优化中的余弦相似度计算使用的是 `1 - cos(dis_feat, goal)` 而不是直接使用余弦相似度？","这是因为在优化过程中通常需要将“相似度最大化”问题转化为“损失最小化”问题。余弦相似度（cosine similarity）越大表示越相似，而损失函数需要越小越好。因此，使用 `1 - cosine_distance`（或者利用 `tf.losses.cosine_distance` 的特性）可以将相似度指标转化为损失值，以便梯度下降算法进行优化。","https:\u002F\u002Fgithub.com\u002FCR-Gjx\u002FLeakGAN\u002Fissues\u002F9",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},31461,"如何加载新数据进行训练？README 中缺少相关说明。","虽然 README 中未详细列出步骤，但您可以参考现有的 Image Coco 实验代码结构。通常需要预处理您的文本数据，将其转换为模型所需的 pickle (.pkl) 格式或特定的索引格式。注意在生成 .pkl 文件时避免编码错误（如将二进制文件当作文本打开可能导致映射错误），建议参考 `convert.py` 和 `realtrain_contra.py` 中的数据加载和转换逻辑来适配新数据。","https:\u002F\u002Fgithub.com\u002FCR-Gjx\u002FLeakGAN\u002Fissues\u002F8",[]]