[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-binary-husky--gpt_academic":3,"tool-binary-husky--gpt_academic":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":23,"last_commit_at":63,"category_tags":64,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":80,"languages":81,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":10,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":120,"github_topics":121,"view_count":127,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":128,"updated_at":129,"faqs":130,"releases":156},6222,"binary-husky\u002Fgpt_academic","gpt_academic","为GPT\u002FGLM等LLM大语言模型提供实用化交互接口，特别优化论文阅读\u002F润色\u002F写作体验，模块化设计，支持自定义快捷按钮&函数插件，支持Python和C++等项目剖析&自译解功能，PDF\u002FLaTex论文翻译&总结功能，支持并行问询多种LLM模型，支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。","gpt_academic 是一款专为学术科研场景打造的大语言模型交互工具，旨在让论文阅读、润色与写作变得更加高效流畅。它解决了研究人员在面对长篇文献时难以快速提炼核心观点、跨语言理解困难以及代码项目剖析复杂等痛点。无论是需要深入研读 PDF 论文的学者，还是希望借助 AI 辅助编写和调试 Python、C++ 代码的开发者，都能从中获益。\n\n该工具的最大亮点在于其高度的灵活性与广泛的兼容性。它不仅支持通义千问、智谱 GLM、讯飞星火、Llama2 等国内外主流大模型，还允许用户并行对比多个模型的回复效果。独特的模块化设计让用户可以自定义快捷按钮和功能插件，甚至能一键生成项目的自我解析报告。此外，gpt_academic 特别优化了本地部署体验，支持在个人电脑上运行 ChatGLM3 等模型，有效保护数据隐私。对于需要处理 LaTeX 文档或进行多语言翻译的用户，它也提供了便捷的专用功能。整体而言，这是一个功能强大且易于上手的助手，能帮助各类用户更专注于创新与研究本身。","> [!IMPORTANT]\n>\n> `master主分支`最新动态(2026.1.25): 新GUI前端测试中，Coming Soon\u003Cbr\u002F>\n> `master主分支`最新动态(2025.8.23): Dockerfile构建效率大幅优化\u003Cbr\u002F>\n> 2025.2.2: 三分钟快速接入最强qwen2.5-max[视频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1LeFuerEG4)\u003Cbr\u002F>\n> 2025.2.1: 支持自定义字体\u003Cbr\u002F>\n> 2024.10.10: 突发停电，紧急恢复了提供[whl包](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F14kR-3V-lIbvGxri4AHc8TpiA1fqsw7SK?usp=sharing)的文件服务器\u003Cbr\u002F>\n> 2024.5.1: 加入Doc2x翻译PDF论文的功能，[查看详情](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002FDoc2x)\u003Cbr\u002F>\n> 2024.3.11: 全力支持Qwen、GLM、DeepseekCoder等中文大语言模型！ SoVits语音克隆模块，[查看详情](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Rp421S7tF\u002F)\u003Cbr\u002F>\n> 2024.1.17: 安装依赖时，请选择`requirements.txt`中**指定的版本**。 安装命令：`pip install -r requirements.txt`。\u003Cbr\u002F>\n\n\u003Cbr>\n\n\u003Cdiv align=center>\n\u003Ch1 aligh=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_b6a053a86a69.png\" width=\"40\"> GPT 学术优化 (GPT Academic)\n\u003C\u002Fh1>\n\n[![Github][Github-image]][Github-url]\n[![License][License-image]][License-url]\n[![Releases][Releases-image]][Releases-url]\n[![Installation][Installation-image]][Installation-url]\n[![Wiki][Wiki-image]][Wiki-url]\n[![PR][PRs-image]][PRs-url]\n\n[Github-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fgithub-12100E.svg?style=flat-square\n[License-image]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fbinary-husky\u002Fgpt_academic?label=License&style=flat-square&color=orange\n[Releases-image]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frelease\u002Fbinary-husky\u002Fgpt_academic?label=Release&style=flat-square&color=blue\n[Installation-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdynamic\u002Fjson?color=blue&url=https:\u002F\u002Fraw.githubusercontent.com\u002Fbinary-husky\u002Fgpt_academic\u002Fmaster\u002Fversion&query=$.version&label=Installation&style=flat-square\n[Wiki-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fwiki-项目文档-black?style=flat-square\n[PRs-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-pink?style=flat-square\n\n[Github-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\n[License-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fblob\u002Fmaster\u002FLICENSE\n[Releases-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Freleases\n[Installation-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic#installation\n[Wiki-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\n[PRs-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fpulls\n\n\n\u003C\u002Fdiv>\n\u003Cbr>\n\n**如果喜欢这个项目，请给它一个Star；如果您发明了好用的快捷键或插件，欢迎发pull requests！**\n\nIf you like this project, please give it a Star.\nRead this in [English](docs\u002FREADME.English.md) | [日本語](docs\u002FREADME.Japanese.md) | [한국어](docs\u002FREADME.Korean.md) | [Русский](docs\u002FREADME.Russian.md) | [Français](docs\u002FREADME.French.md). All translations have been provided by the project itself. To translate this project to arbitrary language with GPT, read and run [`multi_language.py`](multi_language.py) (experimental).\n\u003Cbr>\n\n> [!NOTE]\n> 1.本项目中每个文件的功能都在[自译解报告](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002FGPT‐Academic项目自译解报告)`self_analysis.md`详细说明。随着版本的迭代，您也可以随时自行点击相关函数插件，调用GPT重新生成项目的自我解析报告。常见问题请查阅wiki。\n>    [![常规安装方法](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=&message=常规安装方法&color=gray)](#installation)  [![一键安装脚本](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=&message=一键安装脚本&color=gray)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Freleases)  [![配置说明](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=&message=配置说明&color=gray)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F项目配置说明) [![wiki](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=&message=wiki&color=gray)]([https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F项目配置说明](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki))\n>\n> 2.本项目兼容并鼓励尝试国内中文大语言基座模型如通义千问，智谱GLM等。支持多个api-key共存，可在配置文件中填写如`API_KEY=\"openai-key1,openai-key2,azure-key3,api2d-key4\"`。需要临时更换`API_KEY`时，在输入区输入临时的`API_KEY`然后回车键提交即可生效。\n\n\u003Cbr>\u003Cbr>\n\n\u003Cdiv align=\"center\">\n\n功能（⭐= 近期新增功能） | 描述\n--- | ---\n⭐[接入新模型](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E5%A6%82%E4%BD%95%E5%88%87%E6%8D%A2%E6%A8%A1%E5%9E%8B) | 百度[千帆](https:\u002F\u002Fcloud.baidu.com\u002Fdoc\u002FWENXINWORKSHOP\u002Fs\u002FNlks5zkzu)与文心一言, 通义千问[Qwen](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fqwen\u002FQwen-7B-Chat\u002Fsummary)，上海AI-Lab[书生](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM)，讯飞[星火](https:\u002F\u002Fxinghuo.xfyun.cn\u002F)，[LLaMa2](https:\u002F\u002Fhuggingface.co\u002Fmeta-llama\u002FLlama-2-7b-chat-hf)，[智谱GLM4](https:\u002F\u002Fopen.bigmodel.cn\u002F)，DALLE3, [DeepseekCoder](https:\u002F\u002Fcoder.deepseek.com\u002F)\n⭐支持mermaid图像渲染 | 支持让GPT生成[流程图](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV18c41147H9\u002F)、状态转移图、甘特图、饼状图、GitGraph等等（3.7版本）\n⭐Arxiv论文精细翻译 ([Docker](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fpkgs\u002Fcontainer\u002Fgpt_academic_with_latex)) | [插件] 一键[以超高质量翻译arxiv论文](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1dz4y1v77A\u002F)，目前最好的论文翻译工具\n⭐[实时语音对话输入](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fblob\u002Fmaster\u002Fdocs\u002Fuse_audio.md) | [插件] 异步[监听音频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1AV4y187Uy\u002F)，自动断句，自动寻找回答时机\n⭐虚空终端插件 | [插件] 能够使用自然语言直接调度本项目其他插件\n润色、翻译、代码解释 | 一键润色、翻译、查找论文语法错误、解释代码\n[自定义快捷键](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV14s4y1E7jN) | 支持自定义快捷键\n模块化设计 | 支持自定义强大的[插件](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Ftree\u002Fmaster\u002Fcrazy_functions)，插件支持[热更新](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)\n[程序剖析](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1cj411A7VW) | [插件] 一键剖析Python\u002FC\u002FC++\u002FJava\u002FLua\u002F...项目树 或 [自我剖析](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1cj411A7VW)\n读论文、[翻译](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1KT411x7Wn)论文 | [插件] 一键解读latex\u002Fpdf论文全文并生成摘要\nLatex全文[翻译](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1nk4y1Y7Js\u002F)、[润色](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1FT411H7c5\u002F) | [插件] 一键翻译或润色latex论文\n批量注释生成 | [插件] 一键批量生成函数注释\nMarkdown[中英互译](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1yo4y157jV\u002F) | [插件] 看到上面5种语言的[README](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fblob\u002Fmaster\u002Fdocs\u002FREADME.English.md)了吗？就是出自他的手笔\n[PDF论文全文翻译功能](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1KT411x7Wn) | [插件] PDF论文提取题目&摘要+翻译全文（多线程）\n[Arxiv小助手](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1LM4y1279X) | [插件] 输入arxiv文章url即可一键翻译摘要+下载PDF\nLatex论文一键校对 | [插件] 仿Grammarly对Latex文章进行语法、拼写纠错+输出对照PDF\n[谷歌学术统合小助手](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV19L411U7ia) | [插件] 给定任意谷歌学术搜索页面URL，让gpt帮你[写relatedworks](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1GP411U7Az\u002F)\n互联网信息聚合+GPT | [插件] 一键[让GPT从互联网获取信息](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1om4y127ck)回答问题，让信息永不过时\n公式\u002F图片\u002F表格显示 | 可以同时显示公式的[tex形式和渲染形式](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_bd84b6f5b8bc.png)，支持公式、代码高亮\n启动暗色[主题](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F173) | 在浏览器url后面添加```\u002F?__theme=dark```可以切换dark主题\n[多LLM模型](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1wT411p7yf)支持 | 同时被GPT3.5、GPT4、[清华ChatGLM2](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM2-6B)、[复旦MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS)伺候的感觉一定会很不错吧？\n更多LLM模型接入，支持[huggingface部署](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fqingxu98\u002Fgpt-academic) | 加入Newbing接口(新必应)，引入清华[Jittorllms](https:\u002F\u002Fgithub.com\u002FJittor\u002FJittorLLMs)支持[LLaMA](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama)和[盘古α](https:\u002F\u002Fopeni.org.cn\u002Fpangu\u002F)\n⭐[void-terminal](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fvoid-terminal) pip包 | 脱离GUI，在Python中直接调用本项目的所有函数插件（开发中）\n更多新功能展示 (图像生成等) …… | 见本文档结尾处 ……\n\u003C\u002Fdiv>\n\n\n- 新界面（修改`config.py`中的LAYOUT选项即可实现“左右布局”和“上下布局”的切换）\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_fc864d91edb1.gif\" width=\"700\" >\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fassets\u002F96192199\u002F70ff1ec5-e589-4561-a29e-b831079b37fb.gif\" width=\"700\" >\n\u003C\u002Fdiv>\n\n\n- 所有按钮都通过读取functional.py动态生成，可随意加自定义功能，解放剪贴板\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_1aed7cb3a6d2.gif\" width=\"700\" >\n\u003C\u002Fdiv>\n\n- 润色\u002F纠错\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_5255cf38e5a6.gif\" width=\"700\" >\n\u003C\u002Fdiv>\n\n- 如果输出包含公式，会以tex形式和渲染形式同时显示，方便复制和阅读\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_bd84b6f5b8bc.png\" width=\"700\" >\n\u003C\u002Fdiv>\n\n- 懒得看项目代码？直接把整个工程炫ChatGPT嘴里\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_6a5d8442bc97.png\" width=\"700\" >\n\u003C\u002Fdiv>\n\n- 多种大语言模型混合调用（ChatGLM + OpenAI-GPT3.5 + GPT4）\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_6f83a5367efb.png\" width=\"700\" >\n\u003C\u002Fdiv>\n\n\u003Cbr>\u003Cbr>\n\n# Installation\n\n```mermaid\nflowchart TD\n    A{\"安装方法\"} --> W1(\"I 🔑直接运行 (Windows, Linux or MacOS)\")\n    W1 --> W11[\"1 Python pip包管理依赖\"]\n    W1 --> W12[\"2 Anaconda包管理依赖（推荐⭐）\"]\n\n    A --> W2[\"II 🐳使用Docker (Windows, Linux or MacOS)\"]\n\n    W2 --> k1[\"1 部署项目全部能力的大镜像（推荐⭐）\"]\n    W2 --> k2[\"2 仅在线模型（GPT, GLM4等）镜像\"]\n    W2 --> k3[\"3 在线模型 + Latex的大镜像\"]\n\n    A --> W4[\"IV 🚀其他部署方法\"]\n    W4 --> C1[\"1 Windows\u002FMacOS 一键安装运行脚本（推荐⭐）\"]\n    W4 --> C2[\"2 Huggingface, Sealos远程部署\"]\n    W4 --> C4[\"3 其他 ...\"]\n```\n\n### 安装方法I：直接运行 (Windows, Linux or MacOS)\n\n1. 下载项目\n\n    ```sh\n    git clone --depth=1 https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic.git\n    cd gpt_academic\n    ```\n\n2. 配置API_KEY等变量\n\n    在`config.py`中，配置API KEY等变量。[特殊网络环境设置方法](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F1)、[Wiki-项目配置说明](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F项目配置说明)。\n\n    「 程序会优先检查是否存在名为`config_private.py`的私密配置文件，并用其中的配置覆盖`config.py`的同名配置。如您能理解以上读取逻辑，我们强烈建议您在`config.py`同路径下创建一个名为`config_private.py`的新配置文件，并使用`config_private.py`配置项目，从而确保自动更新时不会丢失配置 」。\n\n    「 支持通过`环境变量`配置项目，环境变量的书写格式参考`docker-compose.yml`文件或者我们的[Wiki页面](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F项目配置说明)。配置读取优先级: `环境变量` > `config_private.py` > `config.py` 」。\n\n\n3. 安装依赖\n    ```sh\n    # （选择I: 如熟悉python, python推荐版本 3.9 ~ 3.11）备注：使用官方pip源或者阿里pip源, 临时换源方法：python -m pip install -r requirements.txt -i https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F\n    python -m pip install -r requirements.txt\n\n    # （选择II: 使用Anaconda）步骤也是类似的 (https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1rc411W7Dr)：\n    conda create -n gptac_venv python=3.11    # 创建anaconda环境\n    conda activate gptac_venv                 # 激活anaconda环境\n    python -m pip install -r requirements.txt # 这个步骤和pip安装一样的步骤\n\n    # （选择III: 使用uv）：\n    uv venv --python=3.11   # 创建虚拟环境\n    source .\u002F.venv\u002Fbin\u002Factivate # 激活虚拟环境\n    uv pip install --verbose -r requirements.txt -i https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F # 安装依赖\n    ```\n\n\n\u003Cdetails>\u003Csummary>如果需要支持清华ChatGLM系列\u002F复旦MOSS\u002FRWKV作为后端，请点击展开此处\u003C\u002Fsummary>\n\u003Cp>\n\n【可选步骤】如果需要支持清华ChatGLM系列\u002F复旦MOSS作为后端，需要额外安装更多依赖（前提条件：熟悉Python + 用过Pytorch + 电脑配置够强）：\n\n```sh\n# 【可选步骤I】支持清华ChatGLM3。清华ChatGLM备注：如果遇到\"Call ChatGLM fail 不能正常加载ChatGLM的参数\" 错误，参考如下： 1：以上默认安装的为torch+cpu版，使用cuda需要卸载torch重新安装torch+cuda； 2：如因本机配置不够无法加载模型，可以修改request_llm\u002Fbridge_chatglm.py中的模型精度, 将 AutoTokenizer.from_pretrained(\"THUDM\u002Fchatglm-6b\", trust_remote_code=True) 都修改为 AutoTokenizer.from_pretrained(\"THUDM\u002Fchatglm-6b-int4\", trust_remote_code=True)\npython -m pip install -r request_llms\u002Frequirements_chatglm.txt\n\n# 【可选步骤II】支持清华ChatGLM4 注意：此模型至少需要24G显存\npython -m pip install -r request_llms\u002Frequirements_chatglm4.txt\n# 可使用modelscope下载ChatGLM4模型\n# pip install modelscope\n# modelscope download --model ZhipuAI\u002Fglm-4-9b-chat --local_dir .\u002FTHUDM\u002Fglm-4-9b-chat\n\n# 【可选步骤III】支持复旦MOSS\npython -m pip install -r request_llms\u002Frequirements_moss.txt\ngit clone --depth=1 https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS.git request_llms\u002Fmoss  # 注意执行此行代码时，必须处于项目根路径\n\n# 【可选步骤IV】支持RWKV Runner\n参考wiki：https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E9%80%82%E9%85%8DRWKV-Runner\n\n# 【可选步骤V】确保config.py配置文件的AVAIL_LLM_MODELS包含了期望的模型，目前支持的全部模型如下(jittorllms系列目前仅支持docker方案)：\nAVAIL_LLM_MODELS = [\"gpt-3.5-turbo\", \"api2d-gpt-3.5-turbo\", \"gpt-4\", \"api2d-gpt-4\", \"chatglm\", \"moss\"] # + [\"jittorllms_rwkv\", \"jittorllms_pangualpha\", \"jittorllms_llama\"]\n\n# 【可选步骤VI】支持本地模型INT8,INT4量化（这里所指的模型本身不是量化版本，目前deepseek-coder支持，后面测试后会加入更多模型量化选择）\npip install bitsandbyte\n# windows用户安装bitsandbytes需要使用下面bitsandbytes-windows-webui\npython -m pip install bitsandbytes --prefer-binary --extra-index-url=https:\u002F\u002Fjllllll.github.io\u002Fbitsandbytes-windows-webui\npip install -U git+https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers.git\npip install -U git+https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Faccelerate.git\npip install peft\n```\n\n\u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\n\n4. 运行\n    ```sh\n    python main.py\n    ```\n\n### 安装方法II：使用Docker\n\n0. 部署项目的全部能力（这个是包含cuda和latex的大型镜像。但如果您网速慢、硬盘小，则不推荐该方法部署完整项目）\n[![fullcapacity](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-all-capacity.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-all-capacity.yml)\n\n    ``` sh\n    # 修改docker-compose.yml，保留方案0并删除其他方案。然后运行：\n    docker-compose up\n    ```\n\n1. 仅ChatGPT + GLM4 + 文心一言+spark等在线模型（推荐大多数人选择）\n[![basic](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-without-local-llms.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-without-local-llms.yml)\n[![basiclatex](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-latex.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-latex.yml)\n[![basicaudio](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-audio-assistant.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-audio-assistant.yml)\n\n    ``` sh\n    # 修改docker-compose.yml，保留方案1并删除其他方案。然后运行：\n    docker-compose up\n    ```\n\nP.S. 如果需要依赖Latex的插件功能，请见Wiki。另外，您也可以直接使用方案4或者方案0获取Latex功能。\n\n2. ChatGPT + GLM3 + MOSS + LLAMA2 + 通义千问（需要熟悉[Nvidia Docker](https:\u002F\u002Fdocs.nvidia.com\u002Fdatacenter\u002Fcloud-native\u002Fcontainer-toolkit\u002Finstall-guide.html#installing-on-ubuntu-and-debian)运行时）\n[![chatglm](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-chatglm.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-chatglm.yml)\n\n    ``` sh\n    # 修改docker-compose.yml，保留方案2并删除其他方案。然后运行：\n    docker-compose up\n    ```\n\n\n### 安装方法III：其他部署方法\n1. **Windows一键运行脚本**。\n完全不熟悉python环境的Windows用户可以下载[Release](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Freleases)中发布的一键运行脚本安装无本地模型的版本。脚本贡献来源：[oobabooga](https:\u002F\u002Fgithub.com\u002Foobabooga\u002Fone-click-installers)。\n\n2. 使用第三方API、Azure等、文心一言、星火等，见[Wiki页面](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F项目配置说明)\n\n3. 云服务器远程部署避坑指南。\n请访问[云服务器远程部署wiki](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E4%BA%91%E6%9C%8D%E5%8A%A1%E5%99%A8%E8%BF%9C%E7%A8%8B%E9%83%A8%E7%BD%B2%E6%8C%87%E5%8D%97)\n\n4. 在其他平台部署&二级网址部署\n    - 使用Sealos[一键部署](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F993)。\n    - 使用WSL2（Windows Subsystem for Linux 子系统）。请访问[部署wiki-2](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E4%BD%BF%E7%94%A8WSL2%EF%BC%88Windows-Subsystem-for-Linux-%E5%AD%90%E7%B3%BB%E7%BB%9F%EF%BC%89%E9%83%A8%E7%BD%B2)\n    - 如何在二级网址（如`http:\u002F\u002Flocalhost\u002Fsubpath`）下运行。请访问[FastAPI运行说明](docs\u002FWithFastapi.md)\n\n\u003Cbr>\u003Cbr>\n\n# Advanced Usage\n### I：自定义新的便捷按钮（学术快捷键）\n\n现在已可以通过UI中的`界面外观`菜单中的`自定义菜单`添加新的便捷按钮。如果需要在代码中定义，请使用任意文本编辑器打开`core_functional.py`，添加如下条目即可：\n\n```python\n\"超级英译中\": {\n    # 前缀，会被加在你的输入之前。例如，用来描述你的要求，例如翻译、解释代码、润色等等\n    \"Prefix\": \"请翻译把下面一段内容成中文，然后用一个markdown表格逐一解释文中出现的专有名词：\\n\\n\",\n\n    # 后缀，会被加在你的输入之后。例如，配合前缀可以把你的输入内容用引号圈起来。\n    \"Suffix\": \"\",\n},\n```\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_d87bf717a93a.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n### II：自定义函数插件\n编写强大的函数插件来执行任何你想得到的和想不到的任务。\n本项目的插件编写、调试难度很低，只要您具备一定的python基础知识，就可以仿照我们提供的模板实现自己的插件功能。\n详情请参考[函数插件指南](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)。\n\n\u003Cbr>\u003Cbr>\n\n# Updates\n### I：动态\n\n1. 对话保存功能。在函数插件区调用 `保存当前的对话` 即可将当前对话保存为可读+可复原的html文件，\n另外在函数插件区（下拉菜单）调用 `载入对话历史存档` ，即可还原之前的会话。\nTip：不指定文件直接点击 `载入对话历史存档` 可以查看历史html存档缓存。\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_ac135fa1b9eb.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n2. ⭐Latex\u002FArxiv论文翻译功能⭐\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_f2414e6b039a.png\" height=\"250\" > ===>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_cf6a57c19332.png\" height=\"250\" >\n\u003C\u002Fdiv>\n\n3. 虚空终端（从自然语言输入中，理解用户意图+自动调用其他插件）\n\n- 步骤一：输入 “ 请调用插件翻译PDF论文，地址为https:\u002F\u002Fopenreview.net\u002Fpdf?id=rJl0r3R9KX ”\n- 步骤二：点击“虚空终端”\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_96b4404b7933.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n4. 模块化功能设计，简单的接口却能支持强大的功能\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_ca0c3b7b2e06.png\" height=\"400\" >\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_416c8a883e21.png\" height=\"400\" >\n\u003C\u002Fdiv>\n\n5. 译解其他开源项目\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_6a5d8442bc97.png\" height=\"250\" >\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_06db4ac92157.png\" height=\"250\" >\n\u003C\u002Fdiv>\n\n6. 装饰[live2d](https:\u002F\u002Fgithub.com\u002Ffghrsh\u002Flive2d_demo)的小功能（默认关闭，需要修改`config.py`）\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_e8a3759017e3.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n7. OpenAI图像生成\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_95c79a549242.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n8. 基于mermaid的流图、脑图绘制\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_e90e6515d4d0.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n9. Latex全文校对纠错\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_6b928addd62f.png\" height=\"200\" > ===>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_7dbf8d7e292c.png\" height=\"200\">\n\u003C\u002Fdiv>\n\n10. 语言、主题切换\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_e5f248baeeb5.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n\n\n### II：版本:\n- version 3.80(TODO): 优化AutoGen插件主题并设计一系列衍生插件\n- version 3.70: 引入Mermaid绘图，实现GPT画脑图等功能\n- version 3.60: 引入AutoGen作为新一代插件的基石\n- version 3.57: 支持GLM3，星火v3，文心一言v4，修复本地模型的并发BUG\n- version 3.56: 支持动态追加基础功能按钮，新汇报PDF汇总页面\n- version 3.55: 重构前端界面，引入悬浮窗口与菜单栏\n- version 3.54: 新增动态代码解释器（Code Interpreter）（待完善）\n- version 3.53: 支持动态选择不同界面主题，提高稳定性&解决多用户冲突问题\n- version 3.50: 使用自然语言调用本项目的所有函数插件（虚空终端），支持插件分类，改进UI，设计新主题\n- version 3.49: 支持百度千帆平台和文心一言\n- version 3.48: 支持阿里达摩院通义千问，上海AI-Lab书生，讯飞星火\n- version 3.46: 支持完全脱手操作的实时语音对话\n- version 3.45: 支持自定义ChatGLM2微调模型\n- version 3.44: 正式支持Azure，优化界面易用性\n- version 3.4: +arxiv论文翻译、latex论文批改功能\n- version 3.3: +互联网信息综合功能\n- version 3.2: 函数插件支持更多参数接口 (保存对话功能, 解读任意语言代码+同时询问任意的LLM组合)\n- version 3.1: 支持同时问询多个gpt模型！支持api2d，支持多个apikey负载均衡\n- version 3.0: 对chatglm和其他小型llm的支持\n- version 2.6: 重构了插件结构，提高了交互性，加入更多插件\n- version 2.5: 自更新，解决总结大工程源代码时文本过长、token溢出的问题\n- version 2.4: 新增PDF全文翻译功能; 新增输入区切换位置的功能\n- version 2.3: 增强多线程交互性\n- version 2.2: 函数插件支持热重载\n- version 2.1: 可折叠式布局\n- version 2.0: 引入模块化函数插件\n- version 1.0: 基础功能\n\nGPT Academic开发者QQ群：`610599535`\n\n- 已知问题\n    - 某些浏览器翻译插件干扰此软件前端的运行\n    - 官方Gradio目前有很多兼容性问题，请**务必使用`requirement.txt`安装Gradio**\n\n```mermaid\ntimeline LR\n    title GPT-Academic项目发展历程\n    section 2.x\n        1.0~2.2: 基础功能: 引入模块化函数插件: 可折叠式布局: 函数插件支持热重载\n        2.3~2.5: 增强多线程交互性: 新增PDF全文翻译功能: 新增输入区切换位置的功能: 自更新\n        2.6: 重构了插件结构: 提高了交互性: 加入更多插件\n    section 3.x\n        3.0~3.1: 对chatglm支持: 对其他小型llm支持: 支持同时问询多个gpt模型: 支持多个apikey负载均衡\n        3.2~3.3: 函数插件支持更多参数接口: 保存对话功能: 解读任意语言代码: 同时询问任意的LLM组合: 互联网信息综合功能\n        3.4: 加入arxiv论文翻译: 加入latex论文批改功能\n        3.44: 正式支持Azure: 优化界面易用性\n        3.46: 自定义ChatGLM2微调模型: 实时语音对话\n        3.49: 支持阿里达摩院通义千问: 上海AI-Lab书生: 讯飞星火: 支持百度千帆平台 & 文心一言\n        3.50: 虚空终端: 支持插件分类: 改进UI: 设计新主题\n        3.53: 动态选择不同界面主题: 提高稳定性: 解决多用户冲突问题\n        3.55: 动态代码解释器: 重构前端界面: 引入悬浮窗口与菜单栏\n        3.56: 动态追加基础功能按钮: 新汇报PDF汇总页面\n        3.57: GLM3, 星火v3: 支持文心一言v4: 修复本地模型的并发BUG\n        3.60: 引入AutoGen\n        3.70: 引入Mermaid绘图: 实现GPT画脑图等功能\n        3.80(TODO): 优化AutoGen插件主题: 设计衍生插件\n\n```\n\n\n### III：主题\n可以通过修改`THEME`选项（config.py）变更主题\n1. `Chuanhu-Small-and-Beautiful` [网址](https:\u002F\u002Fgithub.com\u002FGaiZhenbiao\u002FChuanhuChatGPT\u002F)\n\n\n### IV：本项目的开发分支\n\n1. `master` 分支: 主分支，稳定版\n2. `frontier` 分支: 开发分支，测试版\n3. 如何[接入其他大模型](request_llms\u002FREADME.md)\n\n### V：参考与学习\n\n```\n代码中参考了很多其他优秀项目中的设计，顺序不分先后：\n\n# 清华ChatGLM2-6B:\nhttps:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM2-6B\n\n# 清华JittorLLMs:\nhttps:\u002F\u002Fgithub.com\u002FJittor\u002FJittorLLMs\n\n# ChatPaper:\nhttps:\u002F\u002Fgithub.com\u002Fkaixindelele\u002FChatPaper\n\n# Edge-GPT:\nhttps:\u002F\u002Fgithub.com\u002Facheong08\u002FEdgeGPT\n\n# ChuanhuChatGPT:\nhttps:\u002F\u002Fgithub.com\u002FGaiZhenbiao\u002FChuanhuChatGPT\n\n# Oobabooga one-click installer:\nhttps:\u002F\u002Fgithub.com\u002Foobabooga\u002Fone-click-installers\n\n# More：\nhttps:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio\nhttps:\u002F\u002Fgithub.com\u002Ffghrsh\u002Flive2d_demo\n```\n","> [!IMPORTANT]\n>\n> `master主分支`最新动态(2026.1.25): 新GUI前端测试中，Coming Soon\u003Cbr\u002F>\n> `master主分支`最新动态(2025.8.23): Dockerfile构建效率大幅优化\u003Cbr\u002F>\n> 2025.2.2: 三分钟快速接入最强qwen2.5-max[视频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1LeFuerEG4)\u003Cbr\u002F>\n> 2025.2.1: 支持自定义字体\u003Cbr\u002F>\n> 2024.10.10: 突发停电，紧急恢复了提供[whl包](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F14kR-3V-lIbvGxri4AHc8TpiA1fqsw7SK?usp=sharing)的文件服务器\u003Cbr\u002F>\n> 2024.5.1: 加入Doc2x翻译PDF论文的功能，[查看详情](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002FDoc2x)\u003Cbr\u002F>\n> 2024.3.11: 全力支持Qwen、GLM、DeepseekCoder等中文大语言模型！ SoVits语音克隆模块，[查看详情](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Rp421S7tF\u002F)\u003Cbr\u002F>\n> 2024.1.17: 安装依赖时，请选择`requirements.txt`中**指定的版本**。 安装命令：`pip install -r requirements.txt`。\u003Cbr\u002F>\n\n\u003Cbr>\n\n\u003Cdiv align=center>\n\u003Ch1 aligh=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_b6a053a86a69.png\" width=\"40\"> GPT 学术优化 (GPT Academic)\n\u003C\u002Fh1>\n\n[![Github][Github-image]][Github-url]\n[![License][License-image]][License-url]\n[![Releases][Releases-image]][Releases-url]\n[![Installation][Installation-image]][Installation-url]\n[![Wiki][Wiki-image]][Wiki-url]\n[![PR][PRs-image]][PRs-url]\n\n[Github-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fgithub-12100E.svg?style=flat-square\n[License-image]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fbinary-husky\u002Fgpt_academic?label=License&style=flat-square&color=orange\n[Releases-image]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frelease\u002Fbinary-husky\u002Fgpt_academic?label=Release&style=flat-square&color=blue\n[Installation-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdynamic\u002Fjson?color=blue&url=https:\u002F\u002Fraw.githubusercontent.com\u002Fbinary-husky\u002Fgpt_academic\u002Fmaster\u002Fversion&query=$.version&label=Installation&style=flat-square\n[Wiki-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fwiki-项目文档-black?style=flat-square\n[PRs-image]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-pink?style=flat-square\n\n[Github-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\n[License-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fblob\u002Fmaster\u002FLICENSE\n[Releases-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Freleases\n[Installation-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic#installation\n[Wiki-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\n[PRs-url]: https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fpulls\n\n\n\u003C\u002Fdiv>\n\u003Cbr>\n\n**如果喜欢这个项目，请给它一个Star；如果您发明了好用的快捷键或插件，欢迎发pull requests！**\n\nIf you like this project, please give it a Star.\nRead this in [English](docs\u002FREADME.English.md) | [日本語](docs\u002FREADME.Japanese.md) | [한국어](docs\u002FREADME.Korean.md) | [Русский](docs\u002FREADME.Russian.md) | [Français](docs\u002FREADME.French.md). All translations have been provided by the project itself. To translate this project to arbitrary language with GPT, read and run [`multi_language.py`](multi_language.py) (experimental).\n\u003Cbr>\n\n> [!NOTE]\n> 1.本项目中每个文件的功能都在[自译解报告](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002FGPT‐Academic项目自译解报告)`self_analysis.md`详细说明。随着版本的迭代，您也可以随时自行点击相关函数插件，调用GPT重新生成项目的自我解析报告。常见问题请查阅wiki。\n>    [![常规安装方法](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=&message=常规安装方法&color=gray)](#installation)  [![一键安装脚本](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=&message=一键安装脚本&color=gray)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Freleases)  [![配置说明](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=&message=配置说明&color=gray)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F项目配置说明) [![wiki](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=&message=wiki&color=gray)]([https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F项目配置说明](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki))\n>\n> 2.本项目兼容并鼓励尝试国内中文大语言基座模型如通义千问，智谱GLM等。支持多个api-key共存，可在配置文件中填写如`API_KEY=\"openai-key1,openai-key2,azure-key3,api2d-key4\"`。需要临时更换`API_KEY`时，在输入区输入临时的`API_KEY`然后回车键提交即可生效。\n\n\u003Cbr>\u003Cbr>\n\n\u003Cdiv align=\"center\">\n\n功能（⭐= 近期新增功能） | 描述\n--- | ---\n⭐[接入新模型](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E5%A6%82%E4%BD%95%E5%88%87%E6%8D%A2%E6%A8%A1%E5%9E%8B) | 百度[千帆](https:\u002F\u002Fcloud.baidu.com\u002Fdoc\u002FWENXINWORKSHOP\u002Fs\u002FNlks5zkzu)与文心一言, 通义千问[Qwen](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fqwen\u002FQwen-7B-Chat\u002Fsummary)，上海AI-Lab[书生](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM)，讯飞[星火](https:\u002F\u002Fxinghuo.xfyun.cn\u002F)，[LLaMa2](https:\u002F\u002Fhuggingface.co\u002Fmeta-llama\u002FLlama-2-7b-chat-hf)，[智谱GLM4](https:\u002F\u002Fopen.bigmodel.cn\u002F)，DALLE3, [DeepseekCoder](https:\u002F\u002Fcoder.deepseek.com\u002F)\n⭐支持mermaid图像渲染 | 支持让GPT生成[流程图](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV18c41147H9\u002F)、状态转移图、甘特图、饼状图、GitGraph等等（3.7版本）\n⭐Arxiv论文精细翻译 ([Docker](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fpkgs\u002Fcontainer\u002Fgpt_academic_with_latex)) | [插件] 一键[以超高质量翻译arxiv论文](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1dz4y1v77A\u002F)，目前最好的论文翻译工具\n⭐[实时语音对话输入](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fblob\u002Fmaster\u002Fdocs\u002Fuse_audio.md) | [插件] 异步[监听音频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1AV4y187Uy\u002F)，自动断句，自动寻找回答时机\n⭐虚空终端插件 | [插件] 能够使用自然语言直接调度本项目其他插件\n润色、翻译、代码解释 | 一键润色、翻译、查找论文语法错误、解释代码\n[自定义快捷键](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV14s4y1E7jN) | 支持自定义快捷键\n模块化设计 | 支持自定义强大的[插件](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Ftree\u002Fmaster\u002Fcrazy_functions)，插件支持[热更新](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)\n[程序剖析](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1cj411A7VW) | [插件] 一键剖析Python\u002FC\u002FC++\u002FJava\u002FLua\u002F...项目树 或 [自我剖析](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1cj411A7VW)\n读论文、[翻译](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1KT411x7Wn)论文 | [插件] 一键解读latex\u002Fpdf论文全文并生成摘要\nLatex全文[翻译](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1nk4y1Y7Js\u002F)、[润色](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1FT411H7c5\u002F) | [插件] 一键翻译或润色latex论文\n批量注释生成 | [插件] 一键批量生成函数注释\nMarkdown[中英互译](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1yo4y157jV\u002F) | [插件] 看到上面5种语言的[README](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fblob\u002Fmaster\u002Fdocs\u002FREADME.English.md)了吗？就是出自他的手笔\n[PDF论文全文翻译功能](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1KT411x7Wn) | [插件] PDF论文提取题目&摘要+翻译全文（多线程）\n[Arxiv小助手](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1LM4y1279X) | [插件] 输入arxiv文章url即可一键翻译摘要+下载PDF\nLatex论文一键校对 | [插件] 仿Grammarly对Latex文章进行语法、拼写纠错+输出对照PDF\n[谷歌学术统合小助手](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV19L411U7ia) | [插件] 给定任意谷歌学术搜索页面URL，让gpt帮你[写relatedworks](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1GP411U7Az\u002F)\n互联网信息聚合+GPT | [插件] 一键[让GPT从互联网获取信息](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1om4y127ck)回答问题，让信息永不过时\n公式\u002F图片\u002F表格显示 | 可以同时显示公式的[tex形式和渲染形式](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_bd84b6f5b8bc.png)，支持公式、代码高亮\n启动暗色[主题](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F173) | 在浏览器url后面添加```\u002F?__theme=dark```可以切换dark主题\n[多LLM模型](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1wT411p7yf)支持 | 同时被GPT3.5、GPT4、[清华ChatGLM2](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM2-6B)、[复旦MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS)伺候的感觉一定会很不错吧？\n更多LLM模型接入，支持[huggingface部署](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fqingxu98\u002Fgpt-academic) | 加入Newbing接口(新必应)，引入清华[Jittorllms](https:\u002F\u002Fgithub.com\u002FJittor\u002FJittorLLMs)支持[LLaMA](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama)和[盘古α](https:\u002F\u002Fopeni.org.cn\u002Fpangu\u002F)\n⭐[void-terminal](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fvoid-terminal) pip包 | 脱离GUI，在Python中直接调用本项目的所有函数插件（开发中）\n更多新功能展示 (图像生成等) …… | 见本文档结尾处 ……\n\u003C\u002Fdiv>\n\n\n- 新界面（修改`config.py`中的LAYOUT选项即可实现“左右布局”和“上下布局”的切换）\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_fc864d91edb1.gif\" width=\"700\" >\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fassets\u002F96192199\u002F70ff1ec5-e589-4561-a29e-b831079b37fb.gif\" width=\"700\" >\n\u003C\u002Fdiv>\n\n\n- 所有按钮都通过读取functional.py动态生成，可随意加自定义功能，解放剪贴板\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_1aed7cb3a6d2.gif\" width=\"700\" >\n\u003C\u002Fdiv>\n\n- 润色\u002F纠错\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_5255cf38e5a6.gif\" width=\"700\" >\n\u003C\u002Fdiv>\n\n- 如果输出包含公式，会以tex形式和渲染形式同时显示，方便复制和阅读\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_bd84b6f5b8bc.png\" width=\"700\" >\n\u003C\u002Fdiv>\n\n- 懒得看项目代码？直接把整个工程炫ChatGPT嘴里\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_6a5d8442bc97.png\" width=\"700\" >\n\u003C\u002Fdiv>\n\n- 多种大语言模型混合调用（ChatGLM + OpenAI-GPT3.5 + GPT4）\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_6f83a5367efb.png\" width=\"700\" >\n\u003C\u002Fdiv>\n\n\u003Cbr>\u003Cbr>\n\n\n\n# 安装\n\n```mermaid\nflowchart TD\n    A{\"安装方法\"} --> W1(\"I 🔑直接运行 (Windows, Linux or MacOS)\")\n    W1 --> W11[\"1 Python pip包管理依赖\"]\n    W1 --> W12[\"2 Anaconda包管理依赖（推荐⭐）\"]\n\n    A --> W2[\"II 🐳使用Docker (Windows, Linux or MacOS)\"]\n\n    W2 --> k1[\"1 部署项目全部能力的大镜像（推荐⭐）\"]\n    W2 --> k2[\"2 仅在线模型（GPT, GLM4等）镜像\"]\n    W2 --> k3[\"3 在线模型 + Latex的大镜像\"]\n\n    A --> W4[\"IV 🚀其他部署方法\"]\n    W4 --> C1[\"1 Windows\u002FMacOS 一键安装运行脚本（推荐⭐）\"]\n    W4 --> C2[\"2 Huggingface, Sealos远程部署\"]\n    W4 --> C4[\"3 其他 ...\"]\n```\n\n### 安装方法I：直接运行 (Windows, Linux or MacOS)\n\n1. 下载项目\n\n    ```sh\n    git clone --depth=1 https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic.git\n    cd gpt_academic\n    ```\n\n2. 配置API_KEY等变量\n\n    在`config.py`中，配置API KEY等变量。[特殊网络环境设置方法](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F1)、[Wiki-项目配置说明](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F项目配置说明)。\n\n    「 程序会优先检查是否存在名为`config_private.py`的私密配置文件，并用其中的配置覆盖`config.py`的同名配置。如您能理解以上读取逻辑，我们强烈建议您在`config.py`同路径下创建一个名为`config_private.py`的新配置文件，并使用`config_private.py`配置项目，从而确保自动更新时不会丢失配置 」。\n\n    「 支持通过`环境变量`配置项目，环境变量的书写格式参考`docker-compose.yml`文件或者我们的[Wiki页面](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F项目配置说明)。配置读取优先级: `环境变量` > `config_private.py` > `config.py` 」。\n\n\n3. 安装依赖\n    ```sh\n    # （选择I: 如熟悉python, python推荐版本 3.9 ~ 3.11）备注：使用官方pip源或者阿里pip源, 临时换源方法：python -m pip install -r requirements.txt -i https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F\n    python -m pip install -r requirements.txt\n\n    # （选择II: 使用Anaconda）步骤也是类似的 (https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1rc411W7Dr)：\n    conda create -n gptac_venv python=3.11    # 创建anaconda环境\n    conda activate gptac_venv                 # 激活anaconda环境\n    python -m pip install -r requirements.txt # 这个步骤和pip安装一样的步骤\n\n    # （选择III: 使用uv）：\n    uv venv --python=3.11   # 创建虚拟环境\n    source .\u002F.venv\u002Fbin\u002Factivate # 激活虚拟环境\n    uv pip install --verbose -r requirements.txt -i https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F # 安装依赖\n    ```\n\n\n\u003Cdetails>\u003Csummary>如果需要支持清华ChatGLM系列\u002F复旦MOSS\u002FRWKV作为后端，请点击展开此处\u003C\u002Fsummary>\n\u003Cp>\n\n【可选步骤】如果需要支持清华ChatGLM系列\u002F复旦MOSS作为后端，需要额外安装更多依赖（前提条件：熟悉Python + 用过Pytorch + 电脑配置够强）：\n\n```sh\n# 【可选步骤I】支持清华ChatGLM3。清华ChatGLM备注：如果遇到\"Call ChatGLM fail 不能正常加载ChatGLM的参数\" 错误，参考如下： 1：以上默认安装的为torch+cpu版，使用cuda需要卸载torch重新安装torch+cuda； 2：如因本机配置不够无法加载模型，可以修改request_llm\u002Fbridge_chatglm.py中的模型精度, 将 AutoTokenizer.from_pretrained(\"THUDM\u002Fchatglm-6b\", trust_remote_code=True) 都修改为 AutoTokenizer.from_pretrained(\"THUDM\u002Fchatglm-6b-int4\", trust_remote_code=True)\npython -m pip install -r request_llms\u002Frequirements_chatglm.txt\n\n# 【可选步骤II】支持清华ChatGLM4 注意：此模型至少需要24G显存\npython -m pip install -r request_llms\u002Frequirements_chatglm4.txt\n# 可使用modelscope下载ChatGLM4模型\n# pip install modelscope\n# modelscope download --model ZhipuAI\u002Fglm-4-9b-chat --local_dir .\u002FTHUDM\u002Fglm-4-9b-chat\n\n# 【可选步骤III】支持复旦MOSS\npython -m pip install -r request_llms\u002Frequirements_moss.txt\ngit clone --depth=1 https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS.git request_llms\u002Fmoss  # 注意执行此行代码时，必须处于项目根路径\n\n# 【可选步骤IV】支持RWKV Runner\n参考wiki：https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E9%80%82%E9%85%8DRWKV-Runner\n\n# 【可选步骤V】确保config.py配置文件的AVAIL_LLM_MODELS包含了期望的模型，目前支持的全部模型如下(jittorllms系列目前仅支持docker方案)：\nAVAIL_LLM_MODELS = [\"gpt-3.5-turbo\", \"api2d-gpt-3.5-turbo\", \"gpt-4\", \"api2d-gpt-4\", \"chatglm\", \"moss\"] # + [\"jittorllms_rwkv\", \"jittorllms_pangualpha\", \"jittorllms_llama\"]\n\n# 【可选步骤VI】支持本地模型INT8,INT4量化（这里所指的模型本身不是量化版本，目前deepseek-coder支持，后面测试后会加入更多模型量化选择）\npip install bitsandbyte\n# windows用户安装bitsandbytes需要使用下面bitsandbytes-windows-webui\npython -m pip install bitsandbytes --prefer-binary --extra-index-url=https:\u002F\u002Fjllllll.github.io\u002Fbitsandbytes-windows-webui\npip install -U git+https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers.git\npip install -U git+https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Faccelerate.git\npip install peft\n```\n\n\u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\n\n4. 运行\n    ```sh\n    python main.py\n    ```\n\n### 安装方法II：使用Docker\n\n0. 部署项目的全部能力（这个是包含cuda和latex的大型镜像。但如果您网速慢、硬盘小，则不推荐该方法部署完整项目）\n[![fullcapacity](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-all-capacity.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-all-capacity.yml)\n\n    ``` sh\n    # 修改docker-compose.yml，保留方案0并删除其他方案。然后运行：\n    docker-compose up\n    ```\n\n1. 仅ChatGPT + GLM4 + 文心一言+spark等在线模型（推荐大多数人选择）\n[![basic](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-without-local-llms.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-without-local-llms.yml)\n[![basiclatex](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-latex.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-latex.yml)\n[![basicaudio](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-audio-assistant.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-audio-assistant.yml)\n\n    ``` sh\n    # 修改docker-compose.yml，保留方案1并删除其他方案。然后运行：\n    docker-compose up\n    ```\n\nP.S. 如果需要依赖Latex的插件功能，请见Wiki。另外，您也可以直接使用方案4或者方案0获取Latex功能。\n\n2. ChatGPT + GLM3 + MOSS + LLAMA2 + 通义千问（需要熟悉[Nvidia Docker](https:\u002F\u002Fdocs.nvidia.com\u002Fdatacenter\u002Fcloud-native\u002Fcontainer-toolkit\u002Finstall-guide.html#installing-on-ubuntu-and-debian)运行时）\n[![chatglm](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-chatglm.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Factions\u002Fworkflows\u002Fbuild-with-chatglm.yml)\n\n    ``` sh\n    # 修改docker-compose.yml，保留方案2并删除其他方案。然后运行：\n    docker-compose up\n    ```\n\n### 安装方法III：其他部署方法\n1. **Windows一键运行脚本**。\n完全不熟悉python环境的Windows用户可以下载[Release](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Freleases)中发布的一键运行脚本安装无本地模型的版本。脚本贡献来源：[oobabooga](https:\u002F\u002Fgithub.com\u002Foobabooga\u002Fone-click-installers)。\n\n2. 使用第三方API、Azure等、文心一言、星火等，见[Wiki页面](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F项目配置说明)\n\n3. 云服务器远程部署避坑指南。\n请访问[云服务器远程部署wiki](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E4%BA%91%E6%9C%8D%E5%8A%A1%E5%99%A8%E8%BF%9C%E7%A8%8B%E9%83%A8%E7%BD%B2%E6%8C%87%E5%8D%97)\n\n4. 在其他平台部署&二级网址部署\n    - 使用Sealos[一键部署](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F993)。\n    - 使用WSL2（Windows Subsystem for Linux 子系统）。请访问[部署wiki-2](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E4%BD%BF%E7%94%A8WSL2%EF%BC%88Windows-Subsystem-for-Linux-%E5%AD%90%E7%B3%BB%E7%BB%9F%EF%BC%89%E9%83%A8%E7%BD%B2)\n    - 如何在二级网址（如`http:\u002F\u002Flocalhost\u002Fsubpath`）下运行。请访问[FastAPI运行说明](docs\u002FWithFastapi.md)\n\n\u003Cbr>\u003Cbr>\n\n# 高级使用\n### I：自定义新的便捷按钮（学术快捷键）\n\n现在已可以通过UI中的`界面外观`菜单中的`自定义菜单`添加新的便捷按钮。如果需要在代码中定义，请使用任意文本编辑器打开`core_functional.py`，添加如下条目即可：\n\n```python\n\"超级英译中\": {\n    # 前缀，会被加在你的输入之前。例如，用来描述你的要求，例如翻译、解释代码、润色等等\n    \"Prefix\": \"请翻译把下面一段内容成中文，然后用一个markdown表格逐一解释文中出现的专有名词：\\n\\n\",\n\n    # 后缀，会被加在你的输入之后。例如，配合前缀可以把你的输入内容用引号圈起来。\n    \"Suffix\": \"\",\n},\n```\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_d87bf717a93a.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n### II：自定义函数插件\n编写强大的函数插件来执行任何你想得到的和想不到的任务。\n本项目的插件编写、调试难度很低，只要您具备一定的python基础知识，就可以仿照我们提供的模板实现自己的插件功能。\n详情请参考[函数插件指南](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)。\n\n\u003Cbr>\u003Cbr>\n\n# 更新\n### I：动态\n\n1. 对话保存功能。在函数插件区调用 `保存当前的对话` 即可将当前对话保存为可读+可复原的html文件，\n另外在函数插件区（下拉菜单）调用 `载入对话历史存档` ，即可还原之前的会话。\nTip：不指定文件直接点击 `载入对话历史存档` 可以查看历史html存档缓存。\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_ac135fa1b9eb.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n2. ⭐Latex\u002FArxiv论文翻译功能⭐\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_f2414e6b039a.png\" height=\"250\" > ===>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_cf6a57c19332.png\" height=\"250\" >\n\u003C\u002Fdiv>\n\n3. 虚空终端（从自然语言输入中，理解用户意图+自动调用其他插件）\n\n- 步骤一：输入 “ 请调用插件翻译PDF论文，地址为https:\u002F\u002Fopenreview.net\u002Fpdf?id=rJl0r3R9KX ”\n- 步骤二：点击“虚空终端”\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_96b4404b7933.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n4. 模块化功能设计，简单的接口却能支持强大的功能\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_ca0c3b7b2e06.png\" height=\"400\" >\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_416c8a883e21.png\" height=\"400\" >\n\u003C\u002Fdiv>\n\n5. 译解其他开源项目\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_6a5d8442bc97.png\" height=\"250\" >\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_06db4ac92157.png\" height=\"250\" >\n\u003C\u002Fdiv>\n\n6. 装饰[live2d](https:\u002F\u002Fgithub.com\u002Ffghrsh\u002Flive2d_demo)的小功能（默认关闭，需要修改`config.py`）\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_e8a3759017e3.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n7. OpenAI图像生成\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_95c79a549242.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n8. 基于mermaid的流图、脑图绘制\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_e90e6515d4d0.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n9. Latex全文校对纠错\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_6b928addd62f.png\" height=\"200\" > ===>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_7dbf8d7e292c.png\" height=\"200\">\n\u003C\u002Fdiv>\n\n10. 语言、主题切换\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_readme_e5f248baeeb5.png\" width=\"500\" >\n\u003C\u002Fdiv>\n\n\n\n### II：版本:\n- version 3.80(TODO): 优化AutoGen插件主题并设计一系列衍生插件\n- version 3.70: 引入Mermaid绘图，实现GPT画脑图等功能\n- version 3.60: 引入AutoGen作为新一代插件的基石\n- version 3.57: 支持GLM3，星火v3，文心一言v4，修复本地模型的并发BUG\n- version 3.56: 支持动态追加基础功能按钮，新汇报PDF汇总页面\n- version 3.55: 重构前端界面，引入悬浮窗口与菜单栏\n- version 3.54: 新增动态代码解释器（Code Interpreter）（待完善）\n- version 3.53: 支持动态选择不同界面主题，提高稳定性&解决多用户冲突问题\n- version 3.50: 使用自然语言调用本项目的所有函数插件（虚空终端），支持插件分类，改进UI，设计新主题\n- version 3.49: 支持百度千帆平台和文心一言\n- version 3.48: 支持阿里达摩院通义千问，上海AI-Lab书生，讯飞星火\n- version 3.46: 支持完全脱手操作的实时语音对话\n- version 3.45: 支持自定义ChatGLM2微调模型\n- version 3.44: 正式支持Azure，优化界面易用性\n- version 3.4: +arxiv论文翻译、latex论文批改功能\n- version 3.3: +互联网信息综合功能\n- version 3.2: 函数插件支持更多参数接口 (保存对话功能, 解读任意语言代码+同时询问任意的LLM组合)\n- version 3.1: 支持同时问询多个gpt模型！支持api2d，支持多个apikey负载均衡\n- version 3.0: 对chatglm和其他小型llm的支持\n- version 2.6: 重构了插件结构，提高了交互性，加入更多插件\n- version 2.5: 自更新，解决总结大工程源代码时文本过长、token溢出的问题\n- version 2.4: 新增PDF全文翻译功能; 新增输入区切换位置的功能\n- version 2.3: 增强多线程交互性\n- version 2.2: 函数插件支持热重载\n- version 2.1: 可折叠式布局\n- version 2.0: 引入模块化函数插件\n- version 1.0: 基础功能\n\nGPT Academic开发者QQ群：`610599535`\n\n- 已知问题\n    - 某些浏览器翻译插件干扰此软件前端的运行\n    - 官方Gradio目前有很多兼容性问题，请**务必使用`requirement.txt`安装Gradio**\n\n```mermaid\ntimeline LR\n    title GPT-Academic项目发展历程\n    section 2.x\n        1.0~2.2: 基础功能: 引入模块化函数插件: 可折叠式布局: 函数插件支持热重载\n        2.3~2.5: 增强多线程交互性: 新增PDF全文翻译功能: 新增输入区切换位置的功能: 自更新\n        2.6: 重构了插件结构: 提高了交互性: 加入更多插件\n    section 3.x\n        3.0~3.1: 对chatglm支持: 对其他小型llm支持: 支持同时问询多个gpt模型: 支持多个apikey负载均衡\n        3.2~3.3: 函数插件支持更多参数接口: 保存对话功能: 解读任意语言代码: 同时询问任意的LLM组合: 互联网信息综合功能\n        3.4: 加入arxiv论文翻译: 加入latex论文批改功能\n        3.44: 正式支持Azure: 优化界面易用性\n        3.46: 自定义ChatGLM2微调模型: 实时语音对话\n        3.49: 支持阿里达摩院通义千问: 上海AI-Lab书生: 讯飞星火: 支持百度千帆平台 & 文心一言\n        3.50: 虚空终端: 支持插件分类: 改进UI: 设计新主题\n        3.53: 动态选择不同界面主题: 提高稳定性: 解决多用户冲突问题\n        3.55: 动态代码解释器: 重构前端界面: 引入悬浮窗口与菜单栏\n        3.56: 动态追加基础功能按钮: 新汇报PDF汇总页面\n        3.57: GLM3, 星火v3: 支持文心一言v4: 修复本地模型的并发BUG\n        3.60: 引入AutoGen\n        3.70: 引入Mermaid绘图: 实现GPT画脑图等功能\n        3.80(TODO): 优化AutoGen插件主题: 设计衍生插件\n\n```\n\n\n### III：主题\n可以通过修改`THEME`选项（config.py）变更主题\n1. `Chuanhu-Small-and-Beautiful` [网址](https:\u002F\u002Fgithub.com\u002FGaiZhenbiao\u002FChuanhuChatGPT\u002F)\n\n\n### IV：本项目的开发分支\n\n1. `master` 分支: 主分支，稳定版\n2. `frontier` 分支: 开发分支，测试版\n3. 如何[接入其他大模型](request_llms\u002FREADME.md)\n\n### V：参考与学习\n\n```\n代码中参考了很多其他优秀项目中的设计，顺序不分先后：\n\n# 清华ChatGLM2-6B:\nhttps:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM2-6B\n\n# 清华JittorLLMs:\nhttps:\u002F\u002Fgithub.com\u002FJittor\u002FJittorLLMs\n\n# ChatPaper:\nhttps:\u002F\u002Fgithub.com\u002Fkaixindelele\u002FChatPaper\n\n# Edge-GPT:\nhttps:\u002F\u002Fgithub.com\u002Facheong08\u002FEdgeGPT\n\n# ChuanhuChatGPT:\nhttps:\u002F\u002Fgithub.com\u002FGaiZhenbiao\u002FChuanhuChatGPT\n\n# Oobabooga one-click installer:\nhttps:\u002F\u002Fgithub.com\u002Foobabooga\u002Fone-click-installers\n\n# More：\nhttps:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio\nhttps:\u002F\u002Fgithub.com\u002Ffghrsh\u002Flive2d_demo\n```","# GPT 学术优化 (GPT Academic) 快速上手指南\n\nGPT Academic 是一个专为学术场景优化的 LLM 交互工具，支持论文翻译、代码解释、多模型接入及自定义插件。本指南将帮助您快速在本地部署并运行该项目。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Windows, Linux 或 macOS\n- **Python 版本**: 推荐 `3.9` ~ `3.11`\n- **硬件建议**:\n    - 仅使用在线模型（如 GPT-4, Qwen, GLM）：普通配置即可。\n    - 本地部署大模型（如 ChatGLM, LLaMA）：需要高性能 GPU 及充足显存（建议 24GB+）。\n\n### 前置依赖\n请确保已安装以下工具之一：\n- **Git**: 用于克隆项目代码。\n- **包管理工具** (任选其一):\n    - `pip` (Python 自带)\n    - `Anaconda` \u002F `Miniconda` (推荐，便于环境隔离)\n    - `uv` (新一代高速 Python 包管理器)\n\n---\n\n## 2. 安装步骤\n\n### 第一步：下载项目\n打开终端或命令行工具，执行以下命令克隆仓库：\n\n```bash\ngit clone --depth=1 https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic.git\ncd gpt_academic\n```\n\n### 第二步：配置 API Key\n项目通过读取配置文件获取 API Key。**强烈建议**创建私有配置文件 `config_private.py`，以避免代码更新时覆盖您的设置。\n\n1. 在项目根目录下复制配置文件：\n   ```bash\n   cp config.py config_private.py\n   ```\n2. 编辑 `config_private.py`，填入您的 API Key 和模型信息：\n   ```python\n   # 示例：支持多个 Key 共存，用逗号分隔\n   API_KEY = \"sk-your-openai-key,sk-your-another-key\"\n   \n   # 选择默认模型，例如 qwen-max, glm-4, gpt-4-turbo 等\n   DEFAULT_MODEL = \"gpt-3.5-turbo\"\n   ```\n   > **提示**: 本项目完美兼容国内大模型（通义千问 Qwen、智谱 GLM、百度文心一言等），请在配置文件中根据文档切换对应接口地址。\n\n### 第三步：安装依赖\n根据您的习惯选择以下任意一种方式安装依赖（**推荐使用国内镜像源加速**）：\n\n#### 方案 A：使用 pip (通用)\n```bash\n# 使用阿里云镜像源加速安装\npython -m pip install -r requirements.txt -i https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F\n```\n\n#### 方案 B：使用 Anaconda (推荐，环境更纯净)\n```bash\nconda create -n gptac_venv python=3.11\nconda activate gptac_venv\npython -m pip install -r requirements.txt -i https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F\n```\n\n#### 方案 C：使用 uv (极速安装)\n```bash\nuv venv --python=3.11\nsource .\u002F.venv\u002Fbin\u002Factivate  # Windows PowerShell 使用: .\\.venv\\Scripts\\Activate.ps1\nuv pip install --verbose -r requirements.txt -i https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F\n```\n\n> **注意**: 如果您需要本地部署清华 ChatGLM 或复旦 MOSS 等模型，需额外安装对应的 `requirements_chatglm.txt` 等文件，并确保显卡驱动和 CUDA 环境正常。\n\n---\n\n## 3. 基本使用\n\n### 启动服务\n在激活的虚拟环境中，运行主程序：\n\n```bash\npython main.py\n```\n\n启动成功后，终端会显示访问地址（通常为 `http:\u002F\u002F127.0.0.1:29999`）。\n\n### 开始体验\n1. 打开浏览器，访问上述地址。\n2. **切换主题**: 若需深色模式，在 URL 后添加 `\u002F?__theme=dark`。\n3. **核心功能演示**:\n    - **论文翻译**: 上传 PDF\u002FLaTeX 文件，点击右侧插件栏的 `[PDF 论文全文翻译]` 或 `[Arxiv 小助手]`。\n    - **代码解释**: 粘贴代码片段，选择 `[代码解释]` 插件。\n    - **多模型切换**: 在界面左上角下拉菜单中，随时切换不同的 LLM 模型（如从 GPT-4 切换到 Qwen-Max）。\n    - **临时 Key**: 如需临时测试其他 Key，直接在输入框输入 `API_KEY=你的新密钥` 并回车即可生效。\n\n### 进阶技巧\n- **自定义布局**: 修改 `config.py` 中的 `LAYOUT` 选项，可切换“左右分栏”或“上下分栏”模式。\n- **插件热更新**: 项目支持模块化插件，无需重启即可动态加载新功能。\n\n现在，您可以开始使用 GPT Academic 辅助您的科研与开发工作了！","某高校研究生李明正在撰写一篇关于深度学习的英文期刊论文，急需阅读大量前沿文献并优化自己的初稿，但受限于英语水平和繁琐的格式调整，进度严重滞后。\n\n### 没有 gpt_academic 时\n- **文献阅读效率低**：面对几十页的英文 PDF 论文，只能依靠词典逐段查词，难以快速把握核心逻辑和创新点。\n- **写作润色困难**：自己写的英文句子语法错误多、表达不地道，手动修改耗时且无法保证学术规范性。\n- **多模型对比缺失**：仅能使用单一模型获取建议，无法同时对比不同大模型（如 Claude2 与通义千问）对同一问题的见解。\n- **代码与论文割裂**：项目中包含复杂的 Python 代码，需要单独复制代码去询问逻辑，再手动将解释整合回论文，流程断裂。\n\n### 使用 gpt_academic 后\n- **论文秒级总结**：直接上传 PDF 文件，利用内置的翻译与总结功能，几分钟内即可生成中文核心观点摘要，大幅缩短文献调研时间。\n- **一键学术润色**：选中写得生硬的段落，点击自定义快捷按钮，gpt_academic 立即调用大模型进行符合学术规范的润色和语法修正。\n- **并行问询决策**：配置多个 API Key 后，同时向 Qwen2.5-max 和 Llama2 发起提问，直接在界面对比不同模型的回答质量，择优采纳。\n- **代码自译解联动**：针对论文中的算法部分，直接加载项目文件夹，gpt_academic 自动剖析 Python 代码逻辑并生成详细注释，辅助完成方法论章节的撰写。\n\ngpt_academic 通过深度融合文献处理、多模型协作与代码解析能力，将科研工作者从繁琐的语言障碍和工具切换中解放出来，实现了学术创作效率的质的飞跃。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbinary-husky_gpt_academic_b6a053a8.png","binary-husky",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbinary-husky_c80baf6e.jpg","505030475@qq.com CAS PhD","https:\u002F\u002Fgithub.com\u002Fbinary-husky",[82,86,90,94,98],{"name":83,"color":84,"percentage":85},"Python","#3572A5",83.9,{"name":87,"color":88,"percentage":89},"JavaScript","#f1e05a",10.1,{"name":91,"color":92,"percentage":93},"HTML","#e34c26",3.5,{"name":95,"color":96,"percentage":97},"CSS","#663399",2.4,{"name":99,"color":100,"percentage":101},"Dockerfile","#384d54",0.1,70398,8388,"2026-04-10T06:57:41","GPL-3.0","Windows, Linux, macOS","非必需。仅在使用本地大模型（如 ChatGLM3\u002F4, MOSS）时需要：ChatGLM4 至少需要 24GB 显存；其他模型建议使用支持 CUDA 的 NVIDIA GPU，需手动安装 torch+cuda 版本。","未说明（运行本地大模型时建议高内存，具体取决于模型大小）",{"notes":110,"python":111,"dependencies":112},"1. 默认安装为 CPU 版 PyTorch，若需使用 GPU 加速或运行本地模型，需卸载后重新安装 CUDA 版本。\n2. 运行 ChatGLM4 等大型本地模型对显存要求极高（至少 24GB），配置不足可尝试修改代码使用 INT4 量化版本。\n3. 强烈建议使用 Anaconda 或 uv 创建虚拟环境进行依赖管理。\n4. 支持通过 Docker 一键部署包含 LaTeX 和 CUDA 的完整环境。\n5. 配置文件优先级：环境变量 > config_private.py > config.py。","3.9 ~ 3.11 (推荐 3.11)",[113,114,115,116,117,118,119],"requirements.txt 中指定的依赖包","torch (CPU 默认，GPU 需手动安装)","transformers (可选，用于本地模型)","accelerate (可选，用于本地模型)","peft (可选，用于本地模型)","bitsandbytes (可选，用于量化)","modelscope (可选，用于下载模型)",[15],[122,123,124,125,126],"academic","chatglm-6b","chatgpt","large-language-models","gpt-4",5,"2026-03-27T02:49:30.150509","2026-04-10T20:34:06.587589",[131,136,141,146,151],{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},28154,"如何配置海外代理（Proxy）以解决网络超时或连接错误？","需要在 config.py 文件中正确配置代理地址。格式必须严格为 [协议]:\u002F\u002F[地址]:[端口]（例如：http:\u002F\u002F127.0.0.1:7890），缺一不可。如果是海外用户且未使用代理，请确保网络环境可直接访问 API；若需使用代理，请检查代理服务器是否可用及格式是否正确。对于 Claude3 等特定模型，早期版本可能存在不走代理的问题，建议更新到最新版本（合并了 PR #1641 后的版本）以修复该问题。","https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F1",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},28155,"如何通过反向代理或第三方服务接入 OpenAI\u002FChatGPT 以避免 API 过期或网络限制？","项目支持通过反向代理接入。您可以参考 Wiki 中的《第三方 API‐KEY 接入指南》（https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fwiki\u002F第三方 API‐KEY 接入指南）。此外，社区讨论指出可以使用 Cloudflare bypass proxy（如 ChatGPT-Proxy-V4）构建反向代理，并利用 Access Token 访问。对于代码层面的适配，可能需要修改 request_llm\u002Fbridge_chatgpt.py 文件，将结束条件判断逻辑调整为仅检查 'data: [DONE]'，以兼容不同代理返回的数据格式。","https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F900",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},28156,"海外用户使用 Claude3 模型时报错“请求超时\u002F网络错误”，但 OpenAI 正常，如何解决？","此问题在旧版本中是因为调用 anthropic 包时未正确走代理设置。解决方案是更新项目到最新版本（已合并 PR #1641），该补丁修复了代理穿透问题。如果暂时无法更新，可以尝试手动设置环境变量：在代码或终端中设置 HTTPS_PROXY 和 HTTP_PROXY 为您的代理地址。验证代理是否生效可使用 curl 或简单的 Python 脚本测试能否连通 api.anthropic.com。","https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F1627",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},28157,"使用 one-api 配合 Azure 作为 API_URL_REDIRECT 时出现 'IndexError: list index out of range' 错误怎么办？","这是因为 Azure 或 one-api 返回的流式数据中，某些片段（如内容过滤结果）的 'choices' 字段可能为空或不存在，导致直接读取 [0] 索引时越界。解决方法是修改 request_llms\u002Fbridge_chatgpt.py 文件（约第 117 行或 199 行附近），在解析 JSON 后增加判断逻辑：\nif 'choices' not in json_data or not json_data['choices']:\n    continue\njson_data = json_data['choices'][0]\n即：如果 'choices' 不存在或为空列表，则跳过当前迭代，不再尝试读取。此修改既兼容 Azure\u002Fone-api，也不影响官方接口的正常使用。","https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F1100",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},28158,"遇到 'You exceeded your current quota'（额度不足）错误，除了充值还有什么解决办法？","当 OpenAI 官方账户额度不足时，可以考虑使用第三方 API 服务。项目已支持接入 api2d 等第三方服务商，这些服务通常提供共享额度或更灵活的计费方式，适合没有优质网络环境或想低成本尝鲜 GPT-4 的用户。具体配置方法请参阅项目 Wiki 中的《第三方 API‐KEY 接入指南》。注意：请勿在非官方渠道随意购买账号以防受骗，建议优先选择信誉良好的第三方 API 平台。","https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic\u002Fissues\u002F279",[157,162,167,172,177,182,187,192,197,202,207,212,217,222,227,232,237,242,247,252],{"id":158,"version":159,"summary_zh":160,"released_at":161},189062,"version3.91","- 优化前端\n- 修复TTS的BUG\n- 添加时间线回溯功能\n- 添加Ollama快速接入向导\n\n**注意：一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径\u002F带空格的文件夹**","2024-12-19T14:28:53",{"id":163,"version":164,"summary_zh":165,"released_at":166},189063,"version3.90patch1","1. 接入Llama-Index\n2. 升级多合一主提交键\n3. 修复中英对比PDF的跳转Bug\n4. 支持o1系列模型\n5. 优化前端","2024-10-13T16:46:49",{"id":168,"version":169,"summary_zh":170,"released_at":171},189064,"version3.83-fix-1","1. 增加欢迎页面  \n2. 优化图像生成插件  \n3. 添加紫东太初大模型支持  \n4. 添加TTS语音输出（EdgeTTS和SoVits语音克隆）  \n5. 优化JavaScript前端代码  \n6. 添加回溯对话按钮  \n\n\n**注意：一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径\u002F带空格的文件夹**","2024-08-02T10:15:53",{"id":173,"version":174,"summary_zh":175,"released_at":176},189065,"version3.75","1. 添加TTS语音输出功能（支持EdgeTTS和SoVits语音克隆）\n2. 优化JavaScript前端代码\n3. 新增Doc2x PDF翻译功能\n4. 添加回溯对话按钮\n\n**注意：一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径或包含空格的文件夹**","2024-05-04T09:13:28",{"id":178,"version":179,"summary_zh":180,"released_at":181},189066,"version3.74","1. 增加多用户文件鉴权验证，提高安全性  \n2. 优化 OneAPI 接入方式  \n3. 接入 Cohere 和 月之暗面（Moonshot）模型  \n4. 简化挂载二级目录的步骤  \n5. 支持 Mermaid 绘图库（让大模型绘制思维导图）  \n6. Gradio 依赖版本更新为 3.32.9  \n\n**注意：一键安装脚本 OneKeyInstallerForWindowsAndMacOS.zip 不支持中文路径或包含空格的文件夹。**","2024-04-08T04:23:03",{"id":183,"version":184,"summary_zh":185,"released_at":186},189067,"version3.70","1. 支持绘制脑图，重构前端UI和Gradio依赖  \n2. 支持智谱的GLM4  \n3. 支持直接拖拽文件到上传区  \n4. 支持将图片粘贴到输入区  \n5. 修复若干隐蔽的内存BUG  \n6. 修复多用户冲突问题  \n7. 接入Deepseek Coder  \n8. AutoGen多智能体插件测试版  \n9. 修复本地模型在Windows下的加载BUG  \n10. 支持文心一言v4和星火v3  \n\n**注意：一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径\u002F带空格的文件夹**","2024-01-18T15:28:30",{"id":188,"version":189,"summary_zh":190,"released_at":191},189068,"version3.64-1","1. 支持直接拖拽文件到上传区  \n2. 支持将图片粘贴到输入区  \n3. 修复若干隐蔽的内存BUG  \n4. 修复多用户冲突问题  \n5. 接入Deepseek Coder  \n6. AutoGen多智能体插件测试版  \n7. 修复本地模型在Windows下的加载BUG  \n8. 支持文心一言v4和星火v3  \n9. 重构了前端UI和Gradio依赖  \n\n**注意：一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径\u002F带空格的文件夹**","2023-12-21T07:11:57",{"id":193,"version":194,"summary_zh":195,"released_at":196},189069,"version3.60-3","1. AutoGen多智能体插件测试版  \n2. 修复了本地模型在Windows系统下的加载Bug  \n3. 支持文心一言v4和星火v3  \n4. 重构了前端UI及Gradio依赖  \n5. 新增动态代码解释器（Code Interpreter）（实验性功能）  \n6. 增加了文本回答复制按钮  \n7. 细分代理适用场景，可通过配置文件修改哪些场景下使用代理  \n8. 支持动态选择不同界面主题，支持明暗主题的动态切换  \n\n\n**注意：一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径或包含空格的文件夹**","2023-10-08T15:10:54",{"id":198,"version":199,"summary_zh":200,"released_at":201},189070,"version3.54-2","1. 新增动态代码解释器（Code Interpreter）（实验性功能）  \n2. 增加文本回答复制按钮  \n3. 细分代理场合，可以通过config修改哪些场合适用代理  \n4. 支持动态选择不同界面主题，支持动态切换明暗主题  \n5. 新增并改善NOUGAT翻译论文插件（PR #1111）  \n6. 提高稳定性&解决多用户冲突问题  \n7. 支持用户使用自然语言调度各个插件(虚空终端)  \n8. 支持插件分类 (PR #1070  PR  #884)\n\n**注意：一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径\u002F带空格的文件夹**","2023-09-19T09:14:48",{"id":203,"version":204,"summary_zh":205,"released_at":206},189071,"version3.52-1","1. 提升稳定性并解决多用户冲突问题  \n2. 支持用户使用自然语言调度各个插件（虚空终端）  \n3. 支持插件分类（PR #1070、PR #884）  \n4. 改进UI，设计新主题  \n5. 接入百度千帆平台和文心一言  \n6. 支持讯飞[星火认知大模型]（https:\u002F\u002Fxinghuo.xfyun.cn\u002F）  \n7. 支持阿里达摩院[通义千问]（https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fqwen\u002FQwen-7B-Chat\u002Fsummary）、上海AI-Lab[书生]（https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM）  \n8. 提高arxiv翻译速度和成功率  \n\n**注意：一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径\u002F带空格的文件夹**","2023-09-14T15:09:32",{"id":208,"version":209,"summary_zh":210,"released_at":211},189072,"version3.50-3","1. 支持用户使用自然语言调度各个插件(虚空终端)\r\n2. 支持插件分类 (PR #1070  PR  #884)\r\n3. 改进UI，设计新主题\r\n4. 接入百度千帆平台和文心一言\r\n5. 支持讯飞[星火认知大模型](https:\u002F\u002Fxinghuo.xfyun.cn\u002F)\r\n6. 支持阿里达摩院[通义千问](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fqwen\u002FQwen-7B-Chat\u002Fsummary)，上海AI-Lab[书生](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM)\r\n7. 提高arxiv翻译速度和成功率\r\n8. 优化一键升级\r\n\r\n**注意：一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径\u002F带空格的文件夹**","2023-09-03T08:30:44",{"id":213,"version":214,"summary_zh":215,"released_at":216},189073,"version3.48-1","1. 支持讯飞[星火认知大模型](https:\u002F\u002Fxinghuo.xfyun.cn\u002F)\r\n2. 支持阿里达摩院[通义千问](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fqwen\u002FQwen-7B-Chat\u002Fsummary)，上海AI-Lab[书生](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM)\r\n3. 提高arxiv翻译速度和成功率\r\n4. 优化一键升级\r\n5. 支持自定义APIKEY格式\r\n6. 新增实时语音对话插件（自动断句，脱手对话）\r\n7. 支持加载自定义的ChatGLM2微调模型 ！\r\n8. [改善UI] 动态ChatBot窗口高度\r\n9. 修复Azure接口的BUG\r\n10. 完善多语言模块\r\n11. 完善Arxiv与Latex翻译插件\r\n\r\n**注意一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径\u002F带空格的文件夹**","2023-07-09T19:39:46",{"id":218,"version":219,"summary_zh":220,"released_at":221},189074,"version3.44","1. 弹性UI\r\n2. 修复Azure接口的BUG\r\n3. 完善多语言模块\r\n4. 完善Arxiv与Latex翻译插件\r\n5. 修复Gradio代码复制按钮的Bug\r\n\r\n\r\n**注意一键安装脚本OneKeyInstallerForWindowsAndMacOS.zip不支持中文路径\u002F带空格的文件夹**","2023-05-27T15:18:27",{"id":223,"version":224,"summary_zh":225,"released_at":226},189075,"version3.37","1. 修复gradio代码复制按钮的Bug\r\n2. 修复PDF翻译的BUG, 新增HTML中英双栏对照\r\n3. 添加了OpenAI音频转文本总结插件\r\n4. 通过Slack添加对Claude的支持\r\n5. 提供复旦MOSS模型适配（启用需额外依赖）\r\n6. 提供docker-compose方案兼容LLAMA盘古RWKV等模型的后端\r\n7. 完善对话历史的保存\u002F载入\u002F删除","2023-05-27T12:38:32",{"id":228,"version":229,"summary_zh":230,"released_at":231},189076,"version3.36","1. 修复PDF翻译的BUG, 新增HTML中英双栏对照\r\n2. 添加了OpenAI音频转文本总结插件\r\n3. 通过Slack添加对Claude的支持\r\n4. 提供复旦MOSS模型适配（启用需额外依赖）\r\n5. 提供docker-compose方案兼容LLAMA盘古RWKV等模型的后端\r\n6. 新增Live2D装饰\r\n7. 完善对话历史的保存\u002F载入\u002F删除\r\n","2023-05-22T16:09:11",{"id":233,"version":234,"summary_zh":235,"released_at":236},189077,"version3.35","1. 添加了OpenAI图片生成插件\r\n2. 添加了OpenAI音频转文本总结插件\r\n3. 通过Slack添加对Claude的支持\r\n4. 提供复旦MOSS模型适配（启用需额外依赖）\r\n5. 提供docker-compose方案兼容LLAMA盘古RWKV等模型的后端\r\n6. 新增Live2D装饰\r\n7. 完善对话历史的保存\u002F载入\u002F删除\r\n8. 保存对话功能\"\r\n","2023-05-19T06:10:29",{"id":238,"version":239,"summary_zh":240,"released_at":241},189078,"version3.34","1. 修正gradio依赖版本，修复对新版gradio暗色主题的适配\r\n2. 提供复旦大学moss的支持接口（需要安装额外依赖以启用，详情见README）\r\n3. 提供docker-compose方案（兼容LLAMA盘古RWKV等模型的后端）\r\n4. 新增Live2D WAIFU装饰\r\n5. Markdown翻译功能支持直接输入github readme文件url\r\n6. 新增保存对话功能\r\n7. 新增互联网信息综合功能\r\n8. 解读任意语言代码+同时询问任意的LLM组合\r\n9. 修复了ChatGLM的上下文问题","2023-05-07T06:20:52",{"id":243,"version":244,"summary_zh":245,"released_at":246},189079,"version3.33-2","修正gradio依赖版本\r\n\r\n1. 提供docker-compose方案（兼容LLAMA盘古RWKV等模型的后端）\r\n2. 新增Live2D WAIFU装饰\r\n3. Markdown翻译功能支持直接输入github readme文件url\r\n4. 新增保存对话功能\r\n5. 新增互联网信息综合功能\r\n6. 解读任意语言代码+同时询问任意的LLM组合\r\n7. 修复了ChatGLM的上下文问题","2023-05-06T14:44:01",{"id":248,"version":249,"summary_zh":250,"released_at":251},189080,"version3.33","1. 提供docker-compose方案（兼容LLAMA盘古RWKV等模型的后端）\r\n2. 新增Live2D WAIFU装饰\r\n3. Markdown翻译功能支持直接输入github readme文件url\r\n4. 新增保存对话功能\r\n5. 新增互联网信息综合功能\r\n6. 解读任意语言代码+同时询问任意的LLM组合\r\n7. 修复了ChatGLM的上下文问题","2023-05-05T09:54:39",{"id":253,"version":254,"summary_zh":255,"released_at":256},189081,"version3.32","1. 修复一些bug\r\n2. Markdown翻译功能支持直接输入github readme文件url\r\n3. 新增保存对话功能\r\n4. 新增互联网信息综合功能\r\n5. 解读任意语言代码+同时询问任意的LLM组合\r\n6. 修复了ChatGLM的上下文问题","2023-04-23T18:01:28"]