[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-869413421--chatgpt-web":3,"tool-869413421--chatgpt-web":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",157379,2,"2026-04-15T23:32:42",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":16},6590,"gpt4all","nomic-ai\u002Fgpt4all","GPT4All 是一款让普通电脑也能轻松运行大型语言模型（LLM）的开源工具。它的核心目标是打破算力壁垒，让用户无需依赖昂贵的显卡（GPU）或云端 API，即可在普通的笔记本电脑和台式机上私密、离线地部署和使用大模型。\n\n对于担心数据隐私、希望完全掌控本地数据的企业用户、研究人员以及技术爱好者来说，GPT4All 提供了理想的解决方案。它解决了传统大模型必须联网调用或需要高端硬件才能运行的痛点，让日常设备也能成为强大的 AI 助手。无论是希望构建本地知识库的开发者，还是单纯想体验私有化 AI 聊天的普通用户，都能从中受益。\n\n技术上，GPT4All 基于高效的 `llama.cpp` 后端，支持多种主流模型架构（包括最新的 DeepSeek R1 蒸馏模型），并采用 GGUF 格式优化推理速度。它不仅提供界面友好的桌面客户端，支持 Windows、macOS 和 Linux 等多平台一键安装，还为开发者提供了便捷的 Python 库，可轻松集成到 LangChain 等生态中。通过简单的下载和配置，用户即可立即开始探索本地大模型的无限可能。",77307,"2026-04-11T06:52:37",[15,13],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":110,"forks":111,"last_commit_at":112,"license":113,"difficulty_score":10,"env_os":114,"env_gpu":115,"env_ram":115,"env_deps":116,"category_tags":120,"github_topics":121,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":124,"updated_at":125,"faqs":126,"releases":162},7899,"869413421\u002Fchatgpt-web","chatgpt-web","基于ChatGPT3.5 API实现的私有化web程序","chatgpt-web 是一款基于 ChatGPT 3.5 API 构建的私有化 Web 聊天程序，旨在帮助用户快速搭建专属的 AI 对话网站。它有效解决了直接调用官方接口门槛高、缺乏个性化设置以及国内网络访问受限等痛点，让用户能在本地或服务器上轻松部署属于自己的智能助手。\n\n这款工具非常适合希望拥有独立 AI 服务但编程基础薄弱的普通用户，同时也兼顾了开发者的定制需求。非技术人员可直接下载预编译包，简单修改配置文件即可运行；开发者则可通过源码编译或 Docker 容器化方式灵活部署。其核心亮点在于高度可配置的参数系统，用户不仅能通过代理设置绕过网络限制，还能自由定义 AI 的“性格”（如设定为贴心女友或专业客服）、调整回答的创造力与长度，甚至支持上下文多轮对话和 Markdown 格式渲染。此外，项目近期还增加了对 GPT-4 模型的支持及用户认证模块，进一步提升了安全性与实用性。无论是用于个人娱乐、学习辅助，还是作为企业内部的知识问答原型，chatgpt-web 都提供了一个轻量且高效的解决方案。","# chatgpt-web\n[![Release](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002F869413421\u002Fchatgpt-web.svg?style=flat-square)](https:\u002F\u002Fgithub.com\u002F869413421\u002Fwechatbot\u002Freleases\u002Ftag\u002Fv1.1.3)\n![Github stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002F869413421\u002Fchatgpt-web.svg)\n![Forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002F869413421\u002Fchatgpt-web.svg?style=flat-square)\n> 本项目可以一键部署属于自己定制化的 chatgpt web 程序(兼容gpt3.5)，\n> 只需下载release中对应平台的项目文件，修改配置后执行，打开 http:\u002F\u002F127.0.0.1:8080 ，便可以获得属于自己的chatgpt网站。\n>\n> 参考项目：[codegen](https:\u002F\u002Fgithub.com\u002Fgit-cloner\u002Fcodegen)\n\n> 项目当前默认为示例中AI聊天机器人参数，可以根据自己需求定制化。\n>\n> **注意，每个参数都可能影响你得到不一样的聊天效果,改变一个参数你就可能得到另一种回答，所以请自己尝试去调试，不要上来就抱怨人工智障。文档中有二十多中参数示例，如AI聊天机器人\n> ，产品名称生成，python代码修复器等等等...**\n>\n> 详情参考官方详细[参数示例](https:\u002F\u002Fbeta.openai.com\u002Fexamples)\n\n# 更新记录\n- [x] fix: 支持gpt-4模型，修改前端空白BUG。 2023-03-30\n- [x] fix: 增加用户模块，认证页面，接口jwt验证。 2023-03-27\n- [x] fix: 修复前端富文本显示问题，优化dockerfile。 2023-03-27\n- [x] fix: 优化前端显示界面。 2023-03-20\n- [x] feat: 增加接口代理配置。 2023-03-20\n- [x] fix: 修复前端部分BUG，优化富文本代码格式。 2023-03-13\n- [x] feat: 增加socsk5代理的支持，命令行参数配置。2023-03-13\n- [x] feat: 增加docker-compose.yaml。2023-03-08\n- [x] fix: 修复basic auth 。 2023-03-08\n- [x] feat：修改为默认不开启代理。2023-03-06\n- [x] feat：增加代理配置，解决国内无法使用。2023-03-04\n\n# 项目功能\n* 请求openai增加代理（防墙）\n* AI性格设定\n* 兼容3.0和3.5API\n* 基本问答界面\n* 参数可配置\n* markdown语法\n* 提问上下文\n# 使用前提\n> 有openai账号，并且创建好api_key，注册事项可以参考[此文章](https:\u002F\u002Fjuejin.cn\u002Fpost\u002F7173447848292253704) 。\n\n\n# 快速开始\n\n`第一种：直接下载二进制(适合对编程不了解的同学)`\n\n> 非技术人员请直接下载release中的[压缩包](https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\u002Freleases) ，请根据自己系统以及架构选择合适的压缩包，下载之后直接解压运行。\n\n下载之后，在本地解压，即可看到可执行程序，与配置文件：\n\n```\n# windows\n1.下载压缩包解压\n2.复制文件中config.dev.json更改为config.json\n3.将config.json中的api_key替换为自己的\n4.双击exe运行，启动服务\n\n# linux\n$ tar xf chatgpt-web-v0.0.2-darwin-arm64.tar.gz # 解压\n$ cd chatgpt-web-v0.0.2-darwin-arm64\n$ cp config.dev.json # 根据情况调整配置文件内容\n$ .\u002Fchatgpt-web  # 直接运行\n\n# 如果要守护在后台运行\n$ nohup .\u002Fchatgpt-web &> run.log &\n$ tail -f run.log\n```\n\n`第二种：基于源码运行(适合了解go语言编程的同学)`\n\n````\n# 获取项目\n$ git clone https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web.git\n\n# 进入项目目录\n$ cd chatgpt-web\n\n# 复制配置文件\n$ copy config.dev.json config.json\n\n# 启动项目\n$ go run main.go\n````\n\n# 使用docker运行\n你可以使用docker快速运行本项目。\n`第一种：基于环境变量运行`\n\n```sh\n# 运行项目，环境变量参考下方配置说明\n$ docker run -itd --name chatgpt-web --restart=always \\\n -e APIKEY=换成你的key \\\n -e APIURL= \\\n -e MODEL=gpt-3.5-turbo-0301 \\\n -e BOT_DESC=你是一个AI助手,我需要你模拟一名温柔贴心的女朋友来回答我的问题. \\\n -e MAX_TOKENS=512 \\\n -e TEMPREATURE=0.9 \\\n -e TOP_P=1 \\\n -e FREQ=0.0 \\\n -e PRES=0.6 \\\n -e PROXY=http:\u002F\u002Fhost.docker.internal:10809 \\\n -e AUTH_USER= \\\n -e AUTH_PASSWORD= \\\n -p 8080:8080 \\\n --add-host=\"host.docker.internal:host-gateway\" \\\n qingshui869413421\u002Fchatgpt-web:latest\n```\n\n`注意`：`host.docker.internal`会指向容器所在宿主机的IP，因此只需要更改端口为你的代理端口即可。\n\n运行命令中映射的配置文件参考下边的配置文件说明。\n\n`第二种：基于配置文件挂载运行`\n\n```sh\n# 复制配置文件，根据自己实际情况，调整配置里的内容\n$ cp config.dev.json config.json  # 其中 config.dev.json 从项目的根目录获取\n\n# 运行项目\n$ docker run -itd --name chatgpt-web -v `pwd`\u002Fconfig.json:\u002Fapp\u002Fconfig.json -p 8080:8080 qingshui869413421\u002Fchatgpt-web:latest\n```\n\n其中配置文件参考下边的配置文件说明。\n\n# 使用docker-docompose 运行\n\n``docker compose up -d``\n\n\n# 配置文件说明\n\n```json\n{\n  \"api_key\": \"your api key\",\n  \"api_url\": \"\",\n  \"port\": 8080,\n  \"listen\": \"\",\n  \"bot_desc\": \"你是一个AI助手，我需要你模拟一名温柔贴心的女朋友来回答我的问题。\",\n  \"proxy\": \"http:\u002F\u002Fhost.docker.internal:10809\",\n  \"model\": \"gpt-3.5-turbo-0301\",\n  \"max_tokens\": 512,\n  \"temperature\": 0.9,\n  \"top_p\": 1,\n  \"frequency_penalty\": 0.0,\n  \"presence_penalty\": 0.6,\n  \"auth_user\": \"\",\n  \"auth_password\": \"\"\n}\n```\n\n````\napi_key：openai api_key\napi_url: openai api接口地址 不填使用默认 https:\u002F\u002Fapi.openai.com\u002Fv1 注，该服务的提供者可以看到你的明文请求(包括你在OpenAI的key)，建议自建或使用可信来源\nport: http服务端口\nlisten: http服务监听地址，不填默认监听0.0.0.0\nproxy: openai请求代理，防墙。 例如 http:\u002F\u002F127.0.0.1:7890 socks5:\u002F\u002F127.0.0.1:7890\nbot_desc：AI特征，非常重要，功能等同给与AI一个身份设定\nmax_tokens: GPT响应字符数，最大2048，默认值512。max_tokens会影响接口响应速度，字符越大响应越慢。\nmodel: GPT选用模型，默认text-davinci-003，具体选项参考官网训练场\ntemperature: GPT热度，0到1，默认0.9。数字越大创造力越强，但更偏离训练事实，越低越接近训练事实\ntop_p: 使用温度采样的替代方法称为核心采样，其中模型考虑具有top_p概率质量的令牌的结果。因此，0.1 意味着只考虑包含前 10% 概率质量的代币。\nfrequency_penalty:\npresence_penalty:\nauth_user\": http基本认证用户名(空表示不开启验证)\nauth_password\": http基本认证密码\n````\n\n# NGINX反向代理配置样例\n\n这里提供一份使用NGINX反向代理该软件的样例配置，方便集成于现有的站点，添加用户认证，套TLS等，该文件一般对应于`\u002Fetc\u002Fnginx\u002Fsites-available\u002Fdefault`文件，需要自行修改。\n\n```nginx\n# 监听80端口，跳转https\nserver {\n    listen 80 default_server;\n    listen [::]:80 default_server;\n    location \u002F {\n        return 301 https:\u002F\u002F$host$request_uri;\n    }\n}\n# 监听443端口，使用https提供服务\nserver {\n    # SSL相关配置来自 https:\u002F\u002Fssl-config.mozilla.org\u002F\n    listen 443 ssl http2;\n    listen [::]:443 ssl http2;\n    # 证书路径，建议Fullchain\n    ssl_certificate \u002Fpath\u002Fto\u002Fyour\u002Fcert.pem;\n    # 私钥路径\n    ssl_certificate_key \u002Fpath\u002Fto\u002Fyour\u002Fkey.pem;\n    ssl_session_timeout 1d;\n    ssl_session_cache shared:MozSSL:10m;\n    ssl_session_tickets off;\n    # 执行下面的命令下载dhparam\n    # curl https:\u002F\u002Fssl-config.mozilla.org\u002Fffdhe2048.txt > \u002Fpath\u002Fto\u002Fdhparam\n    ssl_dhparam \u002Fpath\u002Fto\u002Fdhparam;\n    ssl_protocols TLSv1.2 TLSv1.3;\n    ssl_ciphers ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384;\n    ssl_prefer_server_ciphers off;\n    # HSTS (ngx_http_headers_module is required) (63072000 seconds)\n    add_header Strict-Transport-Security \"max-age=63072000\" always;\n    # SSL配置结束\n\n    server_name _;\n    charset utf-8;\n    client_max_body_size 5m;\n\n    # 如果需要将chatgpt-web置于某一路径下，使用这个location配置\n    location \u002Fyour\u002Fpath\u002F {\n        # 基本身份认证 设定\n        # 提示语\n        auth_basic \"Auth Require\";\n        # 认证配置文件 格式请参考 https:\u002F\u002Fnginx.org\u002Fen\u002Fdocs\u002Fhttp\u002Fngx_http_auth_basic_module.html\n        auth_basic_user_file \u002Fpath\u002Fto\u002Fpasswd;\n\n        # 反向代理 假设chatgpt-web监听端口为8080\n        proxy_pass http:\u002F\u002F127.0.0.1:8080\u002F;\n        proxy_http_version 1.1;\n        # 反向代理超时时间设定(OpenAI的反应比较慢，设定为120秒后才超时)\n        proxy_read_timeout 120s;\n    }\n\n    # 如果chatgpt-web放置于根路径，使用这个location配置\n    location \u002F {\n        auth_basic \"Auth Require\";\n        auth_basic_user_file \u002Fetc\u002Fnginx\u002Fpasswd;\n\n        proxy_pass http:\u002F\u002F127.0.0.1:8080\u002F;\n        proxy_http_version 1.1;\n        proxy_read_timeout 120s;\n\n        # 位于根路径时不需要修改index.html\n    }\n\n}\n```\n\n# Linux系统systemd服务配置\n\n可以使用`systemd`配置`chatgpt-web`开机自启，假设可执行文件和相关资源文件放置在`\u002Fvar\u002Fwww\u002Fchatgpt-web\u002F`目录下，`chatgpt-web`二进制文件需要其他用户可读可执行权限，其余资源文件需要其他用户可读权限，并且已经配置好`config.json`。\n\n在目录`\u002Fetc\u002Fsystemd\u002Fsystem\u002F`下新建文件`chatgpt-web.service`，以下是文件样例。\n\n```ini\n[Unit]\nDescription=chatgpt-web\nDocumentation=https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\n# 在网络启动完成后运行\nAfter=network.target nss-lookup.target\n\n[Service]\n# 使用随机用户执行该服务\nDynamicUser=yes\n# 指定工作目录\nWorkingDirectory=\u002Fvar\u002Fwww\u002Fchatgpt-web\u002F\n# 执行程序\nExecStart=\u002Fvar\u002Fwww\u002Fchatgpt-web\u002Fchatgpt-web\n\n[Install]\nWantedBy=multi-user.target\n```\n保存后使用`systemctl daemon-reload`更新systemd配置文件，使用`systemctl start\u002Fstop chatgpt-web`启动\u002F停止服务，使用`systemctl enable\u002Fdisable chatgpt-web`启用\u002F禁用服务开机自启。\n\n可以使用`journalctl --unit chatgpt-web.service`查看程序日志。\n\n# 免责声明 Disclaimers\nThe code is for demo and testing only. 代码仅用于演示和测试。\n\n⚠⚠⚠请勿将本系统代码用于商业用途！\n\n仿冒或冒用ChatGPT、OpenAI名义开展经营活动，可能构成《商标法》、《反不正当竞争法》下的一系列侵权行为； 以之牟利造成消费者损失的，可能产生《商标法》、《反不正当竞争法》、《消费者权益保护法》下的民事或行政责任，情节严重并造成重大损失的，还有可能构成刑事犯罪； 如果提供这种跨境经营服务存在私自搭建国际信道的情形，还有可能违反《网络安全法》、《刑法》的相关规定，承担行政责任或构成刑事犯罪。\n","# chatgpt-web\n[![Release](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002F869413421\u002Fchatgpt-web.svg?style=flat-square)](https:\u002F\u002Fgithub.com\u002F869413421\u002Fwechatbot\u002Freleases\u002Ftag\u002Fv1.1.3)\n![Github stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002F869413421\u002Fchatgpt-web.svg)\n![Forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002F869413421\u002Fchatgpt-web.svg?style=flat-square)\n> 本项目可以一键部署属于自己定制化的 chatgpt web 程序(兼容gpt3.5)，\n> 只需下载release中对应平台的项目文件，修改配置后执行，打开 http:\u002F\u002F127.0.0.1:8080 ，便可以获得属于自己的chatgpt网站。\n>\n> 参考项目：[codegen](https:\u002F\u002Fgithub.com\u002Fgit-cloner\u002Fcodegen)\n\n> 项目当前默认为示例中AI聊天机器人参数，可以根据自己需求定制化。\n>\n> **注意，每个参数都可能影响你得到不一样的聊天效果,改变一个参数你就可能得到另一种回答，所以请自己尝试去调试，不要上来就抱怨人工智障。文档中有二十多中参数示例，如AI聊天机器人\n> ，产品名称生成，python代码修复器等等等...**\n>\n> 详情参考官方详细[参数示例](https:\u002F\u002Fbeta.openai.com\u002Fexamples)\n\n# 更新记录\n- [x] fix: 支持gpt-4模型，修改前端空白BUG。 2023-03-30\n- [x] fix: 增加用户模块，认证页面，接口jwt验证。 2023-03-27\n- [x] fix: 修复前端富文本显示问题，优化dockerfile。 2023-03-27\n- [x] fix: 优化前端显示界面。 2023-03-20\n- [x] feat: 增加接口代理配置。 2023-03-20\n- [x] fix: 修复前端部分BUG，优化富文本代码格式。 2023-03-13\n- [x] feat: 增加socsk5代理的支持，命令行参数配置。2023-03-13\n- [x] feat: 增加docker-compose.yaml。2023-03-08\n- [x] fix: 修复basic auth 。 2023-03-08\n- [x] feat：修改为默认不开启代理。2023-03-06\n- [x] feat：增加代理配置，解决国内无法使用。2023-03-04\n\n# 项目功能\n* 请求openai增加代理（防墙）\n* AI性格设定\n* 兼容3.0和3.5API\n* 基本问答界面\n* 参数可配置\n* markdown语法\n* 提问上下文\n# 使用前提\n> 有openai账号，并且创建好api_key，注册事项可以参考[此文章](https:\u002F\u002Fjuejin.cn\u002Fpost\u002F7173447848292253704) 。\n\n\n# 快速开始\n\n`第一种：直接下载二进制(适合对编程不了解的同学)`\n\n> 非技术人员请直接下载release中的[压缩包](https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\u002Freleases) ，请根据自己系统以及架构选择合适的压缩包，下载之后直接解压运行。\n\n下载之后，在本地解压，即可看到可执行程序，与配置文件：\n\n```\n# windows\n1.下载压缩包解压\n2.复制文件中config.dev.json更改为config.json\n3.将config.json中的api_key替换为自己的\n4.双击exe运行，启动服务\n\n# linux\n$ tar xf chatgpt-web-v0.0.2-darwin-arm64.tar.gz # 解压\n$ cd chatgpt-web-v0.0.2-darwin-arm64\n$ cp config.dev.json # 根据情况调整配置文件内容\n$ .\u002Fchatgpt-web  # 直接运行\n\n# 如果要守护在后台运行\n$ nohup .\u002Fchatgpt-web &> run.log &\n$ tail -f run.log\n```\n\n`第二种：基于源码运行(适合了解go语言编程的同学)`\n\n````\n# 获取项目\n$ git clone https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web.git\n\n# 进入项目目录\n$ cd chatgpt-web\n\n# 复制配置文件\n$ copy config.dev.json config.json\n\n# 启动项目\n$ go run main.go\n````\n\n# 使用docker运行\n你可以使用docker快速运行本项目。\n`第一种：基于环境变量运行`\n\n```sh\n# 运行项目，环境变量参考下方配置说明\n$ docker run -itd --name chatgpt-web --restart=always \\\n -e APIKEY=换成你的key \\\n -e APIURL= \\\n -e MODEL=gpt-3.5-turbo-0301 \\\n -e BOT_DESC=你是一个AI助手,我需要你模拟一名温柔贴心的女朋友来回答我的问题. \\\n -e MAX_TOKENS=512 \\\n -e TEMPREATURE=0.9 \\\n -e TOP_P=1 \\\n -e FREQ=0.0 \\\n -e PRES=0.6 \\\n -e PROXY=http:\u002F\u002Fhost.docker.internal:10809 \\\n -e AUTH_USER= \\\n -e AUTH_PASSWORD= \\\n -p 8080:8080 \\\n --add-host=\"host.docker.internal:host-gateway\" \\\n qingshui869413421\u002Fchatgpt-web:latest\n```\n\n`注意`：`host.docker.internal`会指向容器所在宿主机的IP，因此只需要更改端口为你的代理端口即可。\n\n运行命令中映射的配置文件参考下边的配置文件说明。\n\n`第二种：基于配置文件挂载运行`\n\n```sh\n# 复制配置文件，根据自己实际情况，调整配置里的内容\n$ cp config.dev.json config.json  # 其中 config.dev.json 从项目的根目录获取\n\n# 运行项目\n$ docker run -itd --name chatgpt-web -v `pwd`\u002Fconfig.json:\u002Fapp\u002Fconfig.json -p 8080:8080 qingshui869413421\u002Fchatgpt-web:latest\n```\n\n其中配置文件参考下边的配置文件说明。\n\n# 使用docker-docompose 运行\n\n``docker compose up -d``\n\n\n# 配置文件说明\n\n```json\n{\n  \"api_key\": \"your api key\",\n  \"api_url\": \"\",\n  \"port\": 8080,\n  \"listen\": \"\",\n  \"bot_desc\": \"你是一个AI助手，我需要你模拟一名温柔贴心的女朋友来回答我的问题。\",\n  \"proxy\": \"http:\u002F\u002Fhost.docker.internal:10809\",\n  \"model\": \"gpt-3.5-turbo-0301\",\n  \"max_tokens\": 512,\n  \"temperature\": 0.9,\n  \"top_p\": 1,\n  \"frequency_penalty\": 0.0,\n  \"presence_penalty\": 0.6,\n  \"auth_user\": \"\",\n  \"auth_password\": \"\"\n}\n```\n\n````\napi_key：openai api_key\napi_url: openai api接口地址 不填使用默认 https:\u002F\u002Fapi.openai.com\u002Fv1 注，该服务的提供者可以看到你的明文请求(包括你在OpenAI的key)，建议自建或使用可信来源\nport: http服务端口\nlisten: http服务监听地址，不填默认监听0.0.0.0\nproxy: openai请求代理，防墙。 例如 http:\u002F\u002F127.0.0.1:7890 socks5:\u002F\u002F127.0.0.1:7890\nbot_desc：AI特征，非常重要，功能等同给与AI一个身份设定\nmax_tokens: GPT响应字符数，最大2048，默认值512。max_tokens会影响接口响应速度，字符越大响应越慢。\nmodel: GPT选用模型，默认text-davinci-003，具体选项参考官网训练场\ntemperature: GPT热度，0到1，默认0.9。数字越大创造力越强，但更偏离训练事实，越低越接近训练事实\ntop_p: 使用温度采样的替代方法称为核心采样，其中模型考虑具有top_p概率质量的令牌的结果。因此，0.1 意味着只考虑包含前 10% 概率质量的代币。\nfrequency_penalty:\npresence_penalty:\nauth_user\": http基本认证用户名(空表示不开启验证)\nauth_password\": http基本认证密码\n````\n\n# NGINX反向代理配置样例\n\n这里提供一份使用NGINX反向代理该软件的样例配置，方便集成于现有的站点，添加用户认证，套TLS等，该文件一般对应于`\u002Fetc\u002Fnginx\u002Fsites-available\u002Fdefault`文件，需要自行修改。\n\n```nginx\n# 监听80端口，跳转https\nserver {\n    listen 80 default_server;\n    listen [::]:80 default_server;\n    location \u002F {\n        return 301 https:\u002F\u002F$host$request_uri;\n    }\n}\n# 监听443端口，使用https提供服务\nserver {\n    # SSL相关配置来自 https:\u002F\u002Fssl-config.mozilla.org\u002F\n    listen 443 ssl http2;\n    listen [::]:443 ssl http2;\n    # 证书路径，建议Fullchain\n    ssl_certificate \u002Fpath\u002Fto\u002Fyour\u002Fcert.pem;\n    # 私钥路径\n    ssl_certificate_key \u002Fpath\u002Fto\u002Fyour\u002Fkey.pem;\n    ssl_session_timeout 1d;\n    ssl_session_cache shared:MozSSL:10m;\n    ssl_session_tickets off;\n    # 执行下面的命令下载dhparam\n    # curl https:\u002F\u002Fssl-config.mozilla.org\u002Fffdhe2048.txt > \u002Fpath\u002Fto\u002Fdhparam\n    ssl_dhparam \u002Fpath\u002Fto\u002Fdhparam;\n    ssl_protocols TLSv1.2 TLSv1.3;\n    ssl_ciphers ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384;\n    ssl_prefer_server_ciphers off;\n    # HSTS (ngx_http_headers_module is required) (63072000 seconds)\n    add_header Strict-Transport-Security \"max-age=63072000\" always;\n    # SSL配置结束\n\n    server_name _;\n    charset utf-8;\n    client_max_body_size 5m;\n\n    # 如果需要将chatgpt-web置于某一路径下，使用这个location配置\n    location \u002Fyour\u002Fpath\u002F {\n        # 基本身份认证 设定\n        # 提示语\n        auth_basic \"Auth Require\";\n        # 认证配置文件 格式请参考 https:\u002F\u002Fnginx.org\u002Fen\u002Fdocs\u002Fhttp\u002Fngx_http_auth_basic_module.html\n        auth_basic_user_file \u002Fpath\u002Fto\u002Fpasswd;\n\n        # 反向代理 假设chatgpt-web监听端口为8080\n        proxy_pass http:\u002F\u002F127.0.0.1:8080\u002F;\n        proxy_http_version 1.1;\n        # 反向代理超时时间设定(OpenAI的反应比较慢，设定为120秒后才超时)\n        proxy_read_timeout 120s;\n\n        # 位于根路径时不需要修改index.html\n    }\n\n    # 如果chatgpt-web放置于根路径，使用这个location配置\n    location \u002F {\n        auth_basic \"Auth Require\";\n        auth_basic_user_file \u002Fetc\u002Fnginx\u002Fpasswd;\n\n        proxy_pass http:\u002F\u002F127.0.0.1:8080\u002F;\n        proxy_http_version 1.1;\n        proxy_read_timeout 120s;\n\n        # 位于根路径时不需要修改index.html\n    }\n\n}\n```\n\n# Linux系统systemd服务配置\n\n可以使用`systemd`配置`chatgpt-web`开机自启，假设可执行文件和相关资源文件放置在`\u002Fvar\u002Fwww\u002Fchatgpt-web\u002F`目录下，`chatgpt-web`二进制文件需要其他用户可读可执行权限，其余资源文件需要其他用户可读权限，并且已经配置好`config.json`。\n\n在目录`\u002Fetc\u002Fsystemd\u002Fsystem\u002F`下新建文件`chatgpt-web.service`，以下是文件样例。\n\n```ini\n[Unit]\nDescription=chatgpt-web\nDocumentation=https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\n# 在网络启动完成后运行\nAfter=network.target nss-lookup.target\n\n[Service]\n# 使用随机用户执行该服务\nDynamicUser=yes\n# 指定工作目录\nWorkingDirectory=\u002Fvar\u002Fwww\u002Fchatgpt-web\u002F\n# 执行程序\nExecStart=\u002Fvar\u002Fwww\u002Fchatgpt-web\u002Fchatgpt-web\n\n[Install]\nWantedBy=multi-user.target\n```\n保存后使用`systemctl daemon-reload`更新systemd配置文件，使用`systemctl start\u002Fstop chatgpt-web`启动\u002F停止服务，使用`systemctl enable\u002Fdisable chatgpt-web`启用\u002F禁用服务开机自启。\n\n可以使用`journalctl --unit chatgpt-web.service`查看程序日志。\n\n# 免责声明\n该代码仅用于演示和测试。\n\n⚠⚠⚠请勿将本系统代码用于商业用途！\n\n仿冒或冒用ChatGPT、OpenAI名义开展经营活动，可能构成《商标法》、《反不正当竞争法》下的一系列侵权行为； 以之牟利造成消费者损失的，可能产生《商标法》、《反不正当竞争法》、《消费者权益保护法》下的民事或行政责任，情节严重并造成重大损失的，还有可能构成刑事犯罪； 如果提供这种跨境经营服务存在私自搭建国际信道的情形，还有可能违反《网络安全法》、《刑法》的相关规定，承担行政责任或构成刑事犯罪。","# chatgpt-web 快速上手指南\n\n## 环境准备\n\n*   **系统要求**：Windows、Linux (推荐) 或 macOS。\n*   **前置依赖**：\n    *   **OpenAI 账号**：需已创建有效的 `API_KEY`。\n    *   **网络环境**：由于 OpenAI 接口在国内无法直接访问，请确保服务器具备代理环境（HTTP\u002FSOCKS5），或在配置文件中设置代理。\n    *   **运行方式选择**：\n        *   **普通用户**：无需安装 Go 语言环境，直接下载二进制文件即可。\n        *   **开发者**：如需源码运行，需安装 [Go](https:\u002F\u002Fgolang.org\u002F) 环境。\n        *   **容器用户**：需安装 Docker 及 Docker Compose。\n\n## 安装步骤\n\n### 方式一：直接运行二进制文件（推荐新手）\n\n1.  **下载程序**\n    前往 [Release 页面](https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\u002Freleases) 下载对应系统架构的压缩包并解压。\n\n2.  **配置文件**\n    将目录中的 `config.dev.json` 复制并重命名为 `config.json`。\n\n3.  **编辑配置**\n    打开 `config.json`，填入你的 `api_key` 并配置代理（如需）：\n    ```json\n    {\n      \"api_key\": \"sk-你的 OpenAI API Key\",\n      \"proxy\": \"http:\u002F\u002F127.0.0.1:7890\", \n      \"bot_desc\": \"你是一个 AI 助手，我需要你模拟一名温柔贴心的女朋友来回答我的问题。\",\n      \"model\": \"gpt-3.5-turbo-0301\"\n    }\n    ```\n    > 注意：`proxy` 字段填写本地代理地址，若无需代理可留空或删除该行。\n\n4.  **启动服务**\n    *   **Windows**: 双击 `chatgpt-web.exe`。\n    *   **Linux\u002FMac**:\n        ```bash\n        .\u002Fchatgpt-web\n        # 后台运行\n        nohup .\u002Fchatgpt-web &> run.log &\n        ```\n\n### 方式二：使用 Docker 运行（推荐生产环境）\n\n**基于环境变量快速启动：**\n\n```bash\ndocker run -itd --name chatgpt-web --restart=always \\\n -e APIKEY=你的 OpenAI API Key \\\n -e PROXY=http:\u002F\u002Fhost.docker.internal:10809 \\\n -e BOT_DESC=\"你是一个 AI 助手\" \\\n -e MODEL=gpt-3.5-turbo-0301 \\\n -p 8080:8080 \\\n --add-host=\"host.docker.internal:host-gateway\" \\\n qingshui869413421\u002Fchatgpt-web:latest\n```\n> 提示：`host.docker.internal` 指向宿主机 IP，请确保宿主机代理端口（如 10809）畅通。\n\n**基于配置文件挂载：**\n\n1.  复制并修改配置文件：\n    ```bash\n    cp config.dev.json config.json\n    # 编辑 config.json 填入 api_key 和 proxy\n    ```\n2.  启动容器：\n    ```bash\n    docker run -itd --name chatgpt-web -v $(pwd)\u002Fconfig.json:\u002Fapp\u002Fconfig.json -p 8080:8080 qingshui869413421\u002Fchatgpt-web:latest\n    ```\n\n### 方式三：源码编译运行（适合开发者）\n\n```bash\n# 克隆项目\ngit clone https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web.git\ncd chatgpt-web\n\n# 准备配置\ncp config.dev.json config.json\n# 编辑 config.json 填入必要参数\n\n# 运行\ngo run main.go\n```\n\n## 基本使用\n\n1.  **访问界面**\n    服务启动成功后，在浏览器打开：\n    ```\n    http:\u002F\u002F127.0.0.1:8080\n    ```\n    若部署在服务器，请将 `127.0.0.1` 替换为服务器 IP。\n\n2.  **开始对话**\n    *   直接在输入框发送消息即可与 AI 交互。\n    *   支持 Markdown 语法渲染。\n    *   支持上下文多轮对话。\n\n3.  **高级定制（可选）**\n    *   **修改人设**：编辑 `config.json` 中的 `bot_desc` 字段，可让 AI 扮演特定角色（如代码专家、翻译官等）。\n    *   **添加认证**：在 `config.json` 中设置 `auth_user` 和 `auth_password`，重启服务后访问网页需输入账号密码。\n    *   **切换模型**：修改 `model` 字段（如 `gpt-4`），需确保你的 API Key 拥有相应权限。\n\n4.  **Nginx 反向代理（可选）**\n    若需配置 HTTPS 或域名访问，可参考官方文档中的 Nginx 配置样例，将请求转发至本服务的 8080 端口。","某初创团队希望为内部客服系统快速搭建一个具备特定人设（如“温柔贴心的助手”）的私有化 AI 问答界面，以测试用户反馈并保护数据隐私。\n\n### 没有 chatgpt-web 时\n- **部署门槛高**：团队成员需手动编写前端页面和后端接口代码来调用 OpenAI API，非技术人员无法独立参与测试。\n- **人设调整困难**：每次想改变 AI 的回答风格（如从“严谨专家”改为“亲切客服”），都需要修改代码逻辑并重新编译发布。\n- **网络访问受阻**：在国内网络环境下，直接请求官方接口经常超时或失败，缺乏内置的代理配置支持，导致服务不可用。\n- **缺乏权限管控**：生成的临时演示页面没有任何认证机制，链接一旦泄露，外部人员即可随意调用消耗昂贵的 API 额度。\n\n### 使用 chatgpt-web 后\n- **一键私有部署**：只需下载对应系统的压缩包，修改 `config.json` 填入 API Key 即可启动服务，几分钟内获得专属的 Web 聊天界面。\n- **灵活定制人设**：通过配置文件中的 `bot_desc` 参数，无需改动代码即可将 AI 设定为“温柔贴心的女朋友”或“专业代码修复器”，即时生效。\n- **内置代理支持**：直接在配置中设置 `proxy` 参数（支持 HTTP\u002FSOCKS5），轻松解决网络墙问题，确保国内环境稳定连接。\n- **安全访问控制**：利用 `auth_user` 和 `auth_password` 字段快速开启基础认证，结合 JWT 验证模块，有效防止未授权访问和资费滥用。\n\nchatgpt-web 让非开发团队也能在几分钟内构建出安全、可定制且网络稳定的私有化 AI 应用，极大降低了技术验证成本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002F869413421_chatgpt-web_e1a46e59.png","869413421","清水泥沙","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002F869413421_3034f1c3.jpg",null,"https:\u002F\u002Fgithub.com\u002F869413421",[82,86,90,94,98,102,106],{"name":83,"color":84,"percentage":85},"Go","#00ADD8",51.1,{"name":87,"color":88,"percentage":89},"TypeScript","#3178c6",34.9,{"name":91,"color":92,"percentage":93},"HTML","#e34c26",5.9,{"name":95,"color":96,"percentage":97},"CSS","#663399",4.3,{"name":99,"color":100,"percentage":101},"Dockerfile","#384d54",2.9,{"name":103,"color":104,"percentage":105},"Less","#1d365d",0.5,{"name":107,"color":108,"percentage":109},"Makefile","#427819",0.4,3146,721,"2026-04-13T04:39:27","Apache-2.0","Linux, macOS, Windows","未说明",{"notes":117,"python":115,"dependencies":118},"本项目主要提供预编译的二进制文件（支持 Windows\u002FLinux\u002FmacOS），无需安装 Go 环境即可直接运行；若选择源码运行则需安装 Go 语言环境。项目本身不包含 AI 模型，而是作为前端界面调用 OpenAI API，因此运行资源消耗极低。使用前必须拥有 OpenAI API Key，国内用户需配置 HTTP 或 SOCKS5 代理以连接 OpenAI 服务。支持通过 Docker 和 Docker Compose 部署。",[119],"Go (源码运行模式)",[15],[122,123],"chatgpt","website","2026-03-27T02:49:30.150509","2026-04-16T08:15:25.493912",[127,132,137,142,147,152,157],{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},35377,"页面空白或加载失败，控制台报错连接被拒绝（ERR_CONNECTION_REFUSED）怎么办？","这通常是由于 Nginx 反向代理配置不当导致的。请检查 Nginx 配置，确保没有错误的转发规则导致请求被重定向到 localhost。如果是部署在域名后且使用了子路径（如 \u002Fweb），需确保后续调用的地址正确读取了绑定的域名而非硬编码的 localhost。修复方法包括：1. 修正 Nginx 的 location 转发配置；2. 尝试将服务运行在根路径下绕过子路径问题；3. 升级到最新版本，作者已修复部分相关逻辑。","https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\u002Fissues\u002F95",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},35378,"Windows 版或 Docker 部署后页面空白，浏览器控制台提示 MIME type 错误如何解决？","此问题通常由服务器未正确设置 JS 文件的 MIME type 或 Windows 注册表缺失 .js 关联引起。解决方案有两种：1. 服务端修改配置，确保返回 .js 文件时 Header 包含 `Content-Type: application\u002Fjavascript`；2. Windows 用户检查注册表 `Computer\\HKEY_CLASSES_ROOT\\.js` 是否存在，若缺失需手动修复或重新关联 JS 文件类型。","https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\u002Fissues\u002F40",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},35379,"如何配置代理（Proxy）以解决国内网络无法访问 OpenAI 的问题？","需要在配置文件中填写代理服务器的公网 IP 和端口。如果您使用 Clash 等工具：1. 开启 Clash 的 `Allow Lan`（允许局域网连接）功能；2. 在程序配置中将 proxy 地址填为 `http:\u002F\u002F127.0.0.1:Clash 的端口号`（例如 http:\u002F\u002F127.0.0.1:7890）；3. 确保代理节点可用，可通过浏览器直接访问 `https:\u002F\u002Fapi.openai.com\u002Fv1` 测试连通性。注意：最新版默认不使用代理，若需代理必须手动配置。","https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\u002Fissues\u002F76",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},35380,"如何启用 GPT-4 模型支持？","项目已支持 GPT-4。只需在配置文件（config）中将 `model` 参数修改为 `gpt-4` 即可。请注意，使用前需确保您的 OpenAI 账号已开通 GPT-4 权限（目前仅限 Plus 用户或在测试阶段申请到的账号），否则接口会返回错误。","https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\u002Fissues\u002F78",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},35381,"报错 '401: incorrected api key' 但 curl 测试 Key 有效，该如何排查？","请按以下步骤排查：1. 确保配置文件与二进制执行文件在同一目录下；2. 确认 API Key 本身有效且未过期；3. 检查环境变量中是否设置了 `APIKEY`，程序会优先读取该环境变量覆盖配置文件；4. 修改配置或环境变量后，务必重启服务才能生效。如果仍报错，请检查是否有空格或隐藏字符混入 Key 中。","https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\u002Fissues\u002F52",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},35382,"如何修改页面的欢迎词或自定义静态资源？","可以通过替换静态文件实现自定义：1. 进入项目的 chat 目录，运行 `npm run build` 生成新的静态文件（位于 build 文件夹）；2. 将生成的 `static` 文件夹内容替换项目中的 `static` 文件夹；3. 将 `build` 文件夹中的 `index.html` 替换项目 `resources\\view\\index.html` 文件。此外，部分文本可能经过 Unicode 转换，可按 F12 在浏览器开发者工具中定位具体的 JS 文件进行修改。","https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\u002Fissues\u002F3",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},35383,"遇到 'dial tcp ... connectex: No connection could be made' 错误是什么原因？","这通常表示网络被墙或代理配置失效，导致无法连接到 OpenAI 服务器。解决方法：1. 确认是否需要配置代理，国内环境通常必须配置；2. 阅读 README 文档添加正确的代理配置；3. 如果使用美国服务器部署，通常无需配置代理；4. 检查代理软件是否正常运行且端口监听正确。","https:\u002F\u002Fgithub.com\u002F869413421\u002Fchatgpt-web\u002Fissues\u002F21",[163,168,173,178,183,188,193,198,203,208,213,218,223],{"id":164,"version":165,"summary_zh":166,"released_at":167},280441,"v0.2.4","# 修复上版本","2023-03-31T06:23:28",{"id":169,"version":170,"summary_zh":171,"released_at":172},280442,"v0.2.1","# 修复前端bug","2023-03-28T03:15:50",{"id":174,"version":175,"summary_zh":176,"released_at":177},280443,"v0.2.0","# 增加用户模块","2023-03-27T08:13:46",{"id":179,"version":180,"summary_zh":181,"released_at":182},280444,"v0.1.3","# 优化前端界面","2023-03-20T03:42:25",{"id":184,"version":185,"summary_zh":186,"released_at":187},280445,"v0.1.2","# 修正编译","2023-03-14T04:42:12",{"id":189,"version":190,"summary_zh":191,"released_at":192},280446,"v0.0.8","# 修复认证","2023-03-08T06:38:04",{"id":194,"version":195,"summary_zh":196,"released_at":197},280447,"v0.0.7","# 修改配置文件默认值","2023-03-06T07:41:32",{"id":199,"version":200,"summary_zh":201,"released_at":202},280448,"v0.0.6","# 优化前端","2023-03-06T01:01:49",{"id":204,"version":205,"summary_zh":206,"released_at":207},280449,"v0.0.5","# 增加代理配置","2023-03-04T12:00:06",{"id":209,"version":210,"summary_zh":211,"released_at":212},280450,"v0.0.4","# 兼容 Docker 环境变量","2023-03-02T04:36:24",{"id":214,"version":215,"summary_zh":216,"released_at":217},280451,"v0.0.3","# 兼容3.5API","2023-03-02T03:49:32",{"id":219,"version":220,"summary_zh":221,"released_at":222},280452,"v0.0.2","# 优化\r\n* 增加markdown\r\n* 优化上下文提问\r\n","2023-02-14T02:25:36",{"id":224,"version":225,"summary_zh":226,"released_at":227},280453,"v0.0.1","# 初始版本","2023-02-12T01:27:17"]