[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kmeng01--memit":3,"tool-kmeng01--memit":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",152630,2,"2026-04-12T23:33:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":10,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":107,"github_topics":109,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":114,"updated_at":115,"faqs":116,"releases":142},7040,"kmeng01\u002Fmemit","memit","Mass-editing thousands of facts into a transformer memory (ICLR 2023)","MEMIT 是一款专为大型语言模型设计的开源工具，核心功能在于能够一次性将成千上万条新事实高效地“写入”模型的参数记忆中。在传统方法中，若想修正或更新模型内的知识（例如改变某位名人的职业或国籍），往往需要耗时耗力的重新训练或微调，且难以保证批量更新的稳定性。MEMIT 正是为了解决这一痛点而生，它让开发者无需重训整个模型，即可实现对 Transformer 架构内部记忆的精准、大规模编辑。\n\n该工具主要面向 AI 研究人员和深度学习开发者，特别是那些致力于研究大模型可编辑性、知识更新机制或希望快速验证事实注入效果的团队。其独特的技术亮点在于提出了一种创新的算法，能够定位并修改模型中存储特定事实的关键神经元层，从而在保持模型原有语言能力不衰退的前提下，完成海量知识的批量更新。通过简洁的 Python API，用户只需定义“主体 - 关系 - 新目标”的请求列表，即可轻松执行复杂的记忆编辑任务。作为 ICLR 2023 收录的前沿成果，MEMIT 为大模型的知识维护与动态更新提供了高效且可靠的实验方案。","# MEMIT: Mass-Editing Memory in a Transformer\n\nEditing thousands of facts into a transformer memory at once.\n\n\u003C!-- [![Colab MEMIT Demo](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fkmeng01\u002Fmemit\u002Fblob\u002Fmain\u002Fnotebooks\u002Fmemit.ipynb) -->\n\n## Table of Contents\n\n- [Installation](#installation)\n- [MEMIT Algorithm Demo](#memit-algorithm-demo)\n- [Running the Full Evaluation Suite](#running-the-full-evaluation-suite)\n- [Generating Scaling Curves](#generating-scaling-curves)\n- [How to Cite](#how-to-cite)\n\n## Installation\n\nWe recommend `conda` for managing Python, CUDA, and PyTorch; `pip` is for everything else. To get started, simply install `conda` and run:\n```bash\nCONDA_HOME=$CONDA_HOME .\u002Fscripts\u002Fsetup_conda.sh\n```\n\n`$CONDA_HOME` should be the path to your `conda` installation, e.g., `~\u002Fminiconda3`.\n\n## MEMIT Algorithm Demo\n\n[`notebooks\u002Fmemit.ipynb`](notebooks\u002Fmemit.ipynb) demonstrates MEMIT. The API is simple; simply specify a *requested rewrite* of the following form:\n\n```python\nrequest = [\n    {\n        \"prompt\": \"{} plays the sport of\",\n        \"subject\": \"LeBron James\",\n        \"target_new\": {\n            \"str\": \"football\"\n        }\n    },\n    {\n        \"prompt\": \"{} plays the sport of\",\n        \"subject\": \"Michael Jordan\",\n        \"target_new\": {\n            \"str\": \"baseball\"\n        }\n    },\n]\n```\n\nOther similar example(s) are included in the notebook.\n\n## Running the Full Evaluation Suite\n\n[`experiments\u002Fevaluate.py`](experiments\u002Fevaluate.py) can be used to evaluate any method in [`baselines\u002F`](baselines\u002F).\n\nFor example:\n```\npython3 -m experiments.evaluate \\\n    --alg_name=MEMIT \\\n    --model_name=EleutherAI\u002Fgpt-j-6B \\\n    --hparams_fname=EleutherAI_gpt-j-6B.json \\\n    --num_edits=10000 \\\n    --use_cache\n```\nResults from each run are stored at `results\u002F\u003Cmethod_name>\u002Frun_\u003Crun_id>` in a specific format:\n```bash\nresults\u002F\n|__ MEMIT\u002F\n    |__ run_\u003Crun_id>\u002F\n        |__ params.json\n        |__ case_0.json\n        |__ case_1.json\n        |__ ...\n        |__ case_10000.json\n```\n\nTo summarize the results, you can use [`experiments\u002Fsummarize.py`](experiments\u002Fsummarize.py):\n```bash\npython3 -m experiments.summarize --dir_name=MEMIT --runs=run_\u003Crun1>,run_\u003Crun2>\n```\n\nRunning `python3 -m experiments.evaluate -h` or `python3 -m experiments.summarize -h` provides details about command-line flags.\n\n## How to Cite\n\n```bibtex\n@article{meng2022memit,\n  title={Mass Editing Memory in a Transformer},\n  author={Kevin Meng and Sen Sharma, Arnab and Alex Andonian and Yonatan Belinkov and David Bau},\n  journal={arXiv preprint arXiv:2210.07229},\n  year={2022}\n}\n```\n","# MEMIT：在 Transformer 中进行大规模记忆编辑\n\n一次性将数千条事实编辑到 Transformer 的记忆中。\n\n\u003C!-- [![Colab MEMIT 演示](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fkmeng01\u002Fmemit\u002Fblob\u002Fmain\u002Fnotebooks\u002Fmemit.ipynb) -->\n\n## 目录\n\n- [安装](#installation)\n- [MEMIT 算法演示](#memit-algorithm-demo)\n- [运行完整评估套件](#running-the-full-evaluation-suite)\n- [生成规模曲线](#generating-scaling-curves)\n- [如何引用](#how-to-cite)\n\n## 安装\n\n我们推荐使用 `conda` 来管理 Python、CUDA 和 PyTorch；而 `pip` 则用于其他所有内容。要开始使用，只需安装 `conda` 并运行：\n```bash\nCONDA_HOME=$CONDA_HOME .\u002Fscripts\u002Fsetup_conda.sh\n```\n\n`$CONDA_HOME` 应该是你的 `conda` 安装路径，例如 `~\u002Fminiconda3`。\n\n## MEMIT 算法演示\n\n[`notebooks\u002Fmemit.ipynb`](notebooks\u002Fmemit.ipynb) 展示了 MEMIT 的用法。其 API 非常简单，只需指定一个如下形式的 *请求重写*：\n\n```python\nrequest = [\n    {\n        \"prompt\": \"{} 打的是什么运动\",\n        \"subject\": \"勒布朗·詹姆斯\",\n        \"target_new\": {\n            \"str\": \"足球\"\n        }\n    },\n    {\n        \"prompt\": \"{} 打的是什么运动\",\n        \"subject\": \"迈克尔·乔丹\",\n        \"target_new\": {\n            \"str\": \"棒球\"\n        }\n    },\n]\n```\n\n笔记本中还包含其他类似的示例。\n\n## 运行完整评估套件\n\n[`experiments\u002Fevaluate.py`](experiments\u002Fevaluate.py) 可用于评估 [`baselines\u002F`](baselines\u002F) 中的任何方法。\n\n例如：\n```\npython3 -m experiments.evaluate \\\n    --alg_name=MEMIT \\\n    --model_name=EleutherAI\u002Fgpt-j-6B \\\n    --hparams_fname=EleutherAI_gpt-j-6B.json \\\n    --num_edits=10000 \\\n    --use_cache\n```\n\n每次运行的结果都会以特定格式存储在 `results\u002F\u003Cmethod_name>\u002Frun_\u003Crun_id>` 中：\n```bash\nresults\u002F\n|__ MEMIT\u002F\n    |__ run_\u003Crun_id>\u002F\n        |__ params.json\n        |__ case_0.json\n        |__ case_1.json\n        |__ ...\n        |__ case_10000.json\n```\n\n要总结结果，可以使用 [`experiments\u002Fsummarize.py`](experiments\u002Fsummarize.py)：\n```bash\npython3 -m experiments.summarize --dir_name=MEMIT --runs=run_\u003Crun1>,run_\u003Crun2>\n```\n\n运行 `python3 -m experiments.evaluate -h` 或 `python3 -m experiments.summarize -h` 可以获取关于命令行参数的详细信息。\n\n## 如何引用\n\n```bibtex\n@article{meng2022memit,\n  title={Mass Editing Memory in a Transformer},\n  author={Kevin Meng and Sen Sharma, Arnab and Alex Andonian and Yonatan Belinkov and David Bau},\n  journal={arXiv preprint arXiv:2210.07229},\n  year={2022}\n}\n```","# MEMIT 快速上手指南\n\nMEMIT (Mass-Editing Memory in a Transformer) 是一个用于在 Transformer 模型中一次性编辑数千个事实记忆的开源工具。本指南将帮助中国开发者快速完成环境配置并运行基础示例。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+) 或 macOS。\n*   **硬件**: 支持 CUDA 的 NVIDIA GPU（建议显存 16GB 以上以运行 6B 参数模型）。\n*   **前置依赖**:\n    *   **Conda**: 必须安装 Miniconda 或 Anaconda 用于管理 Python、CUDA 和 PyTorch 环境。\n    *   **Git**: 用于克隆代码仓库。\n    *   **Python**: 建议版本 3.8 或更高（将通过 Conda 自动配置）。\n\n> **提示**：国内用户建议在安装 Conda 包时配置清华源或中科大源以加速下载。\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fkmeng01\u002Fmemit.git\n    cd memit\n    ```\n\n2.  **配置 Conda 环境**\n    项目提供了自动化脚本来创建包含正确版本 PyTorch 和 CUDA 的环境。请将 `$CONDA_HOME` 替换为您实际的 Conda 安装路径（例如 `~\u002Fminiconda3` 或 `~\u002Fanaconda3`），然后执行：\n\n    ```bash\n    CONDA_HOME=~\u002Fminiconda3 .\u002Fscripts\u002Fsetup_conda.sh\n    ```\n\n    *注意：如果脚本执行过程中下载缓慢，可手动编辑 `setup_conda.sh` 中的 `conda install` 命令，添加 `-c https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Fmain\u002F` 等国内镜像源参数。*\n\n3.  **激活环境**\n    脚本运行完成后，激活新创建的环境（通常名为 `memit`）：\n    ```bash\n    conda activate memit\n    ```\n\n## 基本使用\n\nMEMIT 的核心功能是通过简单的 API 请求来修改模型记忆。最便捷的方式是运行官方提供的 Jupyter Notebook 演示。\n\n### 1. 启动演示 Notebook\n在项目根目录下启动 Jupyter：\n```bash\njupyter notebook notebooks\u002Fmemit.ipynb\n```\n\n### 2. 定义编辑请求\n在 Notebook 中，您可以定义一个包含多个编辑任务的列表。每个任务指定提示词模板、主体对象以及需要改写的新目标值。\n\n以下是最简单的使用示例代码：\n\n```python\nrequest = [\n    {\n        \"prompt\": \"{} plays the sport of\",\n        \"subject\": \"LeBron James\",\n        \"target_new\": {\n            \"str\": \"football\"\n        }\n    },\n    {\n        \"prompt\": \"{} plays the sport of\",\n        \"subject\": \"Michael Jordan\",\n        \"target_new\": {\n            \"str\": \"baseball\"\n        }\n    },\n]\n```\n\n### 3. 执行编辑\n在 Notebook 中继续运行后续单元格，加载预训练模型（如 GPT-J 6B）并应用上述 `request`。执行后，模型将更新其内部记忆，使得在回答关于 \"LeBron James\" 的运动项目时输出 \"football\"，而非原始训练数据中的篮球。\n\n> **进阶提示**：若需进行大规模评估（如编辑 10,000 条事实），可使用命令行工具：\n> ```bash\n> python3 -m experiments.evaluate \\\n>     --alg_name=MEMIT \\\n>     --model_name=EleutherAI\u002Fgpt-j-6B \\\n>     --hparams_fname=EleutherAI_gpt-j-6B.json \\\n>     --num_edits=10000 \\\n>     --use_cache\n> ```","某大型游戏工作室正在为一款历史题材的开放世界游戏构建动态剧情系统，需要让内置的 AI NPC 实时掌握数千条新设定的虚构历史事实。\n\n### 没有 memit 时\n- **更新效率极低**：每修改一条世界观设定（如“某国王死于瘟疫”），都需重新微调整个模型或准备海量训练数据，耗时数小时甚至数天。\n- **知识覆盖受限**：无法一次性批量注入成千上万条新事实，导致剧情更新只能零碎进行，严重影响版本迭代速度。\n- **旧知遗忘严重**：传统微调在写入新知识时，极易破坏模型原有的语言能力和常识，导致 NPC 说话逻辑混乱。\n- **资源成本高昂**：频繁的全量训练需要消耗巨大的 GPU 算力和存储资源，中小团队难以负担。\n- **精确度不可控**：难以确保模型精准记住特定事实，NPC 经常混淆人物关系或事件细节，破坏沉浸感。\n\n### 使用 memit 后\n- **即时批量编辑**：memit 支持一次性将数千条新事实直接写入 Transformer 内存，几分钟内即可完成全量剧情设定的更新。\n- **规模化知识注入**：能够轻松处理大规模的事实编辑请求，完美适配游戏中庞大的架空历史数据库，实现剧情无缝切换。\n- **保留原有能力**：算法在修改特定记忆的同时，有效保护了模型的其他参数，确保 NPC 的语言流畅度和通用常识不受影响。\n- **大幅降低成本**：无需昂贵的重新训练过程，仅需少量计算资源即可在本地完成编辑，显著降低了开发运维门槛。\n- **事实精准定位**：通过精准的内存定位机制，确保 NPC 能准确复述每一条新设定，人物关系和事件因果清晰无误。\n\nmemit 通过将大模型从“静态知识库”转变为可实时、批量且精准更新的“动态记忆体”，彻底解决了垂直领域知识快速迭代的难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkmeng01_memit_0cfb50b6.png","kmeng01","Kevin Meng","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkmeng01_90fe6c23.jpg",null,"kevin.meng.01@gmail.com","mengk20","mengk.me","https:\u002F\u002Fgithub.com\u002Fkmeng01",[81,85,89],{"name":82,"color":83,"percentage":84},"Python","#3572A5",78.1,{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",20.9,{"name":90,"color":91,"percentage":92},"Shell","#89e051",1,543,72,"2026-04-12T08:51:55","MIT","未说明","必需（隐含），需支持 CUDA 的 NVIDIA GPU，具体型号和显存大小取决于所选模型（如运行 GPT-J-6B 通常建议 16GB+ 显存），CUDA 版本由 conda 环境自动配置","未说明（运行 6B 参数模型及大规模编辑实验通常建议 32GB+）",{"notes":101,"python":102,"dependencies":103},"官方强烈建议使用 conda 管理 Python、CUDA 和 PyTorch 环境，并通过提供的 setup_conda.sh 脚本进行安装。示例中使用了 EleutherAI\u002Fgpt-j-6B 模型，运行完整评估套件（如 10000 次编辑）对硬件资源要求较高。","未说明（通过 conda 脚本自动安装兼容版本）",[104,105,106],"torch","transformers","conda",[108,13,15,14,35],"视频",[110,111,112,113],"gpt","transformer","editing","pytorch","2026-03-27T02:49:30.150509","2026-04-13T16:23:33.206126",[117,122,127,132,137],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},31688,"运行 GPT-J-6B 模型时遇到 'NotImplementedError' 错误怎么办？","该错误通常是因为笔记本中使用了通用的 AutoModelForCausalLM。解决方法是将代码中的 \"AutoModelForCausalLM\" 更改为 \"GPTJForCausalLM\"，并移除原笔记本中的一些多余变量。修改后，memit.ipynb 可以在 Google Colab 的单张 premium GPU 上正常运行。","https:\u002F\u002Fgithub.com\u002Fkmeng01\u002Fmemit\u002Fissues\u002F3",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},31689,"如何在多 GPU 环境下运行 MEMIT？","目前官方尚未直接提供多 GPU 支持，但开发者可以自行修改代码实现。主要需要更改三点：1) 加载模型时使用 device=\"auto\"；2) 当两个张量位于不同设备时，需手动将其中一个移动到另一个的设备上（例如：执行 x = a + b 前，先执行 b = b.to(a)）；3) 清理 memit_main 中无效的 GPU 内存清理代码，以适应较小的显存。","https:\u002F\u002Fgithub.com\u002Fkmeng01\u002Fmemit\u002Fissues\u002F5",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},31690,"遇到 'IndexError: tuple index out of range' 错误如何处理？","此错误通常是由于依赖库版本不匹配导致的。请避免跳过环境配置脚本，务必安装 setup_conda.sh 文件中指定版本的依赖库。在 Docker 容器中运行时，也需确保 conda 路径正确并执行该脚本以安装正确版本。","https:\u002F\u002Fgithub.com\u002Fkmeng01\u002Fmemit\u002Fissues\u002F9",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},31691,"优化过程在第一步后就停止不再更新，这是正常现象吗？","这不是正常现象。该问题是由代码中 `delta` 变量的别名引用 bug 引起的，导致优化器修改的张量与正在更新的 `delta` 不一致。该问题已在后续修复中解决，如果遇到此情况，请拉取最新的代码更新。","https:\u002F\u002Fgithub.com\u002Fkmeng01\u002Fmemit\u002Fissues\u002F14",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},31692,"遇到 'AttributeError: MyVectorizer object has no attribute _tfidf' 错误怎么办？","这是因为当前使用的库版本与代码调用方式不兼容。解决方案是降级并使用旧版本的相关库，以确保代码能正确访问 `_tfidf` 属性。","https:\u002F\u002Fgithub.com\u002Fkmeng01\u002Fmemit\u002Fissues\u002F21",[]]