[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-JusticeRage--Gepetto":3,"similar-JusticeRage--Gepetto":123},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":17,"owner_email":17,"owner_twitter":14,"owner_website":19,"owner_url":20,"languages":21,"stars":30,"forks":31,"last_commit_at":32,"license":33,"difficulty_score":34,"env_os":35,"env_gpu":36,"env_ram":37,"env_deps":38,"category_tags":44,"github_topics":47,"view_count":34,"oss_zip_url":17,"oss_zip_packed_at":17,"status":53,"created_at":54,"updated_at":55,"faqs":56,"releases":92},5556,"JusticeRage\u002FGepetto","Gepetto","IDA plugin which queries language models to speed up reverse-engineering","Gepetto 是一款专为 IDA Pro（7.6 及以上版本）设计的智能插件，旨在利用大语言模型加速软件逆向工程过程。在逆向分析中，面对经过混淆或剥离符号的二进制文件，理解函数逻辑和变量含义往往是最耗时且最具挑战性的环节。Gepetto 通过调用各类主流 AI 模型，能够自动解读反编译后的伪代码，生成通俗易懂的功能解释，并智能地重命名晦涩的变量名，从而将原本枯燥的汇编分析转化为清晰的逻辑阅读体验。\n\n这款工具特别适合安全研究人员、恶意软件分析师以及二进制逆向工程师使用。无论是需要快速梳理未知样本行为的专业人士，还是希望提升分析效率的开发者，都能从中受益。Gepetto 的核心亮点在于其广泛的模型兼容性，不仅支持 OpenAI、Google Gemini、Azure 等云端服务，还完美适配 Ollama、LM Studio 等本地部署方案，让用户在保障数据隐私的同时也能享受 AI 带来的便利。只需在 IDA 的伪代码窗口右键点击，即可在数秒内获得高质量的分析建议，显著降低逆向工程的门槛与时间成本。","# Gepetto\r\n\r\nGepetto is a Python plugin which uses various large language models to provide meaning to functions \r\ndecompiled by IDA Pro (≥ 7.6). It can leverage them to explain what a function does, and to automatically \r\nrename its variables. Here is a simple example of what results it can provide in mere seconds:\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJusticeRage_Gepetto_readme_cf18efa794c1.png)\r\n\r\n## Setup\r\n\r\n### Using hcli (Recommended)\r\nThe easiest way to install Gepetto is using the [Hex-Rays CLI tool (hcli)](https:\u002F\u002Fgithub.com\u002FHexRaysSA\u002Fida-hcli):\r\n```bash\r\npip install ida-hcli\r\nhcli plugin install gepetto\r\n```\r\n\r\nThis will automatically install the plugin to your IDA user directory.\r\n\r\n### Manual Installation\r\nAlternatively, you can manually install the plugin:\r\n1. Drop this script (`gepetto.py`, as well as the `gepetto\u002F` folder) into your IDA plugins folder (`$IDAUSR\u002Fplugins`).\r\n2. The plugins directory location depends on your system:\r\n   - **Windows**: `%APPDATA%\\Hex-Rays\\IDA Pro\\plugins\\`\r\n   - **macOS**: `~\u002FLibrary\u002FApplication Support\u002FIDA Pro\u002Fplugins\u002F`\r\n   - **Linux**: `~\u002F.idapro\u002Fplugins\u002F`\r\n3. Install the required packages to IDA's Python installation. Find which interpreter IDA is using by checking the following registry key:\r\n   `Computer\\HKEY_CURRENT_USER\\Software\\Hex-Rays\\IDA` (default on Windows: `%LOCALAPPDATA%\\Programs\\Python\\Python39`).\r\n4. With the corresponding interpreter, simply run:\r\n   ```bash\r\n   [\u002Fpath\u002Fto\u002Fpython] -m pip install -r requirements.txt\r\n   ```\r\n\r\n⚠️ You will also need to edit the configuration file (found as `gepetto\u002Fconfig.ini`) and add your own API keys. For \r\nOpenAI, it can be found on [this page](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys).\r\nPlease note that API queries are usually not free (although not very expensive) and you will need to set up a payment \r\nmethod with the corresponding provider.\r\n\r\n## Supported models\r\n\r\n- [OpenAI](https:\u002F\u002Fplayground.openai.com\u002F)\r\n  - gpt-5\r\n  - gpt-5-mini\r\n  - gpt-5-nano\r\n  - gpt-4-turbo\r\n  - gpt-4o\r\n  - o4-mini\r\n  - gpt-4.1\r\n  - o3\r\n  - o3-pro\r\n- [Google Gemini](https:\u002F\u002Fai.google.dev\u002F)\r\n  - gemini-2.0-flash\r\n  - gemini-2.5-pro\r\n  - gemini-2.5-flash\r\n  - gemini-2.5-flash-lite-preview-06-17\r\n- [Azure OpenAI](https:\u002F\u002Fai.azure.com\u002F)\r\n  - gpt-35-turbo\r\n  - gpt-35-turbo-1106\r\n  - gpt-35-turbo-16k\r\n  - gpt-4-turbo\r\n  - gpt-4-turbo-2024-0409-gs\r\n- [Ollama](https:\u002F\u002Follama.com\u002F)\r\n  - Any local model exposed through Ollama (will not appear if Ollama is not running)\r\n- [Groq](https:\u002F\u002Fconsole.groq.com\u002Fplayground)\r\n  - llama-3.1-70b-versatile\r\n  - llama-3.2-90b-text-preview\r\n  - mixtral-8x7b-32768\r\n- [Together](https:\u002F\u002Fapi.together.ai\u002F)\r\n  - mistralai\u002FMixtral-8x22B-Instruct-v0.1 (does not support renaming variables)\r\n- [Novita AI](https:\u002F\u002Fnovita.ai\u002F)\r\n  - deepseek\u002Fdeepseek-r1\r\n  - deepseek\u002Fdeepseek-v3\r\n  - meta-llama\u002Fllama-3.3-70b-instruct\r\n  - meta-llama\u002Fllama-3.1-70b-instruct\r\n  - meta-llama\u002Fllama-3.1-405b-instruct\r\n- [Kluster.ai](https:\u002F\u002Fkluster.ai\u002F)\r\n  - deepseek-ai\u002FDeepSeek-R1\r\n  - deepseek-ai\u002FDeepSeek-V3-0324\r\n  - google\u002Fgemma-3-27b-it\r\n  - klusterai\u002FMeta-Llama-3.1-8B-Instruct-Turbo\r\n  - klusterai\u002FMeta-Llama-3.1-405B-Instruct-Turbo\r\n  - klusterai\u002FMeta-Llama-3.3-70B-Instruct-Turbo\r\n  - meta-llama\u002FLlama-4-Maverick-17B-128E-Instruct-FP8\r\n  - meta-llama\u002FLlama-4-Scout-17B-16E-Instruct\r\n  - Qwen\u002FQwen2.5-VL-7B-Instruct\r\n- [LM Studio](https:\u002F\u002Flmstudio.ai\u002F)\r\n  - Any local model exposed through LM Studio (will not appear if LM Studio Developer server is not running)\r\n\r\nAdding support for additional models shouldn't be too difficult, provided whatever provider you're considering exposes\r\nan API similar to OpenAI's. Look into the `gepetto\u002Fmodels` folder for inspiration, or open an issue if you can't figure\r\nit out.\r\n\r\n## Usage\r\n\r\nOnce the plugin is installed properly, you should be able to invoke it from the context menu of IDA's pseudocode window,\r\nas shown in the screenshot below:\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJusticeRage_Gepetto_readme_7efa9e5fe582.png)\r\n\r\nSwitch between models supported by Gepetto from the Edit > Gepetto menu:\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJusticeRage_Gepetto_readme_e4578658d71c.png)\r\n\r\nGepetto also provides a CLI interface you can use to ask questions to the LLM directly from IDA. Make sure to select\r\n`Gepetto` in the input bar:\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJusticeRage_Gepetto_readme_346a9d61d8ae.png)\r\n\r\n### Hotkeys\r\n\r\nThe following hotkeys are available:\r\n\r\n- Ask the model to explain the function: `Ctrl` + `Alt` + `G`\r\n- Ask the model to add comments to the code: `Ctrl` + `Alt` + `K`\r\n- Request better names for the function's variables: `Ctrl` + `Alt` + `R`\r\n\r\nInitial testing shows that asking for better names works better if you ask for an explanation of the function first – I\r\nassume because the model then uses its own comment to make more accurate suggestions.\r\nThere is an element of randomness to the AI's replies. If for some reason the initial response you get doesn't suit you,\r\nyou can always run the command again.\r\n\r\n## Limitations\r\n\r\n- The plugin requires access to the HexRays decompiler to function.\r\n- All supported LLMs are general-purpose and may very well get things wrong! Always be \r\n  critical of results returned!\r\n\r\n## Translations\r\n\r\nYou can change Gepetto's language by editing the locale in the configuration. For instance, to use the plugin\r\nin French, you would simply add:\r\n\r\n```ini\r\n[Gepetto]\r\nLANGUAGE = \"fr_FR\"\r\n```\r\n\r\nThe chosen locale must match the folder names in `gepetto\u002Flocales`. If the desired language isn't available,\r\nyou can contribute to the project by adding it yourself! Create a new folder for the desired locale\r\n(ex: `gepetto\u002Flocales\u002Fde_DE\u002FLC_MESSAGES\u002F`), and open a new pull request with the updated `.po` file, which you can\r\ncreate by copying and editing `gepetto\u002Flocales\u002Fgepetto.pot` (replace all the lines starting with `msgstr` with the\r\nlocalized version).\r\n\r\n## Acknowledgements\r\n\r\n- [OpenAI](https:\u002F\u002Fopenai.com), for making these incredible models, obviously\r\n- [Hex Rays](https:\u002F\u002Fhex-rays.com\u002F), the makers of IDA for their lightning fast support\r\n- [Kaspersky](https:\u002F\u002Fkaspersky.com), for initially funding this project\r\n- [HarfangLab](https:\u002F\u002Fharfanglab.io\u002F), the current backer making this work possible\r\n- [@vanhauser-thc](https:\u002F\u002Fgithub.com\u002Fvanhauser-thc) for contributing ideas of additional models and providers to support via his [fork](https:\u002F\u002Fgithub.com\u002Fvanhauser-thc\u002Fgepetto\u002F)\r\n- Everyone who contributed translations: @seifreed, @kot-igor, @ruzgarkanar, @orangetw\r\n","# Gepetto\n\nGepetto 是一个 Python 插件，它利用多种大型语言模型为 IDA Pro（≥ 7.6）反编译后的函数赋予语义。它可以借助这些模型来解释函数的功能，并自动重命名其变量。以下是一个简单的示例，展示了它能在短短几秒钟内提供的结果：\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJusticeRage_Gepetto_readme_cf18efa794c1.png)\n\n## 安装\n\n### 使用 hcli（推荐）\n安装 Gepetto 最简单的方式是使用 [Hex-Rays CLI 工具 (hcli)](https:\u002F\u002Fgithub.com\u002FHexRaysSA\u002Fida-hcli)：\n```bash\npip install ida-hcli\nhcli plugin install gepetto\n```\n\n这会自动将插件安装到你的 IDA 用户目录中。\n\n### 手动安装\n你也可以手动安装插件：\n1. 将此脚本（`gepetto.py` 以及 `gepetto\u002F` 文件夹）放入你的 IDA 插件目录（`$IDAUSR\u002Fplugins`）。\n2. 插件目录的位置取决于你的操作系统：\n   - **Windows**：`%APPDATA%\\Hex-Rays\\IDA Pro\\plugins\\`\n   - **macOS**：`~\u002FLibrary\u002FApplication Support\u002FIDA Pro\u002Fplugins\u002F`\n   - **Linux**：`~\u002F.idapro\u002Fplugins\u002F`\n3. 在 IDA 的 Python 环境中安装所需的包。你可以通过检查以下注册表项来确定 IDA 使用的解释器：\n   `Computer\\HKEY_CURRENT_USER\\Software\\Hex-Rays\\IDA`（Windows 默认路径：`%LOCALAPPDATA%\\Programs\\Python\\Python39`）。\n4. 使用相应的解释器运行：\n   ```bash\n   [\u002Fpath\u002Fto\u002Fpython] -m pip install -r requirements.txt\n   ```\n\n⚠️ 你还需要编辑配置文件（位于 `gepetto\u002Fconfig.ini`），并添加你自己的 API 密钥。对于 OpenAI，可以在 [这个页面](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys) 找到 API 密钥。请注意，API 查询通常不是免费的（尽管费用不高），你需要向相应的提供商设置支付方式。\n\n## 支持的模型\n\n- [OpenAI](https:\u002F\u002Fplayground.openai.com\u002F)\n  - gpt-5\n  - gpt-5-mini\n  - gpt-5-nano\n  - gpt-4-turbo\n  - gpt-4o\n  - o4-mini\n  - gpt-4.1\n  - o3\n  - o3-pro\n- [Google Gemini](https:\u002F\u002Fai.google.dev\u002F)\n  - gemini-2.0-flash\n  - gemini-2.5-pro\n  - gemini-2.5-flash\n  - gemini-2.5-flash-lite-preview-06-17\n- [Azure OpenAI](https:\u002F\u002Fai.azure.com\u002F)\n  - gpt-35-turbo\n  - gpt-35-turbo-1106\n  - gpt-35-turbo-16k\n  - gpt-4-turbo\n  - gpt-4-turbo-2024-0409-gs\n- [Ollama](https:\u002F\u002Follama.com\u002F)\n  - 任何通过 Ollama 暴露的本地模型（如果 Ollama 未运行，则不会显示）\n- [Groq](https:\u002F\u002Fconsole.groq.com\u002Fplayground)\n  - llama-3.1-70b-versatile\n  - llama-3.2-90b-text-preview\n  - mixtral-8x7b-32768\n- [Together](https:\u002F\u002Fapi.together.ai\u002F)\n  - mistralai\u002FMixtral-8x22B-Instruct-v0.1（不支持重命名变量）\n- [Novita AI](https:\u002F\u002Fnovita.ai\u002F)\n  - deepseek\u002Fdeepseek-r1\n  - deepseek\u002Fdeepseek-v3\n  - meta-llama\u002Fllama-3.3-70b-instruct\n  - meta-llama\u002Fllama-3.1-70b-instruct\n  - meta-llama\u002Fllama-3.1-405b-instruct\n- [Kluster.ai](https:\u002F\u002Fkluster.ai\u002F)\n  - deepseek-ai\u002FDeepSeek-R1\n  - deepseek-ai\u002FDeepSeek-V3-0324\n  - google\u002Fgemma-3-27b-it\n  - klusterai\u002FMeta-Llama-3.1-8B-Instruct-Turbo\n  - klusterai\u002FMeta-Llama-3.1-405B-Instruct-Turbo\n  - klusterai\u002FMeta-Llama-3.3-70B-Instruct-Turbo\n  - meta-llama\u002FLlama-4-Maverick-17B-128E-Instruct-FP8\n  - meta-llama\u002FLlama-4-Scout-17B-16E-Instruct\n  - Qwen\u002FQwen2.5-VL-7B-Instruct\n- [LM Studio](https:\u002F\u002Flmstudio.ai\u002F)\n  - 任何通过 LM Studio 暴露的本地模型（如果 LM Studio Developer 服务器未运行，则不会显示）\n\n只要你考虑的提供商提供与 OpenAI 类似的 API，添加对其他模型的支持应该并不困难。可以参考 `gepetto\u002Fmodels` 文件夹获取灵感，或者如果你无法解决，可以直接提交问题。\n\n## 使用方法\n\n插件正确安装后，你应该能够在 IDA 的伪代码窗口的上下文菜单中调用它，如下图所示：\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJusticeRage_Gepetto_readme_7efa9e5fe582.png)\n\n你可以在“编辑 > Gepetto”菜单中切换 Gepetto 支持的模型：\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJusticeRage_Gepetto_readme_e4578658d71c.png)\n\nGepetto 还提供了一个命令行界面，你可以在 IDA 中直接向 LLM 提问。请确保在输入栏中选择“Gepetto”：\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJusticeRage_Gepetto_readme_346a9d61d8ae.png)\n\n### 快捷键\n\n以下是可用的快捷键：\n- 请求模型解释函数：`Ctrl` + `Alt` + `G`\n- 请求模型为代码添加注释：`Ctrl` + `Alt` + `K`\n- 请求为函数的变量生成更好的名称：`Ctrl` + `Alt` + `R`\n\n初步测试表明，先请求函数解释后再请求更好的变量名效果更好——我推测这是因为模型会利用其自身的注释来提出更准确的建议。AI 的回复带有一定的随机性。如果初次得到的响应不符合你的期望，你可以随时再次执行该命令。\n\n## 限制\n\n- 该插件需要访问 HexRays 反编译器才能正常工作。\n- 所有支持的 LLM 都是通用型模型，可能会出错！务必对返回的结果保持批判性思维！\n\n## 翻译\n\n你可以通过编辑配置中的 locale 来更改 Gepetto 的语言。例如，要以法语使用该插件，只需添加：\n```ini\n[Gepetto]\nLANGUAGE = \"fr_FR\"\n```\n\n所选的 locale 必须与 `gepetto\u002Flocales` 中的文件夹名称匹配。如果所需的语言尚未提供，你可以通过自行添加来为项目贡献力量！为所需的语言创建一个新的文件夹（例如：`gepetto\u002Flocales\u002Fde_DE\u002FLC_MESSAGES\u002F`），然后提交包含更新后的 `.po` 文件的新拉取请求。你可以通过复制并编辑 `gepetto\u002Flocales\u002Fgepetto.pot` 来创建 `.po` 文件（将所有以 `msgstr` 开头的行替换为本地化版本）。\n\n## 致谢\n\n- [OpenAI](https:\u002F\u002Fopenai.com)，显然感谢他们提供了这些令人惊叹的模型。\n- [Hex Rays](https:\u002F\u002Fhex-rays.com\u002F)——IDA 的开发者，感谢他们迅速的支持。\n- [卡巴斯基](https:\u002F\u002Fkaspersky.com)，最初资助了该项目。\n- [HarfangLab](https:\u002F\u002Fharfanglab.io\u002F)——目前的支持者，使这项工作成为可能。\n- [@vanhauser-thc](https:\u002F\u002Fgithub.com\u002Fvanhauser-thc)，通过他的 [fork](https:\u002F\u002Fgithub.com\u002Fvanhauser-thc\u002Fgepetto\u002F) 贡献了更多模型和提供商的想法。\n- 所有贡献翻译的人员：@seifreed、@kot-igor、@ruzgarkanar、@orangetw。","# Gepetto 快速上手指南\n\nGepetto 是一款专为 IDA Pro (≥ 7.6) 设计的 Python 插件，利用大语言模型（LLM）自动解释反编译函数的功能并重命名变量，显著提升逆向分析效率。\n\n## 环境准备\n\n*   **操作系统**：Windows, macOS, 或 Linux\n*   **核心软件**：IDA Pro 7.6 或更高版本（必须安装 HexRays 反编译器）\n*   **Python 环境**：需与 IDA Pro 使用的 Python 解释器版本一致\n    *   *查看方法*：检查注册表 `Computer\\HKEY_CURRENT_USER\\Software\\Hex-Rays\\IDA` (Windows) 或在 IDA 输出窗口查看启动信息。\n*   **API 密钥**：需准备至少一个支持的 LLM 提供商 API Key（如 OpenAI, Google Gemini, Groq, Novita AI 等）。\n    *   *注意*：大多数模型调用会产生费用，请确保账户已绑定支付方式。\n\n## 安装步骤\n\n### 方法一：使用 hcli 工具（推荐）\n\n这是最简便的安装方式，会自动处理依赖和路径。\n\n```bash\npip install ida-hcli\nhcli plugin install gepetto\n```\n\n### 方法二：手动安装\n\n1.  **复制文件**：将 `gepetto.py` 文件和 `gepetto\u002F` 文件夹复制到 IDA 的插件目录：\n    *   **Windows**: `%APPDATA%\\Hex-Rays\\IDA Pro\\plugins\\`\n    *   **macOS**: `~\u002FLibrary\u002FApplication Support\u002FIDA Pro\u002Fplugins\u002F`\n    *   **Linux**: `~\u002F.idapro\u002Fplugins\u002F`\n\n2.  **安装依赖**：使用 IDA 对应的 Python 解释器安装所需包。\n    ```bash\n    [\u002Fpath\u002Fto\u002Fida\u002Fpython] -m pip install -r requirements.txt\n    ```\n    *(注：请将 `[\u002Fpath\u002Fto\u002Fida\u002Fpython]` 替换为实际的 Python 路径，国内用户可添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 加速下载)*\n\n3.  **配置 API Key**：\n    编辑 `gepetto\u002Fconfig.ini` 文件，填入你的 API 密钥。例如配置 OpenAI：\n    ```ini\n    [OpenAI]\n    API_KEY = sk-your-api-key-here\n    ```\n    *支持模型包括 OpenAI (gpt-4o 等), Google Gemini, Azure, Ollama (本地), Groq, Novita AI 等，具体请参考配置文件中的模型列表。*\n\n## 基本使用\n\n安装并配置完成后，重启 IDA Pro。\n\n### 1. 切换模型\n在 IDA 菜单栏选择 `Edit` > `Gepetto`，从列表中选择你想要使用的 LLM 模型。\n\n### 2. 功能快捷键\n在 IDA 的伪代码窗口（Pseudocode window）中选中任意函数，使用以下快捷键：\n\n*   **解释函数功能**：`Ctrl` + `Alt` + `G`\n    *   *建议先执行此操作，有助于后续重命名更准确。*\n*   **自动添加代码注释**：`Ctrl` + `Alt` + `K`\n*   **智能重命名变量**：`Ctrl` + `Alt` + `R`\n\n### 3. CLI 交互模式\n你也可以直接在 IDA 底部的输入框中选择 `Gepetto` 作为上下文，直接向模型提问关于当前函数的具体问题。\n\n> **提示**：AI 生成的结果具有随机性。如果对首次结果不满意，可再次运行相同命令获取新的建议。请务必对 AI 生成的代码逻辑保持批判性验证。","某安全研究员正在对一款未知的恶意软件样本进行逆向分析，面对 IDA Pro 生成的成百上千个晦涩难懂的伪代码函数，急需快速理清其核心逻辑。\n\n### 没有 Gepetto 时\n- 分析师必须逐行阅读汇编或伪代码，人工推导每个变量的用途，面对 `v1`、`v2` 这种无意义命名极易迷失方向。\n- 理解复杂加密算法或系统调用逻辑需要耗费数小时查阅文档和反复调试，分析效率极低。\n- 在重命名变量和函数时完全依赖个人经验，不仅耗时费力，还容易因主观误判导致后续分析偏差。\n- 遇到混淆代码时，往往需要手动编写脚本或借助其他辅助工具才能窥见一斑，工作流频繁中断。\n\n### 使用 Gepetto 后\n- Gepetto 能瞬间读取当前函数上下文，利用大模型自动生成通俗易懂的自然语言解释，直接说明“这段代码在做什么”。\n- 它自动将 `v1`、`v2` 等默认变量名重构为具有语义的名称（如 `encryption_key`、`socket_fd`），让代码逻辑一目了然。\n- 原本需要数小时分析的复杂函数，现在几秒钟内即可获得关键逻辑摘要，大幅缩短了从加载样本到定位恶意行为的时间。\n- 分析师只需在伪代码窗口右键点击即可触发分析，无需切换工具或手动编写脚本，保持了流畅的逆向心流。\n\nGepetto 通过将大模型的代码理解能力无缝融入 IDA 工作流，把逆向工程师从繁琐的代码“翻译”工作中解放出来，使其能专注于高阶的安全威胁研判。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJusticeRage_Gepetto_cf18efa7.png","JusticeRage","Ivan Kwiatkowski","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FJusticeRage_9d41b791.png",null,"Meta","https:\u002F\u002Finfosec.exchange\u002F@justicerage\u002F","https:\u002F\u002Fgithub.com\u002FJusticeRage",[22,26],{"name":23,"color":24,"percentage":25},"Python","#3572A5",100,{"name":27,"color":28,"percentage":29},"Shell","#89e051",0,3389,327,"2026-04-07T10:36:30","GPL-3.0",2,"Windows, macOS, Linux","未说明（主要依赖云端 API 或本地 Ollama\u002FLM Studio 服务，插件本身无特定 GPU 要求）","未说明",{"notes":39,"python":40,"dependencies":41},"1. 必须安装 IDA Pro (版本 ≥ 7.6) 并拥有 HexRays 反编译器授权。2. 需在配置文件中设置大模型服务商的 API Key（支持 OpenAI, Google Gemini, Azure, Ollama, Groq 等），大部分服务需付费。3. 若使用 Ollama 或 LM Studio 运行本地模型，需确保对应服务已在后台运行。4. 插件通过 IDA 的伪代码窗口上下文菜单或快捷键调用。","需与 IDA Pro 使用的 Python 解释器版本一致（示例中提及 Windows 默认可能为 Python 3.9）",[42,43],"ida-hcli (可选，用于安装)","requirements.txt 中定义的库 (具体列表未在 README 中展开)",[45,46],"语言模型","插件",[48,49,50,51,52],"ida-pro","reverse-engineering","openai","python","gpt-5-api","ready","2026-03-27T02:49:30.150509","2026-04-08T22:43:24.699866",[57,62,67,72,77,82,87],{"id":58,"question_zh":59,"answer_zh":60,"source_url":61},25210,"遇到 SSL 模块不可用错误（Can't connect to HTTPS URL because the SSL module is not available）怎么办？","这通常是因为 IDA 绑定的 Python 版本过旧或缺少 SSL 支持。解决方案是切换 IDA 使用的 Python 版本到较新的版本（如 Python 3.10 或 3.11）。\n具体步骤：\n1. 运行 `idapyswitch.exe` 工具。\n2. 选择已安装的 Python 3.10 或 3.11 版本。\n3. 重启 IDA，插件即可正常工作。","https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fissues\u002F22",{"id":63,"question_zh":64,"answer_zh":65,"source_url":66},25211,"使用 LMStudio 本地模型时流式模式（streaming mode）不工作或无法连接怎么办？","如果是缺少参数导致的问题，请确保配置正确。对于 LMStudio，需要在 `config.ini` 中设置 `BASE_URL` 指向本地服务地址。\n配置示例：\n```\n[Gepetto]\nMODEL = qwq-32b\nBASE_URL = http:\u002F\u002F127.0.0.1:1234\n```\n注意：某些情况下问题并非由强制设置 `stream=true` 解决，而是需要检查是否遗漏了必要的连接参数。如果插件未显示，请检查输出窗口是否有报错，通常是因为未提供有效的 LLM 配置。","https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fissues\u002F123",{"id":68,"question_zh":69,"answer_zh":70,"source_url":71},25212,"点击插件功能后控制台只显示\"Request sent...\"但没有任何反应或结果，原因是什么？","这种情况通常由以下两个原因导致：\n1. **网络问题**：检查网络连接是否正常，特别是访问 API 服务商的网络状况。\n2. **API Key 无效**：确认配置的 API Key 是否正确且有效。\n请仔细查看输出窗口中的详细错误信息（例如 `invalid_api_key`），根据具体错误代码进行排查。","https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fissues\u002F21",{"id":73,"question_zh":74,"answer_zh":75,"source_url":76},25213,"在 IDA 9.0 中插件不显示或无法通过 CLI 正常工作怎么办？","如果插件在 IDA 9.0 中不显示，首先请检查输出窗口（Output Window）是否有错误消息。如果没有提供有效的 LLM 配置，插件将不会加载。\n对于使用 LMStudio 本地模型的用户，请确保 `config.ini` 文件中正确配置了 `BASE_URL`，例如：\n```\nBASE_URL = http:\u002F\u002F127.0.0.1:1234\n```\n同时确认 `MODEL` 名称与本地运行的模型一致。","https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fissues\u002F44",{"id":78,"question_zh":79,"answer_zh":80,"source_url":81},25214,"如何修复重命名变量时出现的 JSON 解析错误（Error json parse）？","该问题通常是由于模型返回的格式不符合预期导致的。维护者已在后续更新中修复了相关解析逻辑。如果遇到此问题，请尝试：\n1. 更新 Gepetto 插件到最新版本。\n2. 如果问题依旧，检查所选模型是否支持正确的指令遵循能力，某些模型可能无法稳定返回合法的 JSON 格式。\n3. 暂时避免一次性重命名过多变量，尝试逐个操作以定位问题。","https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fissues\u002F10",{"id":83,"question_zh":84,"answer_zh":85,"source_url":86},25215,"是否可以将默认模型替换为其他模型（如 text-davinci-002-render 或免费测试模型）？","虽然技术上可以修改代码更换模型，但维护者建议不要随意替换。经过测试，其他模型（包括一些免费或测试版模型）在解释代码方面的表现往往不如默认的 `davinci-003` 或推荐的 GPT 系列模型。\n除非你有明确证据表明新模型效果更好，否则不建议更改默认配置，以免降低插件的分析质量。如需修改，需编辑 `gepetto.py` 文件中的模型设定行。","https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fissues\u002F7",{"id":88,"question_zh":89,"answer_zh":90,"source_url":91},25216,"是否支持将嵌套函数上下文发送给模型以获得更好的分析结果？","目前该功能不在核心范围内，但社区正在探索相关增强方案。有用户提议通过弹窗输入嵌套深度来发送更多上下文，但这需要额外的开发工作。\n当前版本主要专注于单函数分析。未来可能会通过引入 RAG（检索增强生成）或本地数据库（类似 GhidrAssist 的做法）来解决上下文限制问题，请关注项目后续更新。","https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fissues\u002F119",[93,98,103,108,113,118],{"id":94,"version":95,"summary_zh":96,"released_at":97},154592,"v1.5.1","此版本使 Gepetto 能被 IDA 的插件管理器 hcli 检测到。\n\n## 变更内容\n* ida-plugin.json：由 @williballenthin 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F116 中修复语法问题。\n* 由 @JusticeRage 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F118 中实现工具调用处理与工具代码的解耦。\n* fix(tool)：由 @quippy-dev 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F121 中对名称进行 sanitization 处理，并对结果和错误进行封装。\n* feat(ui)：由 @quippy-dev 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F117 中添加推理流和日志分类。\n* fix：由 @quippy-dev 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F125 中解决兼容性问题和运行时错误。\n* 由 @quippy-dev 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F126 中实现线程安全的 IDA 工具刷新。\n* feat(ui)：由 @quippy-dev 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F127 中为对话视图和日志视图引入可调整大小的分隔条。\n* feat(models)：由 @quippy-dev 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F128 中实现模型的异步发现及菜单刷新。\n* fix(models)：由 @quippy-dev 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F129 中设置 Gemini 的 function_response 调用 ID。\n* feat(ida)：由 @quippy-dev 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F131 中添加新的 IDA 工具和线程安全的帮助函数。\n* 由 @JusticeRage 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F132 中对各语言环境下未翻译的 Gepetto 字符串进行本地化。","2025-11-19T11:35:10",{"id":99,"version":100,"summary_zh":101,"released_at":102},154593,"v1.5.0","## 新特性\n\n* 本版本通过 CLI 暴露大量工具给 LLM，开启了向代理式逆向工程转变的进程。\n* 新增了一个专门用于 Gepetto 的窗口（由 @quippy-dev 完成，他还大幅改进了对 Gemini 的支持）。\n* 许多小的改进和错误修复。\n\n## 变更内容\n* @nonetype 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F48 中添加了对 GPT-4o-mini 的支持。\n* feat: 更新 novita 模型和 README 文件，由 @jasonhp 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F53 中完成。\n* @D3fau4 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F58 中添加了对 LM Studio 的支持。\n* @marsharinco 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F52 中添加了对 DeepSeek-Chat 的支持。\n* @devnoname120 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F61 中修复了当 Ollama 或 LMStudio 未配置时导致的崩溃问题。\n* @felipejfc 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F62 中添加了对 OpenRouter 的支持。\n* @0xa13d 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F66 中添加了对 Azure OpenAI 模型的支持。\n* fix: 该参数的关键字应为 ‘proxy’ 而不是 ‘proxies’，由 @jindaxia 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F68 中修正。\n* @jindaxia 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F69 中新增了三家提供商。\n* @jindaxia 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F71 中添加了一些功能并修复了若干问题。\n* @themacexpert 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F72 中添加了对 kluster.ai 的支持。\n* 加载可用模型时具有更好的错误处理机制 🚀✨，由 @mahmoudimus 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F75 中实现。\n* @mahmoudimus 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F76 中改进了翻译安装流程。\n* @marsharinco 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F80 中添加了对 deepseek-r1 的支持。\n* @Xplo8E 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F83 中增加了对 Gemini 模型的支持。\n* @Albeoris 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F85 中实现了变量重命名的 UI 功能。\n* @Albeoris 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F86 中添加了在 Hex-Rays 伪代码中使用 AI 辅助生成函数注释的功能。\n* @Albeoris 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F87 中添加了对 AI 生成注释的本地化支持。\n* @JusticeRage 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F89 中确保 gettext 字符串存在于所有本地化环境中。\n* @JusticeRage 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F91 中启用了 CLI 工具。\n* @JusticeRage 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F92 中修复了与 OpenAI 兼容插件的配置问题。\n* @JusticeRage 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F93 中添加了自动重命名操作及函数重命名功能。\n* @JusticeRage 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F94 中添加了用于重命名 IDA 局部变量的工具。\n* @JusticeRage 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F95 中添加了用于 IDA 的函数重命名工具。\n* @JusticeRage 在 https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fpull\u002F97 中添加了用于解析符号地址的 get_ea 工具。\n* @JusticeRage 在 https:\u002F\u002Fgithub.co 中添加了用于枚举 IDA 符号的 list_symbols 工具。","2025-10-03T12:19:15",{"id":104,"version":105,"summary_zh":106,"released_at":107},154594,"v1.4.1","错误修复版本 (#45)","2024-09-20T18:58:24",{"id":109,"version":110,"summary_zh":111,"released_at":112},154595,"v1.4","- 现已支持通过 Ollama 暴露的本地模型！\r\n  - Ollama 只有在程序运行时才会出现在菜单中。\r\n- 在 IDA Pro 中新增了 CLI 界面，用户可以直接与选定的模型进行对话。\r\n- 对底层进行了重要重构，以便能够根据所有可用模型动态生成菜单。\r\n  - 此外，这也使得第三方开发者更容易为更多模型添加支持。\n\n![](https:\u002F\u002Fgithub.com\u002FJusticeRage\u002FGepetto\u002Fblob\u002Fmain\u002Freadme\u002Fcli.png?raw=true)\n\n⚠ 新增了一个依赖项（`ollama`），请务必在更新后再次运行 `pip install requirements.txt`！ ⚠","2024-09-18T22:43:56",{"id":114,"version":115,"summary_zh":116,"released_at":117},154596,"v1.3","新增对多种非 OpenAI 模型的支持","2024-06-12T08:21:56",{"id":119,"version":120,"summary_zh":121,"released_at":122},154597,"v1.2","版本1.2","2023-12-18T19:58:51",[124,134,142,152,160,172],{"id":125,"name":126,"github_repo":127,"description_zh":128,"stars":129,"difficulty_score":34,"last_commit_at":130,"category_tags":131,"status":53},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",145895,"2026-04-08T11:32:59",[132,133,45],"开发框架","Agent",{"id":135,"name":136,"github_repo":137,"description_zh":138,"stars":139,"difficulty_score":34,"last_commit_at":140,"category_tags":141,"status":53},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[46,132],{"id":143,"name":144,"github_repo":145,"description_zh":146,"stars":147,"difficulty_score":148,"last_commit_at":149,"category_tags":150,"status":53},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[45,151,133,132],"图像",{"id":153,"name":154,"github_repo":155,"description_zh":156,"stars":157,"difficulty_score":34,"last_commit_at":158,"category_tags":159,"status":53},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[132,45],{"id":161,"name":162,"github_repo":163,"description_zh":164,"stars":165,"difficulty_score":34,"last_commit_at":166,"category_tags":167,"status":53},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85052,"2026-04-08T11:03:08",[151,168,169,46,133,170,45,132,171],"数据工具","视频","其他","音频",{"id":173,"name":174,"github_repo":175,"description_zh":176,"stars":177,"difficulty_score":148,"last_commit_at":178,"category_tags":179,"status":53},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[133,151,132,45,170]]