Gepetto
Gepetto 是一款专为 IDA Pro(7.6 及以上版本)设计的智能插件,旨在利用大语言模型加速软件逆向工程过程。在逆向分析中,面对经过混淆或剥离符号的二进制文件,理解函数逻辑和变量含义往往是最耗时且最具挑战性的环节。Gepetto 通过调用各类主流 AI 模型,能够自动解读反编译后的伪代码,生成通俗易懂的功能解释,并智能地重命名晦涩的变量名,从而将原本枯燥的汇编分析转化为清晰的逻辑阅读体验。
这款工具特别适合安全研究人员、恶意软件分析师以及二进制逆向工程师使用。无论是需要快速梳理未知样本行为的专业人士,还是希望提升分析效率的开发者,都能从中受益。Gepetto 的核心亮点在于其广泛的模型兼容性,不仅支持 OpenAI、Google Gemini、Azure 等云端服务,还完美适配 Ollama、LM Studio 等本地部署方案,让用户在保障数据隐私的同时也能享受 AI 带来的便利。只需在 IDA 的伪代码窗口右键点击,即可在数秒内获得高质量的分析建议,显著降低逆向工程的门槛与时间成本。
使用场景
某安全研究员正在对一款未知的恶意软件样本进行逆向分析,面对 IDA Pro 生成的成百上千个晦涩难懂的伪代码函数,急需快速理清其核心逻辑。
没有 Gepetto 时
- 分析师必须逐行阅读汇编或伪代码,人工推导每个变量的用途,面对
v1、v2这种无意义命名极易迷失方向。 - 理解复杂加密算法或系统调用逻辑需要耗费数小时查阅文档和反复调试,分析效率极低。
- 在重命名变量和函数时完全依赖个人经验,不仅耗时费力,还容易因主观误判导致后续分析偏差。
- 遇到混淆代码时,往往需要手动编写脚本或借助其他辅助工具才能窥见一斑,工作流频繁中断。
使用 Gepetto 后
- Gepetto 能瞬间读取当前函数上下文,利用大模型自动生成通俗易懂的自然语言解释,直接说明“这段代码在做什么”。
- 它自动将
v1、v2等默认变量名重构为具有语义的名称(如encryption_key、socket_fd),让代码逻辑一目了然。 - 原本需要数小时分析的复杂函数,现在几秒钟内即可获得关键逻辑摘要,大幅缩短了从加载样本到定位恶意行为的时间。
- 分析师只需在伪代码窗口右键点击即可触发分析,无需切换工具或手动编写脚本,保持了流畅的逆向心流。
Gepetto 通过将大模型的代码理解能力无缝融入 IDA 工作流,把逆向工程师从繁琐的代码“翻译”工作中解放出来,使其能专注于高阶的安全威胁研判。
运行环境要求
- Windows
- macOS
- Linux
未说明(主要依赖云端 API 或本地 Ollama/LM Studio 服务,插件本身无特定 GPU 要求)
未说明

快速开始
Gepetto
Gepetto 是一个 Python 插件,它利用多种大型语言模型为 IDA Pro(≥ 7.6)反编译后的函数赋予语义。它可以借助这些模型来解释函数的功能,并自动重命名其变量。以下是一个简单的示例,展示了它能在短短几秒钟内提供的结果:

安装
使用 hcli(推荐)
安装 Gepetto 最简单的方式是使用 Hex-Rays CLI 工具 (hcli):
pip install ida-hcli
hcli plugin install gepetto
这会自动将插件安装到你的 IDA 用户目录中。
手动安装
你也可以手动安装插件:
- 将此脚本(
gepetto.py以及gepetto/文件夹)放入你的 IDA 插件目录($IDAUSR/plugins)。 - 插件目录的位置取决于你的操作系统:
- Windows:
%APPDATA%\Hex-Rays\IDA Pro\plugins\ - macOS:
~/Library/Application Support/IDA Pro/plugins/ - Linux:
~/.idapro/plugins/
- Windows:
- 在 IDA 的 Python 环境中安装所需的包。你可以通过检查以下注册表项来确定 IDA 使用的解释器:
Computer\HKEY_CURRENT_USER\Software\Hex-Rays\IDA(Windows 默认路径:%LOCALAPPDATA%\Programs\Python\Python39)。 - 使用相应的解释器运行:
[/path/to/python] -m pip install -r requirements.txt
⚠️ 你还需要编辑配置文件(位于 gepetto/config.ini),并添加你自己的 API 密钥。对于 OpenAI,可以在 这个页面 找到 API 密钥。请注意,API 查询通常不是免费的(尽管费用不高),你需要向相应的提供商设置支付方式。
支持的模型
- OpenAI
- gpt-5
- gpt-5-mini
- gpt-5-nano
- gpt-4-turbo
- gpt-4o
- o4-mini
- gpt-4.1
- o3
- o3-pro
- Google Gemini
- gemini-2.0-flash
- gemini-2.5-pro
- gemini-2.5-flash
- gemini-2.5-flash-lite-preview-06-17
- Azure OpenAI
- gpt-35-turbo
- gpt-35-turbo-1106
- gpt-35-turbo-16k
- gpt-4-turbo
- gpt-4-turbo-2024-0409-gs
- Ollama
- 任何通过 Ollama 暴露的本地模型(如果 Ollama 未运行,则不会显示)
- Groq
- llama-3.1-70b-versatile
- llama-3.2-90b-text-preview
- mixtral-8x7b-32768
- Together
- mistralai/Mixtral-8x22B-Instruct-v0.1(不支持重命名变量)
- Novita AI
- deepseek/deepseek-r1
- deepseek/deepseek-v3
- meta-llama/llama-3.3-70b-instruct
- meta-llama/llama-3.1-70b-instruct
- meta-llama/llama-3.1-405b-instruct
- Kluster.ai
- deepseek-ai/DeepSeek-R1
- deepseek-ai/DeepSeek-V3-0324
- google/gemma-3-27b-it
- klusterai/Meta-Llama-3.1-8B-Instruct-Turbo
- klusterai/Meta-Llama-3.1-405B-Instruct-Turbo
- klusterai/Meta-Llama-3.3-70B-Instruct-Turbo
- meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8
- meta-llama/Llama-4-Scout-17B-16E-Instruct
- Qwen/Qwen2.5-VL-7B-Instruct
- LM Studio
- 任何通过 LM Studio 暴露的本地模型(如果 LM Studio Developer 服务器未运行,则不会显示)
只要你考虑的提供商提供与 OpenAI 类似的 API,添加对其他模型的支持应该并不困难。可以参考 gepetto/models 文件夹获取灵感,或者如果你无法解决,可以直接提交问题。
使用方法
插件正确安装后,你应该能够在 IDA 的伪代码窗口的上下文菜单中调用它,如下图所示:

你可以在“编辑 > Gepetto”菜单中切换 Gepetto 支持的模型:

Gepetto 还提供了一个命令行界面,你可以在 IDA 中直接向 LLM 提问。请确保在输入栏中选择“Gepetto”:

快捷键
以下是可用的快捷键:
- 请求模型解释函数:
Ctrl+Alt+G - 请求模型为代码添加注释:
Ctrl+Alt+K - 请求为函数的变量生成更好的名称:
Ctrl+Alt+R
初步测试表明,先请求函数解释后再请求更好的变量名效果更好——我推测这是因为模型会利用其自身的注释来提出更准确的建议。AI 的回复带有一定的随机性。如果初次得到的响应不符合你的期望,你可以随时再次执行该命令。
限制
- 该插件需要访问 HexRays 反编译器才能正常工作。
- 所有支持的 LLM 都是通用型模型,可能会出错!务必对返回的结果保持批判性思维!
翻译
你可以通过编辑配置中的 locale 来更改 Gepetto 的语言。例如,要以法语使用该插件,只需添加:
[Gepetto]
LANGUAGE = "fr_FR"
所选的 locale 必须与 gepetto/locales 中的文件夹名称匹配。如果所需的语言尚未提供,你可以通过自行添加来为项目贡献力量!为所需的语言创建一个新的文件夹(例如:gepetto/locales/de_DE/LC_MESSAGES/),然后提交包含更新后的 .po 文件的新拉取请求。你可以通过复制并编辑 gepetto/locales/gepetto.pot 来创建 .po 文件(将所有以 msgstr 开头的行替换为本地化版本)。
致谢
- OpenAI,显然感谢他们提供了这些令人惊叹的模型。
- Hex Rays——IDA 的开发者,感谢他们迅速的支持。
- 卡巴斯基,最初资助了该项目。
- HarfangLab——目前的支持者,使这项工作成为可能。
- @vanhauser-thc,通过他的 fork 贡献了更多模型和提供商的想法。
- 所有贡献翻译的人员:@seifreed、@kot-igor、@ruzgarkanar、@orangetw。
版本历史
v1.5.12025/11/19v1.5.02025/10/03v1.4.12024/09/20v1.42024/09/18v1.32024/06/12v1.22023/12/18常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。