CodeAsk

GitHub
916 60 简单 2 次阅读 昨天GPL-3.0开发框架Agent语言模型图像
AI 解读 由 AI 自动生成,仅供参考

CodeAsk 是一款基于大语言模型的智能代码阅读与分析工具。它专门帮助开发者解决面对复杂代码库时的理解与维护难题,比如处理遗留系统、解读开源天书或清理历史包袱。借助强大的 LLM 能力,CodeAsk 能快速扫描代码库,识别潜在安全漏洞,评估代码质量并提供详细的梳理报告。

CodeAsk 非常适合软件工程师、技术负责人以及需要接手他人项目的开发人员使用。支持本地化部署(如 Ollama)能有效保护公司机密,同时提供 IntelliJ 插件实现 IDE 内的无缝分析体验。此外,CodeAsk 允许用户自定义模型配置和分析插件,生成的分析报告还可打包分享,方便团队协作。界面简洁,支持主题切换与字体调整,配合分屏预览和 Markdown 渲染,让代码解读过程更加直观高效。

使用场景

某电商公司资深后端工程师小张,在紧急接手一个由离职员工遗留的核心订单系统时,面临着巨大的维护压力与交付风险。

没有 CodeAsk 时

  • 面对数千行缺乏注释的“祖传代码”,手动梳理业务逻辑耗时数天,仍难以理清复杂的数据流向与状态机流转。
  • 前任留下的注释充满歧义,关键业务规则隐藏在深层嵌套函数中,每次修改都担心引发不可预知的回归 Bug。
  • 无法快速识别潜在的安全漏洞与性能瓶颈,上线前只能依靠人工审计,存在极高的生产事故隐患。
  • 团队其他成员因畏惧代码复杂度而不敢触碰该模块,导致技术债务不断累积,新功能开发进度严重受阻。

使用 CodeAsk 后

  • 利用全局分析功能,几分钟内生成详细的代码质量报告,自动梳理出核心依赖关系与关键调用链路,一目了然。
  • 通过自定义插件检测敏感信息泄露与 SQL 注入风险,提前拦截了三个高危安全漏洞,避免了资损发生。
  • AI 生成的深度解读帮助小张迅速理解复杂算法逻辑,重构效率提升五倍以上,修复周期从两周缩短至三天。
  • 支持本地 Ollama 部署模型,确保公司核心代码不出内网,既满足了数据安全合规要求,又降低了 API 调用成本。

CodeAsk 将代码理解与维护成本从周级缩短至小时级,让技术债务管理变得可控、高效且安全。

运行环境要求

操作系统
  • 未说明
GPU

未说明

内存

未说明

依赖
notes运行环境需 Node.js >= 16;安装依赖时请务必使用 npm install --legacy-peer-deps 参数;需自行配置 LLM 模型(支持 OpenAI 兼容接口或本地 Ollama);若使用 Ollama 本地部署,API Key 字段可随意填写;公司机密项目建议使用 Ollama 本地部署;IntelliJ 插件需手动下载;分析完成后会生成 .codeaskdata 文件用于分享。
python未说明
React ^19.0.0
Electron
TypeScript
Zustand
Shadcn/ui
Monaco Editor
ReactMarkdown
Vite
ESLint
Prettier
CodeAsk hero image

快速开始

CodeAsk Logo

CodeAsk - 代码分析工具

专治:前任跑路代码、开源天书、自产屎山、谜语人注释等疑难杂症

English | 中文 | 日本語

License Node React Electron

📖 简介

你是否正在经历...:

  • 代码会自己生孩子(我 TM 根本没动过!)
  • 前任是谜语人转世("这里要优化" -> 你倒是说清楚优化哪里啊?)
  • 新人入职三小时就打开 BOSS 直聘("这代码有它自己的想法")
  • 注释写着"暂时方案"(结果一用就是三年,比婚姻还持久)
  • 当你终于看懂屎山时——恭喜,你已成为屎山の一部分

CodeAsk 旨在解决开发者在面对复杂代码库时理解和维护困难的问题。通过利用大语言模型 (LLM) 的能力,CodeAsk 能够快速分析代码,检测潜在的安全漏洞,评估代码质量,并提供代码梳理与分析报告,从而提高开发效率,降低维护成本,并提升代码质量。

🌟 核心功能

  • 代码分析:使用大模型分析代码库,生成代码分析报告。
  • 代码预览:提供只读的代码预览功能,支持主题切换和字体大小调整。
  • Markdown 预览:将 Markdown 文本渲染为 HTML 预览,支持 Mermaid 图表。
  • 全局代码分析:创建和配置全局代码分析,允许用户定义分析名称、单页分析和总结分析的模型及提示语。
  • 插件管理:管理代码查看器插件,允许用户启用/禁用、执行、编辑和删除插件。
  • 模型管理:管理语言模型,允许用户添加、编辑、删除和启用/禁用模型。
  • 分屏显示:支持分屏显示不同的代码文件或插件 Markdown。
  • IntelliJ 插件:支持在 JetBrains 的 IDE 中使用 CodeAsk 插件查看代码分析。

🎥 预览

🚀 快速开始

  1. 克隆项目
git clone https://github.com/woniu9524/CodeAsk.git
  1. 安装依赖
cd codeask
npm install --legacy-peer-deps
  1. 启动应用
npm run start

💡 使用指南

2.1. 启动应用

  • 启动 CodeAsk 应用程序。

2.2. 选择代码目录

  • 在应用窗口的顶部菜单栏中,选择 "File" -> "Open Folder"。
  • 选择您要分析的代码目录。

2.3. 配置 LLM API 密钥

  • 在侧边栏中,点击 "Models" 按钮。
  • 点击 "Add Model" 按钮,打开模型配置对话框。
  • 填写模型名称、API 密钥、baseUrl 等信息。
  • 点击 "Test" 按钮测试连接。
  • 点击 "Save" 按钮保存配置。

2.4. 选择分析插件

  • 在侧边栏中,点击 "Plugins" 按钮。
  • 点击 "Add Plugin" 按钮,打开插件配置对话框。
  • 填写插件名称、选择模型、填写系统提示和用户提示。
  • 点击 "Save" 按钮保存配置。

2.5. 执行代码分析

  • 在插件列表中,找到您要使用的插件。
  • 点击插件对应的 "Execute" 按钮,打开插件执行对话框。
  • 在文件树中选择要分析的文件,或者输入文件扩展名过滤规则。
  • 点击 "Execute" 按钮开始分析。

2.6. 查看分析报告

  • 分析完成后,结果将显示在代码视图区域。
  • 您可以在标签栏中切换不同的文件和插件结果。
  • Markdown 预览支持代码高亮和 Mermaid 图表。

2.7. 全局代码分析

  • 在侧边栏中,点击 "Global Analysis" 按钮。
  • 点击 "Add Analysis" 按钮,打开全局分析配置对话框。
  • 填写分析名称、选择模型、填写单页分析和总结分析的提示语。
  • 点击 "Save" 按钮保存配置。
  • 在全局分析列表中,找到您要执行的分析。
  • 点击分析对应的 "Execute" 按钮,打开全局分析执行对话框。
  • 选择要分析的文件,或者输入文件扩展名过滤规则。
  • 点击 "Execute" 按钮开始分析。
  • 分析完成后,点击分析列表中的条目,即可在全局分析页面查看分析结果。

2.8. 分享

  • 分析后会在项目目录下生成一个 .codeaskdata 的文件,可以分享给其他人
  • 其他人收到后,放在代码的同一位置
  • 在 CodeAsk 中打开文件夹即可查看分析结果

2.9 在 JetBrains IDE 中使用

  • 前置条件:已经在 CodeAsk 中生成分析数据 (.codeaskdata)
  • 安装插件:搜索 CodeAsk,安装插件 (暂时还没有上架) 或则手动下载插件:https://github.com/woniu9524/codeask-jb
  • 安装完成后,在右侧面板点击图标即可

❓ 常见问题

模型配置注意点

  • Ollama 不需要 apikey,所以 apikey 字段可以随便填,比如 123
  • baseurl 必须要使用兼容 openai 的,一般来说是 api 后面加 /v1
  • 并发数量请根据 api 接口能力而定

🔧 技术栈

  • 核心框架

    • React 19
    • Electron
    • TypeScript
  • 状态管理

    • Zustand
  • UI 组件

    • Shadcn/ui
    • Monaco Editor
    • ReactMarkdown
  • 开发工具

    • Vite
    • ESLint
    • Prettier

🚧 后续开发计划

  • ✅ 整个项目分析梳理
  • ✅ IntelliJ 插件
  • 🚧 VS Code 插件

⚠️ 特别说明

  • ⚠️ 如遇 BUG,请默念「这不是 BUG 是特性」三次后提交 issue。
  • ⚠️ 公司机密项目建议使用 Ollama 本地部署
  • ⚠️ 提示词模板大多由 DeepSeek 生成,大多我也没有测试,只是希望给大家一些奇奇怪怪的灵感。具体还是需要根据自己使用模型和代码实际情况进行调整。欢迎大家在 issues 中分享有趣的提示词。

版本历史

v1.0.42025/02/23
v1.0.3-alpha2025/02/14
v1.0.2-alpha2025/02/10
v1.0.1-alpha2025/02/09
v1.0.0-alpha2025/02/09

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架