[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-AMA-CMFAI--LAMBDA":3,"similar-AMA-CMFAI--LAMBDA":111},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":14,"owner_avatar_url":15,"owner_bio":16,"owner_company":17,"owner_location":17,"owner_email":17,"owner_twitter":17,"owner_website":18,"owner_url":19,"languages":20,"stars":37,"forks":38,"last_commit_at":39,"license":40,"difficulty_score":41,"env_os":42,"env_gpu":43,"env_ram":44,"env_deps":45,"category_tags":52,"github_topics":57,"view_count":41,"oss_zip_url":17,"oss_zip_packed_at":17,"status":62,"created_at":63,"updated_at":64,"faqs":65,"releases":95},4417,"AMA-CMFAI\u002FLAMBDA","LAMBDA","This is the offical repository of paper \"LAMBDA: A large Model Based Data Agent\". https:\u002F\u002Fwww.polyu.edu.hk\u002Fama\u002Fcmfai\u002Flambda.html","LAMBDA 是一款基于大模型的开源数据分析系统，旨在让用户无需编写代码即可完成复杂的数据分析任务。它通过自然语言指令驱动，自动执行数据清洗、建模、可视化及报告生成等全流程工作，有效解决了传统数据分析中编程门槛高、重复性劳动多以及报告撰写耗时等痛点。\n\n该系统特别适合不具备深厚编程背景的数据分析师、业务人员、研究人员，以及希望快速验证想法的开发者使用。用户只需像与人对话一样描述需求，LAMBDA 即可自主完成分析。\n\n其核心技术亮点在于创新的双智能体协作机制：由“程序员”智能体负责生成代码，“检查员”智能体负责调试与验证，两者迭代配合以确保结果准确。此外，LAMBDA 支持灵活接入各类大模型（包括本地部署模型），允许用户在分析过程中随时介入干预，并能一键导出可复现的 Jupyter Notebook 文件。目前，LAMBDA 已提供 macOS 和 Windows 桌面应用，让高效、智能的数据分析触手可及。","\u003Cdiv align=\"center\">\n  \n# LAMBDA - LArge Model-based Data Analysis System\n[![Docs](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-Online-blue)](https:\u002F\u002Fama-cmfai.github.io\u002FLAMBDA-Docs\u002F#\u002F)\n[![Project](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Webpage-brightgreen)](https:\u002F\u002Fwww.polyu.edu.hk\u002Fama\u002Fcmfai\u002Flambda.html)\n[![Paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-arXiv-red)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2407.17535)\n[![MacOS](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDownload-macOS-black?logo=apple)](https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Freleases\u002Fdownload\u002Fapp\u002FLAMBDA-MacOS-beta-v0.0.2.zip)\n[![Windows](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDownload-Windows-blue?logo=windows)](https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Freleases\u002Fdownload\u002Fapp\u002FLAMBDA-Windows-beta-v0.0.2.zip)\n\n\u003C\u002Fdiv>\n\n\u003Cbody>\n\u003C!-- \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_readme_e66853462c12.png\" style=\"width: 80%\"> -->\n\u003C!-- \u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_readme_92a5653aaf6d.png\" style=\"width: 600px;\">\n  ![lambda_mix](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_readme_abcbd2bf3a94.png)\n\u003C\u002Fp> -->\n  \n![LAMBDA_mix_250710](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_readme_0f6b0d59b6ec.png)\n\n\nWe introduce **LAMBDA**, a novel open-source, code-free multi-agent data analysis system that harnesses the power of large models. LAMBDA is designed to address data analysis challenges in complex data-driven applications through the use of innovatively designed data agents that operate iteratively and generatively using natural language.\n\n## News\n- LAMBDA App for macOS and Windows has been released. Details can be found in [Released](https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Freleases\u002Ftag\u002Fapp). (Hint: There are some problems with the kernel installation in the APP. You should run `ipython kernel install --name lambda --user` to install the kernel in advance.)\n- [Docs site](https:\u002F\u002Fama-cmfai.github.io\u002FLAMBDA-Docs\u002F#\u002F) is available!\n\n## Key Features\n\n- **Code-Free Data Analysis**: Perform complex data analysis tasks through human language instruction.\n- **Multi-Agent System**: Utilizes two key agent roles, the programmer and the inspector, to generate and debug code seamlessly.\n- **User Interface**: This includes a robust user interface that allows direct user intervention in the operational loop.\n- **Model Integration**: Flexibly integrates external models and algorithms to cater to customized data analysis needs.\n- **Automatic Report Generation**: Concentrate on high-value tasks, rather than spending time and resources on report writing and formatting.\n- **Jupyter Notebook Exporting**: Export the code and the results to Jupyter Notebook for reproduction and further analysis flexibly.\n\n## Getting Started\n### Installation\nFirst, clone the repository.\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA.git\ncd LAMBDA\n```\n\nThen, we recommend creating a [Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002F) environment for this project and installing the dependencies by following the commands:\n```bash\nconda create -n lambda python=3.10\nconda activate lambda\n```\n\nThen, install the required packages:\n```bash\npip install -r requirements.txt\n```\n\nNext, you should install the Jupyter kernel to create a local Code Interpreter:\n```bash\nipython kernel install --name lambda --user\n```\n\n### Configuration to Easy Start\n1. To use the Large Language Models, you should have an API key from [OpenAI](https:\u002F\u002Fopenai.com\u002Fapi\u002Fpricing\u002F) or other companies. Besides, we support OpenAI-Style interface for your local LLMs once deployed, available frameworks such as [Ollama](https:\u002F\u002Follama.com\u002F), [LiteLLM](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002F), [LLaMA-Factory](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory).\n> Here are some products that offer free APIkeys for your reference: [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002F) and [SILICONFLOW](https:\u002F\u002Fsiliconflow.cn\u002F)\n2. Set your API key, models and working path in the config.yaml:\n```bash\n#================================================================================================\n#                                       Config of the LLMs\n#================================================================================================\nconv_model : \"gpt-4.1-mini\" # Choose the model you want to use. We highly recommned using the advanced model.\nprogrammer_model : \"gpt-4.1-mini\" \ninspector_model : \"gpt-4.1-mini\"\napi_key : \"sk-xxxxxxx\" # The API Keys you buy.\nbase_url_conv_model : 'https:\u002F\u002Fapi.openai.com\u002Fv1' # The base url from the provider.\nbase_url_programmer : 'https:\u002F\u002Fapi.openai.com\u002Fv1'\nbase_url_inspector : 'https:\u002F\u002Fapi.openai.com\u002Fv1'\n\n\n#================================================================================================\n#                                       Config of the system\n#================================================================================================\nstreaming : True\nproject_cache_path : \"cache\u002Fconv_cache\u002F\" # Local cache path\nmax_attempts : 5 # The max attempts of self-correcting\nmax_exe_time: 18000 # The maximum time for the execution\n\n#knowledge integration\nretrieval : False # Whether to start a knowledge retrieval. If you don't create your knowledge base, you should set it to False\n```\n\n\nFinally, run the following command to start the LAMBDA with GUI:\n```bash\npython lambda_app.py\n```\n\n\n## Demonstration Videos\n\nThe performance of LAMBDA in solving data science problems is demonstrated in several case studies, including:\n- **[Data Analysis](https:\u002F\u002Fwww.polyu.edu.hk\u002Fama\u002Fcmfai\u002Ffiles\u002Flambda\u002Flambda.mp4)**\n- **[Integrating Human Intelligence](https:\u002F\u002Fwww.polyu.edu.hk\u002Fama\u002Fcmfai\u002Ffiles\u002Flambda\u002Fknw.mp4)**\n- **[Education](https:\u002F\u002Fwww.polyu.edu.hk\u002Fama\u002Fcmfai\u002Ffiles\u002Flambda\u002FLAMBDA_education.mp4)**\n\n\n## Planning Works\n- [ ] Create a Logger for log.\n- [ ] Pre-installation of popular packages in the kernel.\n- [ ] Replace Gradio UI with OpenWebUI.\n- [ ] Refactor the Knowledge Integration and Knowledge base module by ChromaDB.\n- [ ] Add a Docker image for easier use.\n- [x] Docsite.\n\n\n## Updating History\nSee [Docs site](https:\u002F\u002Fama-cmfai.github.io\u002FLAMBDA-Docs\u002F#\u002F).\n\n\n## Related Works\nIf you are interested in Data Agent, you can take a look at :\n- Our survey paper [[A Survey on Large Language Model-based Agents for Statistics and Data Science]](https:\u002F\u002Fwww.arxiv.org\u002Fpdf\u002F2412.14222)\n- and a reading list: [[Paper List of LLM-based Data Science Agents]](https:\u002F\u002Fgithub.com\u002FStephen-SMJ\u002FReading-List-of-Large-Language-Model-Based-Data-Science-Agent)\n\n\n## License\n\nThis project is licensed under the MIT License - see the [LICENSE](LICENSE) file for details.\n\n\n\n## Acknowledgements\n\nThank the contributors and the communities for their support and feedback.\n\n---\n\n> If you find our work useful in your research, consider citing our paper by:\n\n\n\n```bash\n@article{sun2025lambda,\n  title={Lambda: A large model based data agent},\n  author={Sun, Maojun and Han, Ruijian and Jiang, Binyan and Qi, Houduo and Sun, Defeng and Yuan, Yancheng and Huang, Jian},\n  journal={Journal of the American Statistical Association},\n  pages={1--13},\n  year={2025},\n  publisher={Taylor \\& Francis}\n}\n\n@article{sun2025survey,\n  title={A survey on large language model-based agents for statistics and data science},\n  author={Sun, Maojun and Han, Ruijian and Jiang, Binyan and Qi, Houduo and Sun, Defeng and Yuan, Yancheng and Huang, Jian},\n  journal={The American Statistician},\n  pages={1--14},\n  year={2025},\n  publisher={Taylor \\& Francis}\n}\n```\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_readme_4f004731b13c.png)](https:\u002F\u002Fwww.star-history.com\u002F#AMA-CMFAI\u002FLAMBDA&Date)\n\u003C\u002Fbody>\n","\u003Cdiv align=\"center\">\n  \n# LAMBDA - 大型模型驱动的数据分析系统\n[![文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-Online-blue)](https:\u002F\u002Fama-cmfai.github.io\u002FLAMBDA-Docs\u002F#\u002F)\n[![项目官网](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Webpage-brightgreen)](https:\u002F\u002Fwww.polyu.edu.hk\u002Fama\u002Fcmfai\u002Flambda.html)\n[![论文](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-arXiv-red)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2407.17535)\n[![MacOS](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDownload-macOS-black?logo=apple)](https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Freleases\u002Fdownload\u002Fapp\u002FLAMBDA-MacOS-beta-v0.0.2.zip)\n[![Windows](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDownload-Windows-blue?logo=windows)](https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Freleases\u002Fdownload\u002Fapp\u002FLAMBDA-Windows-beta-v0.0.2.zip)\n\n\u003C\u002Fdiv>\n\n\u003Cbody>\n\u003C!-- \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_readme_e66853462c12.png\" style=\"width: 80%\"> -->\n\u003C!-- \u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_readme_92a5653aaf6d.png\" style=\"width: 600px;\">\n  ![lambda_mix](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_readme_abcbd2bf3a94.png)\n\u003C\u002Fp> -->\n  \n![LAMBDA_mix_250710](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_readme_0f6b0d59b6ec.png)\n\n\n我们推出了**LAMBDA**，一个全新的开源、无代码的多智能体数据分析系统，它充分利用了大型模型的强大能力。LAMBDA旨在通过创新设计的数据智能体，在复杂的数据驱动应用中解决数据分析挑战；这些智能体以自然语言为媒介，进行迭代式和生成式的操作。\n\n## 最新消息\n- LAMBDA 的 macOS 和 Windows 应用程序已发布。详情请参见 [发布页面](https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Freleases\u002Ftag\u002Fapp)。（提示：应用程序中的内核安装可能存在一些问题。您应提前运行 `ipython kernel install --name lambda --user` 来安装内核。）\n- [文档网站](https:\u002F\u002Fama-cmfai.github.io\u002FLAMBDA-Docs\u002F#\u002F)现已上线！\n\n## 核心功能\n\n- **无代码数据分析**：通过人类语言指令即可完成复杂的数据分析任务。\n- **多智能体系统**：利用程序员和检查员两大核心角色，无缝生成并调试代码。\n- **用户界面**：提供强大的用户界面，允许用户直接介入操作流程。\n- **模型集成**：灵活集成外部模型和算法，满足定制化的数据分析需求。\n- **自动报告生成**：专注于高价值任务，无需耗费时间和精力在报告撰写与格式化上。\n- **Jupyter Notebook 导出**：将代码和结果导出至 Jupyter Notebook，便于复现与进一步分析。\n\n## 快速入门\n### 安装\n首先，克隆仓库。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA.git\ncd LAMBDA\n```\n\n然后，建议为该项目创建一个 [Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002F) 环境，并按照以下命令安装依赖：\n```bash\nconda create -n lambda python=3.10\nconda activate lambda\n```\n\n接着，安装所需的软件包：\n```bash\npip install -r requirements.txt\n```\n\n接下来，您需要安装 Jupyter 内核以创建本地代码解释器：\n```bash\nipython kernel install --name lambda --user\n```\n\n### 配置以便快速开始\n1. 要使用大型语言模型，您需要从 [OpenAI](https:\u002F\u002Fopenai.com\u002Fapi\u002Fpricing\u002F) 或其他公司获取 API 密钥。此外，我们还支持部署后的本地 LLM 的 OpenAI 风格接口，可用框架包括 [Ollama](https:\u002F\u002Follama.com\u002F)、[LiteLLM](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002F) 和 [LLaMA-Factory](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory)。\n> 以下是一些提供免费 API 密钥的产品供您参考：[OpenRouter](https:\u002F\u002Fopenrouter.ai\u002F) 和 [SILICONFLOW](https:\u002F\u002Fsiliconflow.cn\u002F)。\n2. 在 `config.yaml` 中设置您的 API 密钥、模型和工作路径：\n```bash\n#================================================================================================\n#                                       LLM 配置\n#================================================================================================\nconv_model : \"gpt-4.1-mini\" # 选择您想要使用的模型。强烈推荐使用高级模型。\nprogrammer_model : \"gpt-4.1-mini\" \ninspector_model : \"gpt-4.1-mini\"\napi_key : \"sk-xxxxxxx\" # 您购买的 API 密钥。\nbase_url_conv_model : 'https:\u002F\u002Fapi.openai.com\u002Fv1' # 提供商的基础 URL。\nbase_url_programmer : 'https:\u002F\u002Fapi.openai.com\u002Fv1'\nbase_url_inspector : 'https:\u002F\u002Fapi.openai.com\u002Fv1'\n\n\n#================================================================================================\n#                                       系统配置\n#================================================================================================\nstreaming : True\nproject_cache_path : \"cache\u002Fconv_cache\u002F\" # 本地缓存路径\nmax_attempts : 5 # 自我修正的最大尝试次数\nmax_exe_time: 18000 # 执行的最长时间\n\n#知识整合\nretrieval : False # 是否启动知识检索。如果您尚未创建知识库，则应将其设置为 False\n```\n\n\n最后，运行以下命令以启动带有 GUI 的 LAMBDA：\n```bash\npython lambda_app.py\n```\n\n\n## 演示视频\n\nLAMBDA 在解决数据科学问题方面的表现已在多个案例研究中得到展示，包括：\n- **[数据分析](https:\u002F\u002Fwww.polyu.edu.hk\u002Fama\u002Fcmfai\u002Ffiles\u002Flambda\u002Flambda.mp4)**\n- **[融合人类智慧](https:\u002F\u002Fwww.polyu.edu.hk\u002Fama\u002Fcmfai\u002Ffiles\u002Flambda\u002Fknw.mp4)**\n- **[教育应用](https:\u002F\u002Fwww.polyu.edu.hk\u002Fama\u002Fcmfai\u002Ffiles\u002Flambda\u002FLAMBDA_education.mp4)**\n\n\n## 计划中的工作\n- [ ] 创建日志记录器。\n- [ ] 在内核中预安装常用软件包。\n- [ ] 将 Gradio 界面替换为 OpenWebUI。\n- [ ] 使用 ChromaDB 重构知识整合与知识库模块。\n- [ ] 添加 Docker 镜像以方便使用。\n- [x] 文档站点。\n\n## 更新历史\n请参阅 [文档网站](https:\u002F\u002Fama-cmfai.github.io\u002FLAMBDA-Docs\u002F#\u002F)。\n\n## 相关工作\n如果您对数据智能体感兴趣，可以查看：\n- 我们的综述论文 [[基于大型语言模型的统计与数据科学智能体综述]](https:\u002F\u002Fwww.arxiv.org\u002Fpdf\u002F2412.14222)\n- 以及阅读列表：[[基于 LLM 的数据科学智能体论文列表]](https:\u002F\u002Fgithub.com\u002FStephen-SMJ\u002FReading-List-of-Large-Language-Model-Based-Data-Science-Agent)\n\n\n## 许可证\n\n本项目采用 MIT 许可证授权——详细信息请参阅 [LICENSE](LICENSE) 文件。\n\n## 致谢\n\n感谢各位贡献者和社区的支持与反馈。\n\n---\n\n> 如果您在研究中觉得我们的工作有所帮助，请考虑引用我们的论文，格式如下：\n\n\n\n```bash\n@article{sun2025lambda,\n  title={Lambda：基于大型模型的数据代理},\n  author={Sun, Maojun and Han, Ruijian and Jiang, Binyan and Qi, Houduo and Sun, Defeng and Yuan, Yancheng and Huang, Jian},\n  journal={美国统计协会期刊},\n  pages={1--13},\n  year={2025},\n  publisher={泰勒与弗朗西斯}\n}\n\n@article{sun2025survey,\n  title={面向统计学和数据科学的大型语言模型代理综述},\n  author={Sun, Maojun and Han, Ruijian and Jiang, Binyan and Qi, Houduo and Sun, Defeng and Yuan, Yancheng and Huang, Jian},\n  journal={美国统计学家},\n  pages={1--14},\n  year={2025},\n  publisher={泰勒与弗朗西斯}\n}\n```\n## 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_readme_4f004731b13c.png)](https:\u002F\u002Fwww.star-history.com\u002F#AMA-CMFAI\u002FLAMBDA&Date)\n\u003C\u002Fbody>","# LAMBDA 快速上手指南\n\nLAMBDA 是一个基于大模型的无代码多智能体数据分析系统。它通过自然语言指令驱动“程序员”和“检查员”两个智能体协作，自动完成复杂的数据分析、代码调试及报告生成任务。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：macOS 或 Windows（也支持 Linux 源码运行）。\n*   **Python 版本**：推荐 Python 3.10。\n*   **依赖管理**：已安装 [Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002F) 环境管理工具。\n*   **大模型 API**：\n    *   需要拥有 OpenAI API Key，或兼容 OpenAI 格式的本地\u002F第三方大模型接口（如 Ollama, SiliconFlow, OpenRouter 等）。\n    *   *国内开发者推荐*：可使用 [SiliconFlow (硅基流动)](https:\u002F\u002Fsiliconflow.cn\u002F) 或 [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002F) 获取免费或低成本的 API Key。\n\n## 安装步骤\n\n### 1. 克隆项目\n打开终端，克隆仓库并进入目录：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA.git\ncd LAMBDA\n```\n\n### 2. 创建 Conda 环境\n创建名为 `lambda` 的虚拟环境并激活：\n```bash\nconda create -n lambda python=3.10\nconda activate lambda\n```\n\n### 3. 安装依赖\n安装项目所需的 Python 包：\n```bash\npip install -r requirements.txt\n```\n> **提示**：若下载速度较慢，可添加国内镜像源参数，例如：`pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 4. 配置 Jupyter 内核\nLAMBDA 需要本地 Code Interpreter 执行代码，必须注册 Jupyter 内核：\n```bash\nipython kernel install --name lambda --user\n```\n\n## 基本使用\n\n### 1. 配置文件设置\n在项目根目录下找到或创建 `config.yaml` 文件，填入您的大模型配置。\n\n**配置示例 (`config.yaml`)：**\n```yaml\n#================================================================================================\n#                                       Config of the LLMs\n#================================================================================================\n# 推荐使用高性能模型，此处以 gpt-4o-mini 为例，也可替换为硅基流动等提供的兼容模型\nconv_model : \"gpt-4o-mini\" \nprogrammer_model : \"gpt-4o-mini\" \ninspector_model : \"gpt-4o-mini\"\n\n# 填入您的 API Key\napi_key : \"sk-xxxxxxx\" \n\n# 如果使用国内服务商或本地部署，请修改 base_url\nbase_url_conv_model : 'https:\u002F\u002Fapi.siliconflow.cn\u002Fv1' \nbase_url_programmer : 'https:\u002F\u002Fapi.siliconflow.cn\u002Fv1'\nbase_url_inspector : 'https:\u002F\u002Fapi.siliconflow.cn\u002Fv1'\n\n#================================================================================================\n#                                       Config of the system\n#================================================================================================\nstreaming : True\nproject_cache_path : \"cache\u002Fconv_cache\u002F\"\nmax_attempts : 5 \nmax_exe_time: 18000 \n\n# 若无知识库需求，保持 False\nretrieval : False \n```\n\n### 2. 启动应用\n运行以下命令启动带有图形界面 (GUI) 的 LAMBDA 应用：\n```bash\npython lambda_app.py\n```\n\n### 3. 开始分析\n1.  浏览器会自动打开或在终端显示访问地址（通常为 `http:\u002F\u002Flocalhost:7860`）。\n2.  在对话框中直接使用**自然语言**描述您的数据分析需求（例如：“上传 sales.csv 并分析月度销售趋势”）。\n3.  系统将自动调用智能体编写代码、执行分析、自我纠错，并最终生成分析报告或图表。\n4.  分析完成后，您可以选择将代码和结果导出为 Jupyter Notebook 进行二次编辑。","某电商数据分析师需要在周五下班前，基于百万级用户行为日志快速产出季度复购率分析报告，以支持周一的高层决策会议。\n\n### 没有 LAMBDA 时\n- **代码编写耗时**：需手动编写数百行 Python 代码进行数据清洗、关联和聚合，极易因语法错误反复调试，耗费数小时。\n- **多轮试错成本高**：遇到数据异常或逻辑漏洞时，必须人工定位断点、修改代码并重新运行整个流程，打断分析思路。\n- **报告整理繁琐**：分析完成后，需将图表截图、关键结论手动复制到 PPT 或 Word 中排版，占用大量非核心工作时间。\n- **协作复现困难**：若同事需要验证结果或调整参数，必须索要原始脚本并配置相同的环境，沟通与部署成本极高。\n\n### 使用 LAMBDA 后\n- **自然语言驱动**：直接用中文指令如“计算过去三个月的复购率并按地区可视化”，LAMBDA 自动调用程序员智能体生成并执行代码。\n- **双智能体自纠错**：当代码运行报错时，LAMBDA 的审查员智能体自动检测逻辑漏洞并修复，无需人工干预即可迭代出正确结果。\n- **一键生成报告**：分析结束后，LAMBDA 自动整合图表与洞察结论，生成格式规范的分析文档，让分析师专注于业务解读。\n- **无缝导出复现**：所有代码与运行结果可一键导出为 Jupyter Notebook，团队成员可直接在本地环境复现或基于此进行二次开发。\n\nLAMBDA 通过将复杂的编码与调试过程转化为自然语言交互，让数据分析师从“写代码的工人”回归为“懂业务的专家”，实现数据价值的高效释放。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAMA-CMFAI_LAMBDA_284ddb1e.png","AMA-CMFAI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAMA-CMFAI_9399073b.png","Research Centre for the Mathematical Foundations of Generative AI, Department of Applied Mathematics, The Hong Kong Polytechnic University",null,"https:\u002F\u002Fwww.polyu.edu.hk\u002Fama\u002Fcmfai\u002Findex.html","https:\u002F\u002Fgithub.com\u002FAMA-CMFAI",[21,25,29,33],{"name":22,"color":23,"percentage":24},"Jupyter Notebook","#DA5B0B",84.3,{"name":26,"color":27,"percentage":28},"Python","#3572A5",15.3,{"name":30,"color":31,"percentage":32},"JavaScript","#f1e05a",0.3,{"name":34,"color":35,"percentage":36},"CSS","#663399",0.1,558,51,"2026-04-05T21:44:07","MIT",2,"macOS, Windows, Linux","未说明（支持调用本地部署的 LLM，如 Ollama、LLaMA-Factory，具体 GPU 需求取决于所选模型；若使用云端 API 则无需本地 GPU）","未说明",{"notes":46,"python":47,"dependencies":48},"1. 推荐使用 Conda 创建名为 'lambda' 的环境。2. 必须手动安装 Jupyter 内核：运行 'ipython kernel install --name lambda --user'，否则代码解释器无法工作。3. 需要配置大模型 API Key（支持 OpenAI 或兼容接口如 Ollama、LiteLLM）。4. 需在 config.yaml 中设置模型名称、API Key 和工作路径。5. 提供 macOS 和 Windows 的预编译应用，但提示应用中内核安装可能存在问题，建议手动安装内核。","3.10",[49,50,51],"requirements.txt 中定义的依赖包（具体列表未在 README 中展开）","ipython","conda",[53,54,55,56],"Agent","开发框架","图像","语言模型",[58,59,60,61],"agents","ai","generative-ai","large-language-models","ready","2026-03-27T02:49:30.150509","2026-04-06T22:08:44.925966",[66,71,76,80,85,90],{"id":67,"question_zh":68,"answer_zh":69,"source_url":70},20087,"安装时提示缺少 'knw' 模块或依赖项缺失如何解决？","维护者已重新组织了项目结构并移除了对 OSS-cloud 服务的需求。请拉取最新代码后重试。如果之前遇到 'ModuleNotFoundError: No module named knw' 或其他依赖缺失问题，更新后的版本应已修复这些问题。","https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Fissues\u002F5",{"id":72,"question_zh":73,"answer_zh":74,"source_url":75},20085,"运行 app.py 时出现 'Could not create share link' 错误怎么办？","该问题通常是因为开启了 VPN 导致无法访问本地 localhost 地址。默认情况下应用会打开本地 URL，请尝试关闭 VPN 后再次访问。此外，您可以使用 seaborn 提供的经典数据集进行测试：https:\u002F\u002Fgithub.com\u002Fmwaskom\u002Fseaborn-data\u002Ftree\u002Fmaster","https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Fissues\u002F8",{"id":77,"question_zh":78,"answer_zh":79,"source_url":75},20086,"上传未发表的原始数据到 LAMBDA 进行分析是否安全？","数据文件仅保留在您自己的计算机上。但如果您使用 OpenAI 等提供商的 API 密钥，当模型执行如 'data.head()' 的代码时，前几行数据的响应会被发送到大模型服务器。若需避免此情况以保护隐私，建议部署并使用开源模型（如 gpt-oss）在本地运行。",{"id":81,"question_zh":82,"answer_zh":83,"source_url":84},20088,"如何让 LAMBDA 配合本地部署的 Ollama 大模型使用？","您可以参考 Ollama 的 OpenAI 兼容性文档进行配置。关键设置如下：base_url 设为 'http:\u002F\u002Flocalhost:11434\u002Fv1'，api_key 设为 'ollama'（必填但未实际使用）。代码示例：\nfrom openai import OpenAI\nclient = OpenAI(base_url='http:\u002F\u002Flocalhost:11434\u002Fv1', api_key='ollama')\nresponse = client.chat.completions.create(model=\"llama2\", messages=[...])","https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Fissues\u002F6",{"id":86,"question_zh":87,"answer_zh":88,"source_url":89},20089,"执行 README 中的 'pip install -r requirements_bak.txt' 命令报错怎么办？","这是 README 文档中的笔误，新的依赖文件名已更改为 'requirements.txt'。请使用正确的命令：pip install -r requirements.txt 进行安装。","https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Fissues\u002F9",{"id":91,"question_zh":92,"answer_zh":93,"source_url":94},20090,"针对 API 数量影响准确率的问题，有什么解决方案或计划吗？","一个潜在的解决方案是将 API 构建为分层结构（hierarchical structure），这样可以控制在最终选择中使用的 API 数量，从而缓解这一问题。","https:\u002F\u002Fgithub.com\u002FAMA-CMFAI\u002FLAMBDA\u002Fissues\u002F1",[96,101,106],{"id":97,"version":98,"summary_zh":99,"released_at":100},118133,"app","# LAMBDA 应用程序现已适用于 macOS 和 Windows\n\n\u003Cimg width=\"200\" height=\"200\" alt=\"lambda_logo\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F48061cb1-116e-4fa8-a35d-6ca55073f468\" \u002F>\n\nLAMBDA 应用程序现已正式推出，支持 **macOS** 和 **Windows** 系统。请按照以下步骤开始使用您的智能数据分析助手。\n\n---\n\n## 安装步骤  \n\n1. **下载应用程序**  \n   - 根据您的操作系统，下载相应的 `.zip` 文件：  \n     - **macOS** → 下载 macOS 版本  \n     - **Windows** → 下载 Windows 版本  \n\n2. **解压文件**  \n   - 将下载的 `.zip` 文件解压到您选择的目录中。  \n\n3. **运行应用程序**  \n   - 打开 **`lambda_app`** 启动应用程序。  \n   - 首次启动时，系统可能需要较长时间进行初始化并创建内核。  \n\n---\n\n## 配置  \n\n1. 应用程序启动后，请前往 **配置页面**。  \n2. 设置您的配置参数（例如，输入您的 **API 密钥**）。  \n3. 我们 **不建议** 修改缓存位置。默认情况下，缓存会存储在应用程序的目录中。  \n4. 单击 **确认** 保存设置。  \n\n---\n\n## 开始使用 LAMBDA  \n\n完成配置后，您就可以开始使用 **LAMBDA** 进行由大型模型驱动的高级数据分析了。","2025-09-03T14:35:36",{"id":102,"version":103,"summary_zh":104,"released_at":105},118134,"production","添加：下一步建议  \n修复与清除会话、数据框显示以及生成无关报告相关的 bug。","2025-08-17T07:47:48",{"id":107,"version":108,"summary_zh":109,"released_at":110},118135,"research","第一个研究版本的原始代码。","2025-04-03T04:06:06",[112,122,130,138,146,154],{"id":113,"name":114,"github_repo":115,"description_zh":116,"stars":117,"difficulty_score":118,"last_commit_at":119,"category_tags":120,"status":62},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[53,54,55,121],"数据工具",{"id":123,"name":124,"github_repo":125,"description_zh":126,"stars":127,"difficulty_score":118,"last_commit_at":128,"category_tags":129,"status":62},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[54,55,53],{"id":131,"name":132,"github_repo":133,"description_zh":134,"stars":135,"difficulty_score":41,"last_commit_at":136,"category_tags":137,"status":62},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,"2026-04-06T11:32:54",[54,53,56],{"id":139,"name":140,"github_repo":141,"description_zh":142,"stars":143,"difficulty_score":41,"last_commit_at":144,"category_tags":145,"status":62},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[54,55,53],{"id":147,"name":148,"github_repo":149,"description_zh":150,"stars":151,"difficulty_score":118,"last_commit_at":152,"category_tags":153,"status":62},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[56,55,53,54],{"id":155,"name":156,"github_repo":157,"description_zh":158,"stars":159,"difficulty_score":118,"last_commit_at":160,"category_tags":161,"status":62},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[54,55,53,162],"视频"]