[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SakanaAI--AI-Scientist-v2":3,"tool-SakanaAI--AI-Scientist-v2":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":106,"env_os":107,"env_gpu":108,"env_ram":109,"env_deps":110,"category_tags":120,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":122,"updated_at":123,"faqs":124,"releases":155},5822,"SakanaAI\u002FAI-Scientist-v2","AI-Scientist-v2","The AI Scientist-v2: Workshop-Level Automated Scientific Discovery via Agentic Tree Search","AI-Scientist-v2 是一个旨在实现“研讨会级别”自动化科学发现的全自主智能体系统。它能够独立完成从提出科学假设、运行实验、分析数据到撰写完整学术论文的全过程。该系统最引人注目的成就，是生成了首篇由 AI 独立创作并顺利通过同行评审的研讨会论文。\n\n相比前代版本，AI-Scientist-v2 不再依赖人类预设的模板，从而突破了特定领域的限制，能够适应更广泛的机器学习研究场景。其核心技术亮点在于引入了“代理树搜索”（Agentic Tree Search）机制，并由一个实验管理器智能体进行引导。这种设计让系统在面对开放性问题时，能像人类科学家一样进行多路径探索与试错，虽然单次成功率可能低于基于模板的方法，但极大地拓展了科学探索的边界。\n\n需要注意的是，由于系统会自动执行大模型生成的代码，存在潜在的安全风险，因此必须在受控的沙箱环境（如 Docker 容器）中部署运行。AI-Scientist-v2 主要面向人工智能研究人员、计算机科学家以及对自动化科研流程感兴趣的开发者。对于希望探索未知领域、验证新颖想法或研究 AI 自主科研能力的专业团队而言，这是一个极具价值的实验性工具，","AI-Scientist-v2 是一个旨在实现“研讨会级别”自动化科学发现的全自主智能体系统。它能够独立完成从提出科学假设、运行实验、分析数据到撰写完整学术论文的全过程。该系统最引人注目的成就，是生成了首篇由 AI 独立创作并顺利通过同行评审的研讨会论文。\n\n相比前代版本，AI-Scientist-v2 不再依赖人类预设的模板，从而突破了特定领域的限制，能够适应更广泛的机器学习研究场景。其核心技术亮点在于引入了“代理树搜索”（Agentic Tree Search）机制，并由一个实验管理器智能体进行引导。这种设计让系统在面对开放性问题时，能像人类科学家一样进行多路径探索与试错，虽然单次成功率可能低于基于模板的方法，但极大地拓展了科学探索的边界。\n\n需要注意的是，由于系统会自动执行大模型生成的代码，存在潜在的安全风险，因此必须在受控的沙箱环境（如 Docker 容器）中部署运行。AI-Scientist-v2 主要面向人工智能研究人员、计算机科学家以及对自动化科研流程感兴趣的开发者。对于希望探索未知领域、验证新颖想法或研究 AI 自主科研能力的专业团队而言，这是一个极具价值的实验性工具，但不适合缺乏技术背景的普通用户直接使用。","\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist_v2\u002Fblob\u002Fmain\u002Fdocs\u002Flogo_v1.jpg\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSakanaAI_AI-Scientist-v2_readme_1db90f3af052.png\" width=\"215\" alt=\"AI Scientist v2 Logo\" \u002F>\n  \u003C\u002Fa>\n  \u003Ch1>\n    \u003Cb>The AI Scientist-v2: Workshop-Level Automated\u003C\u002Fb>\u003Cbr>\n    \u003Cb>Scientific Discovery via Agentic Tree Search\u003C\u002Fb>\n  \u003C\u002Fh1>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  📚 \u003Ca href=\"https:\u002F\u002Fpub.sakana.ai\u002Fai-scientist-v2\u002Fpaper\">[Paper]\u003C\u002Fa> |\n  📝 \u003Ca href=\"https:\u002F\u002Fsakana.ai\u002Fai-scientist-first-publication\u002F\"> [Blog Post]\u003C\u002Fa> |\n  📂 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist-ICLR2025-Workshop-Experiment\"> [ICLR2025 Workshop Experiment]\u003C\u002Fa>\n\u003C\u002Fp>\n\nFully autonomous scientific research systems are becoming increasingly capable, with AI playing a pivotal role in transforming how scientific discoveries are made.\nWe are excited to introduce The AI Scientist-v2, a generalized end-to-end agentic system that has generated the first workshop paper written entirely by AI and accepted through peer review.\n\nThis system autonomously generates hypotheses, runs experiments, analyzes data, and writes scientific manuscripts. Unlike [its predecessor (AI Scientist-v1)](https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist), the AI Scientist-v2 removes reliance on human-authored templates, generalizes across Machine Learning (ML) domains, and employs a progressive agentic tree search, guided by an experiment manager agent.\n\n> **Note:**\n> The AI Scientist-v2 doesn’t necessarily produce better papers than v1, especially when a strong starting template is available. v1 follows well-defined templates, leading to high success rates, while v2 takes a broader, more exploratory approach with lower success rates. v1 works best for tasks with clear objectives and a solid foundation, whereas v2 is designed for open-ended scientific exploration.\n\n> **Caution!**\n> This codebase will execute Large Language Model (LLM)-written code. There are various risks and challenges associated with this autonomy, including the potential use of dangerous packages, uncontrolled web access, and the possibility of spawning unintended processes. Ensure that you run this within a controlled sandbox environment (e.g., a Docker container). Use at your own discretion.\n\n## Table of Contents\n\n1.  [Requirements](#requirements)\n    *   [Installation](#installation)\n    *   [Supported Models and API Keys](#supported-models-and-api-keys)\n2.  [Generate Research Ideas](#generate-research-ideas)\n3.  [Run AI Scientist-v2 Paper Generation Experiments](#run-ai-scientist-v2-paper-generation-experiments)\n4.  [Citing The AI Scientist-v2](#citing-the-ai-scientist-v2)\n5.  [Frequently Asked Questions](#frequently-asked-questions)\n6.  [Acknowledgement](#acknowledgement)\n\n## Requirements\n\nThis code is designed to run on Linux with NVIDIA GPUs using CUDA and PyTorch.\n\n### Installation\n\n```bash\n# Create a new conda environment\nconda create -n ai_scientist python=3.11\nconda activate ai_scientist\n\n# Install PyTorch with CUDA support (adjust pytorch-cuda version for your setup)\nconda install pytorch torchvision torchaudio pytorch-cuda=12.4 -c pytorch -c nvidia\n\n# Install PDF and LaTeX tools\nconda install anaconda::poppler\nconda install conda-forge::chktex\n\n# Install Python package requirements\npip install -r requirements.txt\n```\n\nInstallation usually takes no more than one hour.\n\n### Supported Models and API Keys\n\n#### OpenAI Models\n\nBy default, the system uses the `OPENAI_API_KEY` environment variable for OpenAI models.\n\n#### Gemini Models\n\nBy default, the system uses the `GEMINI_API_KEY` environment variable for Gemini models through OpenAI API.\n\n#### Claude Models via AWS Bedrock\n\nTo use Claude models provided by Amazon Bedrock, install the necessary additional packages:\n```bash\npip install anthropic[bedrock]\n```\nNext, configure valid [AWS Credentials](https:\u002F\u002Fdocs.aws.amazon.com\u002Fcli\u002Fv1\u002Fuserguide\u002Fcli-configure-envvars.html) and the target [AWS Region](https:\u002F\u002Fdocs.aws.amazon.com\u002Fbedrock\u002Flatest\u002Fuserguide\u002Fbedrock-regions.html) by setting the following environment variables: `AWS_ACCESS_KEY_ID`, `AWS_SECRET_ACCESS_KEY`, `AWS_REGION_NAME`.\n\n#### Semantic Scholar API (Literature Search)\n\nOur code can optionally use a Semantic Scholar API Key (`S2_API_KEY`) for higher throughput during literature search [if you have one](https:\u002F\u002Fwww.semanticscholar.org\u002Fproduct\u002Fapi). This is used during both the ideation and paper writing stages. The system should work without it, though you might encounter rate limits or reduced novelty checking during ideation. If you experience issues with Semantic Scholar, you can skip the citation phase during paper generation.\n\n#### Setting API Keys\n\nEnsure you provide the necessary API keys as environment variables for the models you intend to use. For example:\n```bash\nexport OPENAI_API_KEY=\"YOUR_OPENAI_KEY_HERE\"\nexport S2_API_KEY=\"YOUR_S2_KEY_HERE\"\n# Set AWS credentials if using Bedrock\n# export AWS_ACCESS_KEY_ID=\"YOUR_AWS_ACCESS_KEY_ID\"\n# export AWS_SECRET_ACCESS_KEY=\"YOUR_AWS_SECRET_KEY\"\n# export AWS_REGION_NAME=\"your-aws-region\"\n```\n\n## Generate Research Ideas\n\nBefore running the full AI Scientist-v2 experiment pipeline, you first use the `ai_scientist\u002Fperform_ideation_temp_free.py` script to generate potential research ideas. This script uses an LLM to brainstorm and refine ideas based on a high-level topic description you provide, interacting with tools like Semantic Scholar to check for novelty.\n\n1.  **Prepare a Topic Description:** Create a Markdown file (e.g., `my_research_topic.md`) describing the research area or theme you want the AI to explore. This file should contain sections like `Title`, `Keywords`, `TL;DR`, and `Abstract` to define the scope of the research. Refer to the example file `ai_scientist\u002Fideas\u002Fi_cant_believe_its_not_better.md` for the expected structure and content format. Place your file in a location accessible by the script (e.g., the `ai_scientist\u002Fideas\u002F` directory).\n\n2.  **Run the Ideation Script:** Execute the script from the main project directory, pointing it to your topic description file and specifying the desired LLM.\n\n    ```bash\n    python ai_scientist\u002Fperform_ideation_temp_free.py \\\n     --workshop-file \"ai_scientist\u002Fideas\u002Fmy_research_topic.md\" \\\n     --model gpt-4o-2024-05-13 \\\n     --max-num-generations 20 \\\n     --num-reflections 5\n    ```\n    *   `--workshop-file`: Path to your topic description Markdown file.\n    *   `--model`: The LLM to use for generating ideas (ensure you have the corresponding API key set).\n    *   `--max-num-generations`: How many distinct research ideas to attempt generating.\n    *   `--num-reflections`: How many refinement steps the LLM should perform for each idea.\n\n3.  **Output:** The script will generate a JSON file named after your input Markdown file (e.g., `ai_scientist\u002Fideas\u002Fmy_research_topic.json`). This file will contain a list of structured research ideas, including hypotheses, proposed experiments, and related work analysis.\n\n4.  **Proceed to Experiments:** Once you have the generated JSON file containing research ideas, you can proceed to the next section to run the experiments.\n\nThis ideation step guides the AI Scientist towards specific areas of interest and produces concrete research directions to be tested in the main experimental pipeline.\n\n## Run AI Scientist-v2 Paper Generation Experiments\n\nUsing the JSON file generated in the previous ideation step, you can now launch the main AI Scientist-v2 pipeline. This involves running experiments via agentic tree search, analyzing results, and generating a paper draft.\n\nSpecify the models used for the write-up and review phases via command-line arguments.\nThe configuration for the best-first tree search (BFTS) is located in `bfts_config.yaml`. Adjust parameters in this file as needed.\n\nKey tree search configuration parameters in `bfts_config.yaml`:\n\n-   `agent` config:\n    -   Set `num_workers` (number of parallel exploration paths) and `steps` (maximum number of nodes to explore). For example, if `num_workers=3` and `steps=21`, the tree search will explore up to 21 nodes, expanding 3 nodes concurrently at each step.\n    -   `num_seeds`: Should generally be the same as `num_workers` if `num_workers` is less than 3. Otherwise, set `num_seeds` to 3.\n    -   Note: Other agent parameters like `k_fold_validation`, `expose_prediction`, and `data_preview` are not used in the current version.\n-   `search` config:\n    -   `max_debug_depth`: The maximum number of times the agent will attempt to debug a failing node before abandoning that search path.\n    -   `debug_prob`: The probability of attempting to debug a failing node.\n    -   `num_drafts`: The number of initial root nodes (i.e., the number of independent trees to grow) during Stage 1.\n\nExample command to run AI-Scientist-v2 using a generated idea file (e.g., `my_research_topic.json`). Please review `bfts_config.yaml` for detailed tree search parameters (the default config includes `claude-3-5-sonnet` for experiments). Do not set `load_code` if you do not want to initialize experimentation with a code snippet.\n\n```bash\npython launch_scientist_bfts.py \\\n --load_ideas \"ai_scientist\u002Fideas\u002Fmy_research_topic.json\" \\\n --load_code \\\n --add_dataset_ref \\\n --model_writeup o1-preview-2024-09-12 \\\n --model_citation gpt-4o-2024-11-20 \\\n --model_review gpt-4o-2024-11-20 \\\n --model_agg_plots o3-mini-2025-01-31 \\\n --num_cite_rounds 20\n```\n\nOnce the initial experimental stage is complete, you will find a timestamped log folder inside the `experiments\u002F` directory. Navigate to `experiments\u002F\"timestamp_ideaname\"\u002Flogs\u002F0-run\u002F` within that folder to find the tree visualization file `unified_tree_viz.html`.\nAfter all experiment stages are complete, the writeup stage begins. The writeup stage typically takes about 20 to 30 minutes in total. Once it finishes, you should see `timestamp_ideaname.pdf` in the `timestamp_ideaname` folder.\nFor this example run, all stages typically finish within several hours.\n\n## Citing The AI Scientist-v2\n\nIf you use **The AI Scientist-v2** in your research, please cite our work as follows:\n\n```bibtex\n@article{aiscientist_v2,\n  title={The AI Scientist-v2: Workshop-Level Automated Scientific Discovery via Agentic Tree Search},\n  author={Yamada, Yutaro and Lange, Robert Tjarko and Lu, Cong and Hu, Shengran and Lu, Chris and Foerster, Jakob and Clune, Jeff and Ha, David},\n  journal={arXiv preprint arXiv:2504.08066},\n  year={2025}\n}\n```\n\n## Frequently Asked Questions\n\n**Why wasn't a PDF or a review generated for my experiment?**\n\nThe AI Scientist-v2 completes experiments with a success rate that depends on the chosen foundation model, and the complexity of the idea. Higher success rates are generally observed when using powerful models like Claude 3.5 Sonnet for the experimentation phase.\n\n**What is the estimated cost per experiment?**\n\nThe ideation step cost depends on the LLM used and the number of generations\u002Freflections, but is generally low (a few dollars). For the main experiment pipeline, using Claude 3.5 Sonnet for the experimentation phase typically costs around $15–$20 per run. The subsequent writing phase adds approximately $5 when using the default models specified in the example command. Using GPT-4o for `model_citation` is recommended as it can help reduce writing costs.\n\n**How do I run The AI Scientist-v2 for different subject fields?**\n\nFirst, perform the [Generate Research Ideas](#generate-research-ideas) step. Create a new Markdown file describing your desired subject field or topic, following the structure of the example `ai_scientist\u002Fideas\u002Fi_cant_believe_its_not_better.md`. Run the `perform_ideation_temp_free.py` script with this file to generate a corresponding JSON idea file. Then, proceed to the [Run AI Scientist-v2 Paper Generation Experiments](#run-ai-scientist-v2-paper-generation-experiments) step, using this JSON file with the `launch_scientist_bfts.py` script via the `--load_ideas` argument.\n\n**What should I do if I have problems accessing the Semantic Scholar API?**\n\nThe Semantic Scholar API is used to assess the novelty of generated ideas and to gather citations during the paper write-up phase. If you don't have an API key, encounter rate limits, you may be able to skip these phases.\n\n**I encountered a \"CUDA Out of Memory\" error. What can I do?**\n\nThis error typically occurs when the AI Scientist-v2 attempts to load or run a model that requires more GPU memory than available on your system. To resolve this, you can try updating your ideation prompt file (`ai_scientist\u002Fideas\u002Fmy_research_topic.md`) to suggest using smaller models for the experiments.\n\n## Acknowledgement\n\nThe tree search component implemented within the `ai_scientist` directory is built on top of the [AIDE](https:\u002F\u002Fgithub.com\u002FWecoAI\u002Faideml) project. We thank the AIDE developers for their valuable contributions and for making their work publicly available.\n\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSakanaAI_AI-Scientist-v2_readme_d5c96b35cd88.png)](https:\u002F\u002Fstar-history.com\u002F#SakanaAI\u002FAI-Scientist-v2&Date)\n\n## ⚖️ License & Responsible Use\n\nThis project is licensed under **The AI Scientist Source Code License** (a derivative of the Responsible AI License). \n\n**Mandatory Disclosure:** By using this code, you are legally bound to clearly and prominently disclose the use of AI in any resulting scientific manuscripts or papers. \n\nWe recommend the following attribution in your paper's Abstract or Methods section:\n> \"This manuscript was autonomously generated using [The AI Scientist](https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist).\"\n","\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist_v2\u002Fblob\u002Fmain\u002Fdocs\u002Flogo_v1.jpg\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSakanaAI_AI-Scientist-v2_readme_1db90f3af052.png\" width=\"215\" alt=\"AI Scientist v2 Logo\" \u002F>\n  \u003C\u002Fa>\n  \u003Ch1>\n    \u003Cb>AI Scientist-v2：工作坊级别的自动化\u003C\u002Fb>\u003Cbr>\n    \u003Cb>基于智能体树搜索的科学发现\u003C\u002Fb>\n  \u003C\u002Fh1>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  📚 \u003Ca href=\"https:\u002F\u002Fpub.sakana.ai\u002Fai-scientist-v2\u002Fpaper\">[论文]\u003C\u002Fa> |\n  📝 \u003Ca href=\"https:\u002F\u002Fsakana.ai\u002Fai-scientist-first-publication\u002F\"> [博客文章]\u003C\u002Fa> |\n  📂 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist-ICLR2025-Workshop-Experiment\"> [ICLR2025工作坊实验]\u003C\u002Fa>\n\u003C\u002Fp>\n\n完全自主的科学研究系统正变得越来越强大，而人工智能在变革科学发现方式方面发挥着关键作用。\n我们非常高兴地推出 AI Scientist-v2，这是一个通用的端到端智能体系统，它生成了第一篇完全由人工智能撰写并经过同行评审接受的工作坊论文。\n\n该系统能够自主生成假设、开展实验、分析数据并撰写科学论文。与[其前身（AI Scientist-v1）](https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist)不同，AI Scientist-v2 不再依赖人工编写的模板，能够在机器学习（ML）领域中泛化，并采用由实验管理智能体引导的渐进式智能体树搜索。\n\n> **注意：**\n> AI Scientist-v2 并不一定能产出比 v1 更好的论文，尤其是在已有强大起始模板的情况下。v1 遵循明确的模板，成功率较高；而 v2 则采取更广泛、更具探索性的方法，成功率相对较低。v1 最适合目标清晰且基础扎实的任务，而 v2 则专为开放式科学探索设计。\n\n> **警告！**\n> 此代码库将执行由大型语言模型（LLM）编写的代码。这种自主性伴随着多种风险和挑战，包括可能使用危险的软件包、不受控制的网络访问以及产生意外进程的可能性。请务必在受控的沙盒环境中运行此代码（例如 Docker 容器）。请根据自身判断谨慎使用。\n\n## 目录\n\n1.  [要求](#requirements)\n    *   [安装](#installation)\n    *   [支持的模型和 API 密钥](#supported-models-and-api-keys)\n2.  [生成研究想法](#generate-research-ideas)\n3.  [运行 AI Scientist-v2 论文生成实验](#run-ai-scientist-v2-paper-generation-experiments)\n4.  [引用 AI Scientist-v2](#citing-the-ai-scientist-v2)\n5.  [常见问题](#frequently-asked-questions)\n6.  [致谢](#acknowledgement)\n\n## 要求\n\n此代码设计用于在配备 NVIDIA GPU 并支持 CUDA 和 PyTorch 的 Linux 系统上运行。\n\n### 安装\n\n```bash\n# 创建一个新的 conda 环境\nconda create -n ai_scientist python=3.11\nconda activate ai_scientist\n\n# 安装支持 CUDA 的 PyTorch（请根据您的配置调整 pytorch-cuda 版本）\nconda install pytorch torchvision torchaudio pytorch-cuda=12.4 -c pytorch -c nvidia\n\n# 安装 PDF 和 LaTeX 工具\nconda install anaconda::poppler\nconda install conda-forge::chktex\n\n# 安装 Python 包依赖\npip install -r requirements.txt\n```\n\n安装通常不超过一小时。\n\n### 支持的模型和 API 密钥\n\n#### OpenAI 模型\n\n默认情况下，系统会使用 `OPENAI_API_KEY` 环境变量来调用 OpenAI 模型。\n\n#### Gemini 模型\n\n默认情况下，系统会使用 `GEMINI_API_KEY` 环境变量通过 OpenAI API 调用 Gemini 模型。\n\n#### 通过 AWS Bedrock 使用 Claude 模型\n\n要使用亚马逊 Bedrock 提供的 Claude 模型，请安装必要的附加包：\n```bash\npip install anthropic[bedrock]\n```\n接下来，配置有效的 [AWS 凭证](https:\u002F\u002Fdocs.aws.amazon.com\u002Fcli\u002Fv1\u002Fuserguide\u002Fcli-configure-envvars.html)以及目标 [AWS 区域](https:\u002F\u002Fdocs.aws.amazon.com\u002Fbedrock\u002Flatest\u002Fuserguide\u002Fbedrock-regions.html)，设置以下环境变量：`AWS_ACCESS_KEY_ID`、`AWS_SECRET_ACCESS_KEY`、`AWS_REGION_NAME`。\n\n#### Semantic Scholar API（文献检索）\n\n我们的代码可以选择性地使用 Semantic Scholar API 密钥 (`S2_API_KEY`) 来提高文献检索时的吞吐量 [如果您拥有该密钥]（https:\u002F\u002Fwww.semanticscholar.org\u002Fproduct\u002Fapi）。此密钥在构思阶段和论文写作阶段都会被使用。即使没有该密钥，系统也能正常运行，不过在构思阶段可能会遇到速率限制或新颖性检查功能受限的情况。如果遇到 Semantic Scholar 方面的问题，您可以在论文生成过程中跳过引用环节。\n\n#### 设置 API 密钥\n\n请确保为您打算使用的模型提供必要的 API 密钥作为环境变量。例如：\n```bash\nexport OPENAI_API_KEY=\"YOUR_OPENAI_KEY_HERE\"\nexport S2_API_KEY=\"YOUR_S2_KEY_HERE\"\n# 如果使用 Bedrock，请设置 AWS 凭证\n# export AWS_ACCESS_KEY_ID=\"YOUR_AWS_ACCESS_KEY_ID\"\n# export AWS_SECRET_ACCESS_KEY=\"YOUR_AWS_SECRET_KEY\"\n# export AWS_REGION_NAME=\"your-aws-region\"\n```\n\n## 生成研究思路\n\n在运行完整的 AI Scientist-v2 实验流程之前，您需要先使用 `ai_scientist\u002Fperform_ideation_temp_free.py` 脚本生成潜在的研究思路。该脚本会基于您提供的高层次主题描述，利用大语言模型进行头脑风暴并优化思路，并通过与 Semantic Scholar 等工具交互来检验其新颖性。\n\n1.  **准备主题描述：** 创建一个 Markdown 文件（例如 `my_research_topic.md`），用于描述您希望 AI 探索的研究领域或主题。该文件应包含 `标题`、`关键词`、`简述` 和 `摘要` 等部分，以界定研究的范围。请参考示例文件 `ai_scientist\u002Fideas\u002Fi_cant_believe_its_not_better.md` 中的结构和内容格式。将您的文件放置在脚本可访问的位置（例如 `ai_scientist\u002Fideas\u002F` 目录）。\n\n2.  **运行构思脚本：** 从主项目目录执行该脚本，指向您的主题描述文件，并指定所需的 LLM。\n\n    ```bash\n    python ai_scientist\u002Fperform_ideation_temp_free.py \\\n     --workshop-file \"ai_scientist\u002Fideas\u002Fmy_research_topic.md\" \\\n     --model gpt-4o-2024-05-13 \\\n     --max-num-generations 20 \\\n     --num-reflections 5\n    ```\n    *   `--workshop-file`: 您的主题描述 Markdown 文件的路径。\n    *   `--model`: 用于生成思路的大语言模型（请确保已设置相应的 API 密钥）。\n    *   `--max-num-generations`: 尝试生成的不同研究思路数量。\n    *   `--num-reflections`: 大语言模型对每条思路应执行的优化步骤次数。\n\n3.  **输出：** 脚本将生成一个以输入 Markdown 文件命名的 JSON 文件（例如 `ai_scientist\u002Fideas\u002Fmy_research_topic.json`）。该文件将包含一系列结构化的研究思路，包括假设、拟议实验以及相关工作分析。\n\n4.  **进入实验阶段：** 一旦获得包含研究思路的 JSON 文件，即可进入下一节，开始运行实验。\n\n这一构思步骤能够引导 AI Scientist 聚焦于特定兴趣领域，并产出可在主实验流程中验证的具体研究方向。\n\n## 运行 AI Scientist-v2 论文生成实验\n\n借助上一步构思阶段生成的 JSON 文件，现在可以启动 AI Scientist-v2 的主流程。该流程包括通过智能体树搜索执行实验、分析结果并生成论文草稿。\n\n通过命令行参数指定撰写和评审阶段所使用的模型。\n最佳优先树搜索（BFTS）的配置位于 `bfts_config.yaml` 文件中。请根据需要调整该文件中的参数。\n\n`bfts_config.yaml` 中的关键树搜索配置参数：\n\n-   `agent` 配置：\n    -   设置 `num_workers`（并行探索路径的数量）和 `steps`（最大探索节点数）。例如，若 `num_workers=3` 且 `steps=21`，则树搜索将最多探索 21 个节点，每一步同时扩展 3 个节点。\n    -   `num_seeds`：通常应与 `num_workers` 相同，前提是 `num_workers` 不超过 3。否则，应将 `num_seeds` 设为 3。\n    -   注意：当前版本未使用其他代理参数，如 `k-fold_validation`、`expose_prediction` 和 `data_preview`。\n-   `search` 配置：\n    -   `max_debug_depth`: 代理尝试调试失败节点的最大次数，超过此值将放弃该搜索路径。\n    -   `debug_prob`: 尝试调试失败节点的概率。\n    -   `num_drafts`: 第一阶段初始根节点的数量（即要生长的独立树的数量）。\n\n以下是一个使用生成的想法文件（例如 `my_research_topic.json`）运行 AI Scientist-v2 的示例命令。请参阅 `bfts_config.yaml` 查看详细的树搜索参数（默认配置使用 `claude-3-5-sonnet` 进行实验）。如果您不希望用代码片段初始化实验，请勿设置 `load_code`。\n\n```bash\npython launch_scientist_bfts.py \\\n --load_ideas \"ai_scientist\u002Fideas\u002Fmy_research_topic.json\" \\\n --load_code \\\n --add_dataset_ref \\\n --model_writeup o1-preview-2024-09-12 \\\n --model_citation gpt-4o-2024-11-20 \\\n --model_review gpt-4o-2024-11-20 \\\n --model_agg_plots o3-mini-2025-01-31 \\\n --num_cite_rounds 20\n```\n\n初始实验阶段完成后，您将在 `experiments\u002F` 目录内找到一个带有时间戳的日志文件夹。进入该文件夹中的 `experiments\u002F\"timestamp_ideaname\"\u002Flogs\u002F0-run\u002F`，即可找到树状可视化文件 `unified_tree_viz.html`。\n所有实验阶段结束后，将进入论文撰写阶段。撰写阶段通常总共耗时约 20 至 30 分钟。完成后，您应在 `timestamp_ideaname` 文件夹中看到 `timestamp_ideaname.pdf`。\n对于本次示例运行，所有阶段通常可在数小时内完成。\n\n## 引用 AI Scientist-v2\n\n如果您在研究中使用了 **AI Scientist-v2**，请按如下方式引用我们的工作：\n\n```bibtex\n@article{aiscientist_v2,\n  title={The AI Scientist-v2: Workshop-Level Automated Scientific Discovery via Agentic Tree Search},\n  author={Yamada, Yutaro and Lange, Robert Tjarko and Lu, Cong and Hu, Shengran and Lu, Chris and Foerster, Jakob and Clune, Jeff and Ha, David},\n  journal={arXiv preprint arXiv:2504.08066},\n  year={2025}\n}\n```\n\n## 常见问题解答\n\n**为什么我的实验没有生成 PDF 或评审报告？**\n\nAI Scientist-v2 完成实验的成功率取决于所选的基础模型以及研究想法的复杂程度。通常，使用 Claude 3.5 Sonnet 等强大模型进行实验阶段时，成功率会更高。\n\n**每个实验的预计成本是多少？**\n\n构思阶段的成本取决于所使用的大型语言模型及生成或反思的次数，但通常较低（几美元）。对于主要的实验流程，若在实验阶段使用 Claude 3.5 Sonnet，每次运行的成本大约为 15–20 美元。随后的写作阶段，若使用示例命令中指定的默认模型，则会额外增加约 5 美元。建议将 `model_citation` 设置为 GPT-4o，这有助于降低写作成本。\n\n**如何针对不同学科领域运行 AI Scientist-v2？**\n\n首先，执行【生成研究想法】步骤。按照示例文件 `ai_scientist\u002Fideas\u002Fi_cant_believe_its_not_better.md` 的结构，创建一个新的 Markdown 文件，描述您希望研究的学科领域或主题。然后使用该文件运行 `perform_ideation_temp_free.py` 脚本，以生成对应的想法 JSON 文件。接下来，进入【运行 AI Scientist-v2 论文生成实验】步骤，通过 `--load_ideas` 参数将此 JSON 文件与 `launch_scientist_bfts.py` 脚本结合使用。\n\n**如果无法访问 Semantic Scholar API，我该怎么办？**\n\nSemantic Scholar API 用于评估生成想法的新颖性，并在论文撰写阶段收集引用文献。如果您没有 API 密钥或遇到速率限制，可以跳过这些步骤。\n\n**我遇到了“CUDA 内存不足”的错误，该怎么办？**\n\n此错误通常发生在 AI Scientist-v2 尝试加载或运行需要超过当前系统 GPU 可用内存的模型时。要解决这个问题，您可以尝试更新您的构思提示文件（`ai_scientist\u002Fideas\u002Fmy_research_topic.md`），建议在实验中使用较小的模型。\n\n## 致谢\n\n`ai_scientist` 目录中实现的树搜索组件基于 [AIDE](https:\u002F\u002Fgithub.com\u002FWecoAI\u002Faideml) 项目构建。我们感谢 AIDE 开发者们的宝贵贡献，以及他们将其工作公开分享。\n\n## 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSakanaAI_AI-Scientist-v2_readme_d5c96b35cd88.png)](https:\u002F\u002Fstar-history.com\u002F#SakanaAI\u002FAI-Scientist-v2&Date)\n\n## ⚖️ 许可与负责任使用\n\n本项目采用 **The AI Scientist 源代码许可协议**（一种基于负责任 AI 许可协议的衍生版本）进行授权。\n\n**强制性披露：** 使用本代码即表示您在法律上必须明确且显著地披露任何由此产生的科学手稿或论文中对 AI 的使用情况。\n\n我们建议在论文的摘要或方法部分注明以下致谢：\n> “本论文由 [The AI Scientist](https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist) 自主生成。”","# AI-Scientist-v2 快速上手指南\n\nAI-Scientist-v2 是一个端到端的自主科学发现系统，能够通过代理树搜索（Agentic Tree Search）自动生成假设、运行实验、分析数据并撰写科学论文。本指南帮助中国开发者快速部署并运行该工具。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu)\n- **硬件**: 配备 CUDA 支持的 NVIDIA GPU\n- **软件依赖**:\n  - Python 3.11\n  - Conda (用于环境管理)\n  - PyTorch (需匹配 CUDA 版本)\n  - LaTeX 及 PDF 工具 (poppler, chktex)\n\n### 前置依赖\n确保系统已安装 `git` 和 `conda`。若使用国内网络，建议配置 Conda 和 Pip 的国内镜像源以加速下载。\n\n## 安装步骤\n\n### 1. 创建并激活 Conda 环境\n```bash\nconda create -n ai_scientist python=3.11\nconda activate ai_scientist\n```\n\n### 2. 安装 PyTorch (推荐使用清华或中科大镜像)\n根据您的 CUDA 版本调整 `pytorch-cuda` 版本号（示例为 12.4）：\n```bash\n# 使用清华大学镜像源安装 PyTorch\nconda install pytorch torchvision torchaudio pytorch-cuda=12.4 -c https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fcloud\u002Fpytorch -c nvidia\n```\n\n### 3. 安装 PDF 和 LaTeX 工具\n```bash\nconda install anaconda::poppler\nconda install conda-forge::chktex\n```\n\n### 4. 安装 Python 依赖包\n```bash\n# 可选：临时设置 pip 使用阿里云镜像\nexport PIP_INDEX_URL=https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F\n\npip install -r requirements.txt\n```\n\n### 5. 配置 API Keys\n该系统依赖大模型 API。请在终端导出相应的环境变量（替换为您的真实 Key）：\n\n```bash\n# OpenAI 模型\nexport OPENAI_API_KEY=\"YOUR_OPENAI_KEY_HERE\"\n\n# Google Gemini 模型\nexport GEMINI_API_KEY=\"YOUR_GEMINI_KEY_HERE\"\n\n# Semantic Scholar API (用于文献检索，可选但推荐)\nexport S2_API_KEY=\"YOUR_S2_KEY_HERE\"\n\n# 若使用 AWS Bedrock 调用 Claude 模型，还需配置：\n# export AWS_ACCESS_KEY_ID=\"YOUR_AWS_ACCESS_KEY_ID\"\n# export AWS_SECRET_ACCESS_KEY=\"YOUR_AWS_SECRET_KEY\"\n# export AWS_REGION_NAME=\"your-aws-region\"\n```\n\n> **⚠️ 安全警告**：本工具会执行 LLM 生成的代码。请务必在隔离的沙箱环境（如 Docker 容器）中运行，以防止潜在的安全风险（如恶意包安装、未授权的网络访问等）。\n\n## 基本使用\n\n使用流程分为两步：**生成研究思路** 和 **运行实验生成论文**。\n\n### 第一步：生成研究思路 (Ideation)\n\n首先定义一个研究主题，让 AI 头脑风暴具体的研究假设。\n\n1. **准备主题文件**：\n   创建一个 Markdown 文件（例如 `ai_scientist\u002Fideas\u002Fmy_topic.md`），描述研究领域。参考项目内 `ai_scientist\u002Fideas\u002Fi_cant_believe_its_not_better.md` 的格式，包含 `Title`, `Keywords`, `TL;DR`, `Abstract` 等字段。\n\n2. **运行思路生成脚本**：\n   ```bash\n   python ai_scientist\u002Fperform_ideation_temp_free.py \\\n    --workshop-file \"ai_scientist\u002Fideas\u002Fmy_topic.md\" \\\n    --model gpt-4o-2024-05-13 \\\n    --max-num-generations 20 \\\n    --num-reflections 5\n   ```\n   *   `--workshop-file`: 上一步创建的主题文件路径。\n   *   `--model`: 用于生成思路的模型名称。\n   *   运行结束后，将在同目录下生成 `my_topic.json`，包含结构化的研究假设和实验计划。\n\n### 第二步：运行实验并生成论文 (Experiment & Writeup)\n\n利用生成的 JSON 文件启动完整的自动化科研流程。\n\n1. **配置文件调整 (可选)**：\n   编辑 `bfts_config.yaml` 可调整树搜索参数（如并行 worker 数量 `num_workers` 和最大探索节点数 `steps`）。默认配置通常即可使用。\n\n2. **启动主程序**：\n   ```bash\n   python launch_scientist_bfts.py \\\n    --load_ideas \"ai_scientist\u002Fideas\u002Fmy_topic.json\" \\\n    --load_code \\\n    --add_dataset_ref \\\n    --model_writeup o1-preview-2024-09-12 \\\n    --model_citation gpt-4o-2024-11-20 \\\n    --model_review gpt-4o-2024-11-20 \\\n    --model_agg_plots o3-mini-2025-01-31 \\\n    --num_cite_rounds 20\n   ```\n   *   `--load_ideas`: 指向第一步生成的 JSON 文件。\n   *   `--model_writeup` \u002F `--model_citation` \u002F `--model_review`: 分别指定用于撰写、引用和评审阶段的模型。\n\n3. **查看结果**：\n   *   实验过程中，可在 `experiments\u002F\u003Ctimestamp_ideaname>\u002Flogs\u002F0-run\u002F` 目录下查看 `unified_tree_viz.html` 了解搜索树进展。\n   *   全部完成后（通常需数小时），最终的论文 PDF (`\u003Ctimestamp_ideaname>.pdf`) 将生成在对应的实验文件夹中。","某高校机器学习实验室的研究团队正试图在“小样本图像分类”这一开放领域寻找新的突破点，但缺乏明确的改进方向。\n\n### 没有 AI-Scientist-v2 时\n- **创意枯竭**：研究人员需花费数周阅读海量文献才能构思出一个可行的假设，且容易陷入既有思维定式。\n- **试错成本高**：手动编写实验代码、调整超参数并运行测试极其耗时，验证一个想法往往需要数天甚至更久。\n- **探索范围窄**：受限于人力，团队只能沿着少数几条确定的技术路线深入，难以进行大规模的并行探索。\n- **写作负担重**：即便实验成功，将数据转化为符合学术规范的论文草稿也需要耗费大量精力进行整理和撰写。\n\n### 使用 AI-Scientist-v2 后\n- **自动提出假设**：AI-Scientist-v2 能自主分析现有知识库，瞬间生成数十个新颖且跨领域的研究假设，打破人类思维局限。\n- **闭环实验执行**：系统自动编写并安全执行代码，在沙箱环境中并行运行大量实验，将原本数天的验证过程压缩至几小时。\n- **广域树状搜索**：利用代理树搜索机制，AI-Scientist-v2 能同时探索多条未知的技术分支，快速定位潜在的高价值研究方向。\n- **一键生成论文**：从数据分析到图表绘制，再到全文撰写，AI-Scientist-v2 直接输出结构完整、逻辑严密的学术论文初稿供同行评审。\n\nAI-Scientist-v2 将科研人员从繁琐的重复劳动中解放出来，使其能专注于更高维度的科学决策，真正实现端到端的自动化科学发现。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSakanaAI_AI-Scientist-v2_1db90f3a.png","SakanaAI","Sakana AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSakanaAI_76656b64.png","On a quest to create a new kind of foundation model based on nature-inspired intelligence.",null,"info at sakana dot ai","SakanaAILabs","https:\u002F\u002Fsakana.ai\u002F","https:\u002F\u002Fgithub.com\u002FSakanaAI",[83,87,91,94,98],{"name":84,"color":85,"percentage":86},"Python","#3572A5",70.3,{"name":88,"color":89,"percentage":90},"TeX","#3D6117",18.2,{"name":92,"color":77,"percentage":93},"BibTeX Style",7.3,{"name":95,"color":96,"percentage":97},"JavaScript","#f1e05a",3.1,{"name":99,"color":100,"percentage":101},"HTML","#e34c26",1,5305,733,"2026-04-09T04:54:00","NOASSERTION",4,"Linux","必需 NVIDIA GPU，需支持 CUDA（安装示例使用 pytorch-cuda=12.4），具体显存大小未说明","未说明",{"notes":111,"python":112,"dependencies":113},"1. 必须在受控的沙箱环境（如 Docker 容器）中运行，因为系统会执行 LLM 生成的代码，存在安全风险。2. 需要配置大模型 API 密钥（如 OPENAI_API_KEY, GEMINI_API_KEY 或 AWS Bedrock 凭证）。3. 可选配置 Semantic Scholar API Key (S2_API_KEY) 以提高文献搜索效率。4. 默认实验配置推荐使用 Claude 3.5 Sonnet 模型。","3.11",[114,115,116,117,118,119],"pytorch","torchvision","torchaudio","poppler","chktex","anthropic[bedrock]",[35,13,121],"其他","2026-03-27T02:49:30.150509","2026-04-11T18:33:07.568724",[125,130,135,140,145,150],{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},26383,"如何上传本地文件（如数据集或参考代码）供 AI Scientist 使用？","您可以使用 `--load_code` 选项，并提供一个包含自定义数据集加载逻辑的种子代码文件（例如 `idea.py`）。在这种情况下，不需要设置 `--add_dataset_ref` 标志。`idea.py` 主要用于提供参考代码或自定义脚本，而非必须包含基线实现。","https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist-v2\u002Fissues\u002F31",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},26384,"运行实验时遇到 JSONDecodeError 错误怎么办？","该错误通常不是由超时或工作线程过载引起的，而是因为 LLM 生成的响应格式不符合预期的 JSON 规范（例如缺少逗号、大括号或返回空字符串）。建议尝试更换为更稳健的模型来执行想法生成步骤，以确保输出格式正确。","https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist-v2\u002Fissues\u002F65",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},26385,"运行 launch_scientist_bfts.py 时报错说 Python 文件不存在，是否需要手动创建？","如果您在命令中使用了 `--load_code` 标志，系统会强制要求对应的 `.py` 文件存在。如果您没有准备自定义的 Python 代码文件，请在运行命令时移除 `--load_code` 参数（即默认设为 False），这样就不需要手动创建该文件了。","https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist-v2\u002Fissues\u002F24",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},26386,"`ideas` 文件夹中的 Python 文件必须是人工编写的吗？","不一定。这些 Python 文件是可选的，主要由人工提供，用于处理现代 LLM 难以编写的复杂代码（例如特定研究领域的自定义逻辑）。您可以完全控制是否提供这些文件；如果不提供，AI Scientist 将尝试自行生成所有代码。它们本质上是对提示词（prompt）的补充。","https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist-v2\u002Fissues\u002F26",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},26387,"遇到 API 调用失败（如 Semantic Scholar 连接错误或 404）该如何解决？","API 调用失败可能由多种原因引起，包括请求速率限制（rate-limited）、网络连接错误或 API 凭证未正确设置等。请检查您的网络环境、确认 API Key 配置无误，并注意不要超过 API 的调用频率限制。如果是模型端点错误（如 404），请确认模型名称和端点地址是否正确。","https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist-v2\u002Fissues\u002F6",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},26388,"AI Scientist 能直接帮我解决具体的科研问题（如动态定价优化）吗？","AI Scientist 只是一个辅助科研的工具，它无法自动为您解决具体的领域问题。您需要利用该工具来尝试和探索解决方案，具体的实验设计、假设验证和问题求解仍需由研究人员主导完成。","https:\u002F\u002Fgithub.com\u002FSakanaAI\u002FAI-Scientist-v2\u002Fissues\u002F57",[]]