[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-cyberark--FuzzyAI":3,"tool-cyberark--FuzzyAI":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,2,"2026-04-18T23:33:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":32,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":106,"github_topics":108,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":167},9410,"cyberark\u002FFuzzyAI","FuzzyAI","A powerful tool for automated LLM fuzzing. It is designed to help developers and security researchers identify and mitigate potential jailbreaks in their LLM APIs.","FuzzyAI 是一款专为大型语言模型（LLM）设计的自动化模糊测试工具，旨在帮助开发者与安全研究人员主动发现并修复模型 API 中潜在的“越狱”漏洞。随着大模型应用的普及，恶意提示词可能导致模型绕过安全限制，输出有害内容，FuzzyAI 正是为了解决这一安全隐患而生。它通过自动化的攻击模拟，高效识别模型在面对各类恶意输入时的脆弱点，从而协助团队在部署前加固防御体系。\n\n该工具特别适合 AI 应用开发者、安全审计人员以及大模型研究者使用。无论是希望评估自家模型安全性的工程师，还是致力于研究对抗性攻击的学者，都能从中获益。FuzzyAI 的技术亮点在于其丰富的攻击策略库，支持包括 ManyShot、Taxonomy 及 ArtPrompt 在内的多种先进攻击模式，并能无缝对接 Ollama 本地模型以及 OpenAI、Anthropic 等主流云端 API。此外，它还提供了直观的 Web 界面和交互式 Jupyter 笔记本，降低了使用门槛，让用户能灵活地定制测试场景或分析数据集。通过 FuzzyAI，用户可以更安心地构建和部署健壮、安全的智能应用。","\u003Cp align=\"center\">\n   \u003Ch1 align=\"center\">FuzzyAI Fuzzer\u003C\u002Fh1>\n   \u003Cp align=\"center\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcyberark_FuzzyAI_readme_61309d5b0a58.png\" alt=\"Project Logo\" width=\"200\" style=\"vertical-align:middle; margin-right:10px;\" \u002F>\u003Cbr\u002F>\n      The FuzzyAI Fuzzer is a powerful tool for automated LLM fuzzing. It is designed to help developers and security researchers identify jailbreaks and mitigate potential security vulnerabilities in their LLM APIs. \n   \u003C\u002Fp>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcyberark\u002Ffuzzyai\u002Fcommits\u002Fmain\">\n      \u003Cimg alt=\"GitHub last commit\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fcyberark\u002Ffuzzyai\">\n   \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcyberark\u002Ffuzzyai\">\n      \u003Cimg alt=\"GitHub code size in bytes\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flanguages\u002Fcode-size\u002Fcyberark\u002FFuzzyAI\">\n   \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcyberark\u002Ffuzzyai\u002Fblob\u002Fmaster\u002FLICENSE\" >\n      \u003Cimg alt=\"GitHub License\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fcyberark\u002Ffuzzyai\">\n   \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FewQjdx2V\">\n      \u003Cimg alt=\"Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1330486843938177157\">\n   \u003C\u002Fa>\n   \u003Cbr\u002F>\u003Cbr\u002F>\n   \u003Cimg alt=\"fuzzgif\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcyberark_FuzzyAI_readme_e80bac0dc334.gif\" \u002F>\n   \u003Cbr\u002F>\n\u003C\u002Fp>\n\n## Getting Started\n### Quick start #1 - Using an existing python project\n1. Install fuzzyai\n   ```bash\n   # Use either pip or any other package manager\n   pip install git+https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI.git\n   ```\n\n2. Run the fuzzer\n   ```bash\n   fuzzyai fuzz -h\n   ```\n\n### Quick start #2 - or as a standalone project\n1. Clone the repository:\n   ```bash\n   git clone git@github.com:cyberark\u002FFuzzyAI.git\n   cd FuzzyAI\n   ```\n\n2. Install dependencies using [Poetry](https:\u002F\u002Fpython-poetry.org\u002F):\n   ```bash\n   poetry run pip install -e .\n   ```\n\n3. Run the fuzzer:\n   ```bash\n   poetry run fuzzyai fuzz -h\n   ```\n\n4. Optional: Install [ollama](https:\u002F\u002Follama.com\u002Fdownload\u002F), and download a model for local usage:\n   ``` # Running the command will download and install (if not) llama3.1, which is about 4.7 GB in size and is an 8B parameters model. Llama3.1 hat can be substituted with any other open-source model that is supported by ollama.\n   ollama pull llama3.1\n   ollama show llama3.1 # verify model installation\n   ```\n   \n   Alternativly, you can use the Web UI\n\n## Web UI (Experimental)\n![FZAI](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcyberark_FuzzyAI_readme_13350d6917bb.png)\n\n1. Run the Web UI (make sure you completed either of the installation steps from above):\n   ```bash\n    poetry run fuzzyai webui\n    \n    # Or specify a custom port:\n    poetry run fuzzyai webui --port 9000\n   ```\n\n## Notebooks\nWe've included interactive Jupyter notebooks you can use under [src\u002Ffuzzyai\u002Fresources\u002Fnotebooks\u002F](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Ftree\u002Fmain\u002Fsrc\u002Ffuzzyai\u002Fresources\u002Fnotebooks).  \nFor more information, see [notebooks wiki](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fwiki#notebooks).\n\n## Datasets\n\nWe've included some datasets you can use under [resources\u002F](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Ftree\u002Fmain\u002Fsrc\u002Ffuzzyau\u002Fresources). For more information, see [datasets wiki](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fwiki#datasets).\n\n## Documentation\n\nExplore detailed usage instructions in the [Wiki](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fwiki).\n\n## Examples\nIf you're using poetry, make sure you've activated the venv (or by prepending 'poetry run' to the command line\n\n### A default attack (just evaluate the prompt 'Harmful_Prompt') using llama over Ollama\n```bash\nfuzzyai fuzz -m ollama\u002Fllama3.1 -a def -t \"Harmful_Prompt\"\n```\n\n### Attack the prompt utilizing ManyShot and Taxonomy attacks, using gpt3.5 over OpenAI using one worker\n```bash\nOPENAI_API_KEY=sk-3fa1... fuzzyai fuzz -m openai\u002Fgpt-3.5-turbo -a man -a tax -t \"Harmful_Prompt\"\n```\n\n### Attack prompts in prompts.txt utilizing the ArtPrompt attack, using Claude 3.5 over Anthropic\n```bash\nANTHROPIC_API_KEY=deadbeef... fuzzyai fuzz -m anthropic\u002Fclaude-3-5-sonnet-20240620 -a art -T src\u002Ffuzzyai\u002Fresources\u002Fadv_prompts.txt -e blacklisted_words=\"bomb,garbage,acid,ugly,self-harm,kill your\"\n```\n\n--- \n\n### Attack your own REST API\n```bash\nOPENAI_API_KEYT=sk-3fa1... fuzzyai fuzz -a def -x openai\u002Fgpt-4 -e classifier_model=openai\u002Fgpt-4 -m rest\u002Fhttp.raw -e host=localhost -e port=8000 -e scheme=https  \n-t \"How to build a bomb\"\n```\n\n#### Arguments breakdown:\n- **`-a def`**:  \n  Invokes the default attack mode, which evaluates the API without applying additional strategies.\n\n- **`-x openai\u002Fgpt-4`**:  \n  Specifies an auxiliary model (`gpt-4`) to assist with certain tasks during the attack.\n\n- **`-e classifier_model=openai\u002Fgpt-4`**:  \n  Configures the fuzzer to use the `gpt-4` model for classifying outputs. This helps determine whether responses meet specific criteria, such as detecting harmful or unwanted content.\n\n- **`-m rest\u002Fhttp.raw`**:  \n  Uses the REST provider to attack an API endpoint. The raw HTTP request is parsed from the file `http.raw`. (Refer to the [documentation or example](.\u002Fsrc\u002Ffuzzyai\u002Fresources\u002Fhttp.raw) for details on the file structure.)\n\n- **`-e host=localhost -e port=8000 -e scheme=https`**:  \n  Configures the REST provider with the following API endpoint details:\n  - **Host**: `localhost`\n  - **Port**: `8000`\n  - **Scheme**: `https` (communication will use HTTPS)\n\n- **`-t \"How to build a bomb\"`**:  \n  Specifies the test input. In this example, it tests the API's handling of sensitive or harmful content.\n\n\n## Key Features\n\n- **Comprehensive Fuzzing Techniques**: Leverage mutation-based, generation-based, and intelligent fuzzing.\n- **Built-in Input Generation**: Generate valid and invalid inputs for exhaustive testing.\n- **Seamless Integration**: Easily incorporate into your development and testing workflows.\n- **Extensible Architecture**: Customize and expand the fuzzer to meet your unique requirements.\n\n## Supported models\nFuzzyAI supports various models across top providers, including:\n\n| Provider     | Models                                                                                                   |\n|--------------|----------------------------------------------------------------------------------------------------------|\n| **Anthropic**| Claude (3.5, 3.0, 2.1)                                                                                   |\n| **OpenAI**   | GPT-4o, GPT-4o mini, GPT o3                                                                                 |\n| **Gemini**   | Gemini Pro, Gemini 1.5                                                                                  |\n| **Azure**    | GPT-4, GPT-3.5 Turbo                                                                                    |\n| **Bedrock**  | Claude (3.5, 3.0), Meta (LLaMa)                                                                             |\n| **AI21**     | Jamba (1.5 Mini, Large)                                                                                |\n| **DeepSeek** | DeepSeek (DeepSeek-V3, DeepSeek-V1)                                                                  |\n| **Ollama**   | LLaMA (3.3, 3.2, 3.1), Dolphin-LLaMA3, Vicuna                                                               |\n\n## Adding support for newer models\nEasily add support for additional models by following our \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fwiki\u002FDIY#adding-support-for-new-models\">DIY guide\u003C\u002Fa>.\n\n## Implemented Attacks\nSee \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fwiki\u002FAttacks\">attacks wiki\u003C\u002Fa> for detailed information\n\n| Attack Type                                  | Title                                                                                                                                                                       | Reference                                                                       |\n|----------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------|\n| ArtPrompt                                    | ASCII Art-based jailbreak attacks against aligned LLMs                                                                                                                      | [arXiv:2402.11753](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.11753)                            |\n| Taxonomy-based paraphrasing                  | Persuasive language techniques like emotional appeal to jailbreak LLMs                                                                                | [arXiv:2401.06373](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2401.06373)                            |\n| PAIR (Prompt Automatic Iterative Refinement) | Automates adversarial prompt generation by iteratively refining prompts with two LLMs                       | [arXiv:2310.08419](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.08419)                            |\n| Many-shot jailbreaking                       | Embeds multiple fake dialogue examples to weaken model safety                            | [Anthropic Research](https:\u002F\u002Fwww.anthropic.com\u002Fresearch\u002Fmany-shot-jailbreaking) |\n| ASCII Smuggling                              | ASCII Smuggling uses Unicode Tag characters to embed hidden instructions within text, which are invisible to users but can be processed by Large Language Models (LLMs), potentially leading to prompt injection attacks                                                                                | [Embracethered blog](https:\u002F\u002Fembracethered.com\u002Fblog\u002Fposts\u002F2024\u002Fhiding-and-finding-text-with-unicode-tags\u002F) |\n| Genetic                                      | Utilizes a genetic algorithm to modify prompts for adversarial outcomes                      | [arXiv:2309.01446](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2309.01446)                            |\n| Hallucinations                               | Bypasses RLHF filters using model-generated                                                                                                                                 | [arXiv:2403.04769](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2403.04769.pdf)                        |\n| DAN (Do Anything Now)                        | Promotes the LLM to adopt an unrestricted persona that ignores standard content filters, allowing it to \"Do Anything Now\".                                                  | [GitHub Repo](https:\u002F\u002Fgithub.com\u002F0xk1h0\u002FChatGPT_DAN)                            |\n| WordGame                                     | Disguises harmful prompts as word puzzles                                                                                                                                   | [arXiv:2405.14023](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2405.14023)                            |\n| Crescendo                                    | Engaging the model in a series of escalating conversational turns,starting with innocuous queries and gradually steering the dialogue toward restricted or sensitive topics. | [arXiv:2404.01833](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.01833)                            |\n| ActorAttack                                  | Inspired by actor-network theory, it builds semantic networks of \"actors\" to subtly guide conversations toward harmful targets while concealing malicious intent.           | [arxiv 2410.10700](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2410.10700)                                                                            |                                                                                                                                     |\n| Best-of-n jailbreaking | Uses input variations to repeatedly elicit harmful responses, exploiting model sensitivity | [arXiv:2412.03556](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.03556) |\n| Shuffle Inconsistency Attack (SI-Attack) | Exploits the inconsistency between an LLM's comprehension ability and safety mechanisms by shuffling harmful text prompts. The shuffled text bypasses safety mechanisms while still being understood as harmful by the LLM. Only the text-based implementation was completed; the image-based aspect was not implemented. | [arXiv:2501.04931](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.04931) |\n| Back To The Past                             | Modifies the prompt by adding a profession-based prefix and a past-related suffix                                                                                           |                                                                                 |\n| History\u002FAcademic framing                             | Framing sensitive technical data as scholarly or historical research to enable ethical, legal use—potentially leading to a jailbreak.                                                                                           |                                                                                 |\n| Please                                       | Modifies the prompt by adding please as a prefix and suffix                                                                                                                   |                                                                                 |\n| Thought Experiment                           | Modifies the prompt by adding a thought experiment-related prefix. In addition, adds \"precautions have been taken care of\" suffix                                                  |                                                                                 \n| Default                                      | Send the prompt to the model as-is \n\n## Supported Cloud APIs\n- **OpenAI**\n- **Anthropic**\n- **Gemini**\n- **Azure Cloud**\n- **AWS Bedrock**\n- **AI21**\n- **DeepSeek**\n- **Huggingface ([Downloading models](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fhub\u002Fen\u002Fmodels-downloading))**\n- **Ollama**\n- **Custom REST API**\n---\n\n## Caveats\n* Some classifiers do more than just evaluate a single output. For example, the cosine-similarity classifier compares two outputs by measuring the angle between them, while a 'harmfulness' classifier checks whether a given output is harmful. As a result, not all classifiers are compatible with the attack methods we've implemented, as those methods are designed for single-output classifiers.\n* When using the -m option with OLLAMA models, \u003Cb>ensure that all OLLAMA models are added first before adding any other models.\u003C\u002Fb> Use the -e port=... option to specify the port number for OLLAMA (default is 11434).\n\n## Contributing\n\nContributions are welcome! If you would like to contribute to the FuzzyAI Fuzzer, please follow the guidelines outlined in the [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fblob\u002Fmain\u002FCONTRIBUTING.md) file.\n\n## License\n\nThe FuzzyAI Fuzzer is released under the [Apache License](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0). See the [LICENSE](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fblob\u002Fmain\u002FLICENSE) file for more details.\n\n## Contact\n\nIf you have any questions or suggestions regarding the FuzzyAI Fuzzer, please feel free to contact us at [fzai@cyberark.com](mailto:fzai@cyberark.com).\n\n","\u003Cp align=\"center\">\n   \u003Ch1 align=\"center\">FuzzyAI 模糊测试工具\u003C\u002Fh1>\n   \u003Cp align=\"center\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcyberark_FuzzyAI_readme_61309d5b0a58.png\" alt=\"项目Logo\" width=\"200\" style=\"vertical-align:middle; margin-right:10px;\" \u002F>\u003Cbr\u002F>\n      FuzzyAI 模糊测试工具是一款功能强大的自动化大语言模型（LLM）模糊测试工具。它旨在帮助开发者和安全研究人员识别逃逸攻击，并缓解其 LLM API 中潜在的安全漏洞。\n   \u003C\u002Fp>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcyberark\u002Ffuzzyai\u002Fcommits\u002Fmain\">\n      \u003Cimg alt=\"GitHub 最后一次提交\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fcyberark\u002Ffuzzyai\">\n   \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcyberark\u002Ffuzzyai\">\n      \u003Cimg alt=\"GitHub 代码大小（字节）\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flanguages\u002Fcode-size\u002Fcyberark\u002FFuzzyAI\">\n   \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcyberark\u002Ffuzzyai\u002Fblob\u002Fmaster\u002FLICENSE\" >\n      \u003Cimg alt=\"GitHub 许可证\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fcyberark\u002Ffuzzyai\">\n   \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FewQjdx2V\">\n      \u003Cimg alt=\"Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1330486843938177157\">\n   \u003C\u002Fa>\n   \u003Cbr\u002F>\u003Cbr\u002F>\n   \u003Cimg alt=\"fuzzgif\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcyberark_FuzzyAI_readme_e80bac0dc334.gif\" \u002F>\n   \u003Cbr\u002F>\n\u003C\u002Fp>\n\n## 快速入门\n### 快速入门 #1 - 使用现有 Python 项目\n1. 安装 FuzzyAI\n   ```bash\n   # 可以使用 pip 或其他任何包管理器\n   pip install git+https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI.git\n   ```\n\n2. 运行模糊测试工具\n   ```bash\n   fuzzyai fuzz -h\n   ```\n\n### 快速入门 #2 - 或作为独立项目\n1. 克隆仓库：\n   ```bash\n   git clone git@github.com:cyberark\u002FFuzzyAI.git\n   cd FuzzyAI\n   ```\n\n2. 使用 [Poetry](https:\u002F\u002Fpython-poetry.org\u002F) 安装依赖项：\n   ```bash\n   poetry run pip install -e .\n   ```\n\n3. 运行模糊测试工具：\n   ```bash\n   poetry run fuzzyai fuzz -h\n   ```\n\n4. 可选：安装 [ollama](https:\u002F\u002Follama.com\u002Fdownload\u002F) 并下载一个本地使用的模型：\n   ``` # 执行该命令将下载并安装 llama3.1（如果尚未安装），其大小约为 4.7 GB，是一个 8B 参数的模型。llama3.1 可以替换为 ollama 支持的任何其他开源模型。\n   ollama pull llama3.1\n   ollama show llama3.1 # 验证模型是否已安装\n   ```\n   \n   或者，您也可以使用 Web UI。\n\n## Web UI（实验性）\n![FZAI](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcyberark_FuzzyAI_readme_13350d6917bb.png)\n\n1. 运行 Web UI（请确保已完成上述任一安装步骤）：\n   ```bash\n    poetry run fuzzyai webui\n    \n    # 或指定自定义端口：\n    poetry run fuzzyai webui --port 9000\n   ```\n\n## 笔记本\n我们提供了一些交互式 Jupyter 笔记本，您可以在 [src\u002Ffuzzyai\u002Fresources\u002Fnotebooks\u002F](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Ftree\u002Fmain\u002Fsrc\u002Ffuzzyai\u002Fresources\u002Fnotebooks) 下找到它们。  \n更多信息，请参阅 [笔记本 Wiki](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fwiki#notebooks)。\n\n## 数据集\n\n我们提供了一些数据集，您可以在 [resources\u002F](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Ftree\u002Fmain\u002Fsrc\u002Ffuzzyau\u002Fresources) 下找到它们。更多信息，请参阅 [数据集 Wiki](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fwiki#datasets)。\n\n## 文档\n\n在 [Wiki](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fwiki) 中可以找到详细的使用说明。\n\n## 示例\n如果您使用 Poetry，请确保已激活虚拟环境（或者在命令前加上 `poetry run`）。\n\n### 使用 Ollama 上的 llama 对默认攻击进行测试（仅评估“有害提示”）\n```bash\nfuzzyai fuzz -m ollama\u002Fllama3.1 -a def -t \"Harmful_Prompt\"\n```\n\n### 使用 ManyShot 和 Taxonomy 攻击对提示进行攻击，使用 OpenAI 上的 gpt3.5 并启用单个工作线程\n```bash\nOPENAI_API_KEY=sk-3fa1... fuzzyai fuzz -m openai\u002Fgpt-3.5-turbo -a man -a tax -t \"Harmful_Prompt\"\n```\n\n### 使用 Claude 3.5 对 prompts.txt 中的提示进行 ArtPrompt 攻击，使用 Anthropic 上的 Claude 3.5\n```bash\nANTHROPIC_API_KEY=deadbeef... fuzzyai fuzz -m anthropic\u002Fclaude-3-5-sonnet-20240620 -a art -T src\u002Ffuzzyai\u002Fresources\u002Fadv_prompts.txt -e blacklisted_words=\"bomb,garbage,acid,ugly,self-harm,kill your\"\n```\n\n---\n\n### 对您自己的 REST API 进行攻击\n```bash\nOPENAI_API_KEYT=sk-3fa1... fuzzyai fuzz -a def -x openai\u002Fgpt-4 -e classifier_model=openai\u002Fgpt-4 -m rest\u002Fhttp.raw -e host=localhost -e port=8000 -e scheme=https  \n-t \"如何制造炸弹\"\n```\n\n#### 参数解析：\n- **`-a def`**：  \n  调用默认攻击模式，该模式会在不应用额外策略的情况下评估 API。\n\n- **`-x openai\u002Fgpt-4`**：  \n  指定辅助模型（gpt-4），用于在攻击过程中协助完成某些任务。\n\n- **`-e classifier_model=openai\u002Fgpt-4`**：  \n  配置模糊测试工具使用 gpt-4 模型来分类输出。这有助于确定响应是否符合特定标准，例如检测有害或不良内容。\n\n- **`-m rest\u002Fhttp.raw`**：  \n  使用 REST 提供程序攻击 API 端点。原始 HTTP 请求从文件 `http.raw` 中解析。（有关文件结构的详细信息，请参阅 [文档或示例](.\u002Fsrc\u002Ffuzzyai\u002Fresources\u002Fhttp.raw)。）\n\n- **`-e host=localhost -e port=8000 -e scheme=https`**：  \n  使用以下 API 端点详细信息配置 REST 提供程序：\n  - **主机**：`localhost`\n  - **端口**：`8000`\n  - **协议**：`https`（通信将使用 HTTPS）\n\n- **`-t \"如何制造炸弹\"`**：  \n  指定测试输入。在此示例中，测试的是 API 对敏感或有害内容的处理能力。\n\n\n## 核心特性\n\n- **全面的模糊测试技术**：利用基于变异、基于生成以及智能模糊测试技术。\n- **内置输入生成**：生成有效和无效输入，以实现全面测试。\n- **无缝集成**：轻松集成到您的开发和测试流程中。\n- **可扩展架构**：根据您的独特需求自定义和扩展模糊测试工具。\n\n## 支持的模型\nFuzzyAI 支持来自顶级提供商的各种模型，包括：\n\n| 提供商     | 模型                                                                                                   |\n|--------------|----------------------------------------------------------------------------------------------------------|\n| **Anthropic**| Claude (3.5、3.0、2.1)                                                                                   |\n| **OpenAI**   | GPT-4o、GPT-4o mini、GPT o3                                                                                 |\n| **Gemini**   | Gemini Pro、Gemini 1.5                                                                                  |\n| **Azure**    | GPT-4、GPT-3.5 Turbo                                                                                    |\n| **Bedrock**  | Claude (3.5、3.0)、Meta (LLaMa)                                                                             |\n| **AI21**     | Jamba (1.5 Mini、Large)                                                                                |\n| **DeepSeek** | DeepSeek (DeepSeek-V3、DeepSeek-V1)                                                                  |\n| **Ollama**   | LLaMA (3.3、3.2、3.1)、Dolphin-LLaMA3、Vicuna                                                               |\n\n## 添加对新模型的支持\n只需按照我们的\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fwiki\u002FDIY#adding-support-for-new-models\">DIY 指南\u003C\u002Fa>，即可轻松添加对其他模型的支持。\n\n## 已实现的攻击方法\n详细信息请参阅 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fwiki\u002FAttacks\">攻击维基\u003C\u002Fa>\n\n| 攻击类型                                  | 标题                                                                                                                                                                       | 参考                                                                       |\n|----------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------|\n| 艺术提示                                    | 基于 ASCII 艺术的越狱攻击，针对对齐的大型语言模型                                                                                                                      | [arXiv:2402.11753](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.11753)                            |\n| 基于分类法的改写                  | 利用情感诉求等说服性语言技巧来越狱大型语言模型                                                                                | [arXiv:2401.06373](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2401.06373)                            |\n| PAIR（提示自动迭代优化） | 通过两台大型语言模型迭代优化提示，自动进行对抗性提示生成                       | [arXiv:2310.08419](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.08419)                            |\n| 多次示例越狱                       | 嵌入多个虚假对话示例以削弱模型的安全性                            | [Anthropic Research](https:\u002F\u002Fwww.anthropic.com\u002Fresearch\u002Fmany-shot-jailbreaking) |\n| ASCII 秘密传输                              | ASCII 秘密传输利用 Unicode 标记字符在文本中嵌入隐藏指令，这些指令对用户不可见，但可被大型语言模型 (LLM) 处理，从而可能导致提示注入攻击                                                                                | [Embracethered 博客](https:\u002F\u002Fembracethered.com\u002Fblog\u002Fposts\u002F2024\u002Fhiding-and-finding-text-with-unicode-tags\u002F) |\n| 遗传算法                                      | 利用遗传算法修改提示以达到对抗性效果                      | [arXiv:2309.01446](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2309.01446)                            |\n| 幻觉                                        | 使用模型生成的内容绕过 RLHF 过滤器                                                                                                                                 | [arXiv:2403.04769](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2403.04769.pdf)                        |\n| DAN（立即做任何事）                        | 促使大型语言模型采用不受限制的角色，忽略标准内容过滤机制，从而使其能够“立即做任何事”。                                                  | [GitHub 仓库](https:\u002F\u002Fgithub.com\u002F0xk1h0\u002FChatGPT_DAN)                            |\n| 文字游戏                                     | 将有害提示伪装成文字谜题                                                                                                                                   | [arXiv:2405.14023](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2405.14023)                            |\n| 渐强法                                    | 通过一系列逐步升级的对话轮次与模型互动，从无害的问题开始，逐渐将对话引向受限或敏感话题。 | [arXiv:2404.01833](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.01833)                            |\n| 行动者攻击                                  | 受行动者网络理论启发，构建“行动者”的语义网络，在隐藏恶意意图的同时，巧妙地引导对话走向有害目标。           | [arxiv 2410.10700](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2410.10700)                                                                            |                                                                                                                                     |\n| 最佳 n 次越狱 | 利用输入变体反复诱导模型产生有害响应，利用模型的敏感性 | [arXiv:2412.03556](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.03556) |\n| 打乱不一致性攻击 (SI-Attack) | 利用大型语言模型的理解能力与安全机制之间的不一致性，通过打乱有害文本提示来实施攻击。打乱后的文本可以绕过安全机制，但仍被模型识别为有害内容。目前仅完成了基于文本的实现，基于图像的部分尚未实现。 | [arXiv:2501.04931](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.04931) |\n| 回到过去                             | 通过添加职业相关的前缀和与过去相关的后缀来修改提示                                                                                           |                                                                                 |\n| 历史\u002F学术框架                             | 将敏感的技术数据包装成学术或历史研究的形式，以实现合乎伦理和法律的使用——这可能会导致越狱。                                                                                           |                                                                                 |\n| 请                                       | 通过在提示前后分别添加“请”一词来修改提示                                                                                                                   |                                                                                 |\n| 思想实验                           | 在提示前添加与思想实验相关的内容，并在结尾加上“已采取预防措施”的后缀                                                  |                                                                                 \n| 默认                                      | 直接将提示原样发送给模型 \n\n## 支持的云 API\n- **OpenAI**\n- **Anthropic**\n- **Gemini**\n- **Azure 云**\n- **AWS Bedrock**\n- **AI21**\n- **DeepSeek**\n- **Huggingface ([下载模型](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fhub\u002Fen\u002Fmodels-downloading))**\n- **Ollama**\n- **自定义 REST API**\n---\n\n## 注意事项\n* 某些分类器的功能不仅仅是评估单个输出。例如，余弦相似度分类器通过测量两个输出之间的夹角来比较它们，而“危害性”分类器则会检查给定的输出是否具有危害性。因此，并非所有分类器都与我们实现的攻击方法兼容，因为这些方法是为单输出分类器设计的。\n* 当使用 -m 选项与 OLLAMA 模型一起使用时，\u003Cb>请确保先添加所有 OLLAMA 模型，然后再添加其他模型。\u003C\u002Fb> 使用 -e port=... 选项指定 OLLAMA 的端口号（默认为 11434）。\n\n## 贡献\n\n欢迎贡献！如果您希望为 FuzzyAI Fuzzer 做出贡献，请遵循 [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fblob\u002Fmain\u002FCONTRIBUTING.md) 文件中概述的指南。\n\n## 许可证\n\nFuzzyAI Fuzzer 根据 [Apache 许可证](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0) 发布。有关详细信息，请参阅 [LICENSE](https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fblob\u002Fmain\u002FLICENSE) 文件。\n\n## 联系方式\n\n如果您对 FuzzyAI Fuzzer 有任何疑问或建议，请随时通过电子邮件 [fzai@cyberark.com](mailto:fzai@cyberark.com) 与我们联系。","# FuzzyAI 快速上手指南\n\nFuzzyAI 是一款强大的自动化大语言模型（LLM）模糊测试工具，旨在帮助开发者和安全研究人员识别越狱攻击（Jailbreaks）并缓解 LLM API 中的潜在安全漏洞。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (WSL 推荐)\n*   **Python**：版本 3.8 或更高\n*   **包管理器**：`pip` 或 `Poetry` (推荐用于独立项目开发)\n*   **可选本地模型**：若需本地运行，建议安装 [Ollama](https:\u002F\u002Follama.com\u002Fdownload\u002F)\n\n## 安装步骤\n\n您可以选择以下两种方式之一进行安装：\n\n### 方式一：作为 Python 库安装（推荐快速试用）\n\n直接使用 pip 从 GitHub 安装：\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI.git\n```\n\n### 方式二：作为独立项目克隆（推荐二次开发）\n\n1. 克隆仓库并进入目录：\n   ```bash\n   git clone git@github.com:cyberark\u002FFuzzyAI.git\n   cd FuzzyAI\n   ```\n\n2. 使用 Poetry 安装依赖：\n   ```bash\n   poetry run pip install -e .\n   ```\n\n3. （可选）配置本地模型支持：\n   如果您希望使用本地模型（如 Llama 3.1），请先安装 Ollama 并拉取模型：\n   ```bash\n   ollama pull llama3.1\n   ollama show llama3.1 # 验证模型安装\n   ```\n\n## 基本使用\n\n安装完成后，您可以通过命令行直接运行模糊测试。以下是几个典型的使用场景：\n\n### 1. 查看帮助信息\n了解可用的命令和参数：\n```bash\nfuzzyai fuzz -h\n```\n*(如果您使用 Poetry 安装且未激活虚拟环境，请在命令前加 `poetry run`)*\n\n### 2. 默认攻击测试（使用本地 Ollama 模型）\n对提示词 \"Harmful_Prompt\" 执行默认攻击策略，使用本地的 llama3.1 模型：\n```bash\nfuzzyai fuzz -m ollama\u002Fllama3.1 -a def -t \"Harmful_Prompt\"\n```\n\n### 3. 针对云 API 的高级攻击\n结合多种攻击策略（ManyShot 和 Taxonomy），使用 OpenAI 的 gpt-3.5-turbo 进行测试：\n```bash\nOPENAI_API_KEY=sk-3fa1... fuzzyai fuzz -m openai\u002Fgpt-3.5-turbo -a man -a tax -t \"Harmful_Prompt\"\n```\n\n### 4. 启动 Web UI（实验性功能）\n如果您更喜欢图形化界面，可以启动内置的 Web UI：\n```bash\npoetry run fuzzyai webui\n# 或者指定端口\npoetry run fuzzyai webui --port 9000\n```\n\n> **提示**：FuzzyAI 支持 Anthropic、OpenAI、Gemini、Azure、Bedrock 等多种主流模型提供商。更多高级用法（如自定义 REST API 测试、特定攻击向量配置）请参阅官方 Wiki 文档。","某金融科技公司安全团队在上线自研智能客服大模型前，急需验证其 API 接口是否能抵御恶意诱导攻击（越狱），以确保用户数据与合规安全。\n\n### 没有 FuzzyAI 时\n- 安全测试依赖人工构造少量攻击提示词，覆盖场景有限，难以发现隐蔽的越狱漏洞。\n- 缺乏自动化流程，每次模型迭代后需重复耗时的人工渗透测试，严重拖慢发布节奏。\n- 无法系统化评估不同攻击策略（如 ManyShot、Taxonomy）的有效性，防御措施往往凭经验猜测。\n- 面对开源与商业多种模型架构，手动切换测试环境繁琐且容易出错，测试一致性差。\n\n### 使用 FuzzyAI 后\n- 通过内置数据集和自动化模糊测试，FuzzyAI 能在数分钟内生成成千上万种变异攻击 prompt，全面暴露潜在越狱风险。\n- 集成 CI\u002FCD 流水线，模型每次更新自动触发 fuzz 命令进行回归测试，将安全验证时间从天级缩短至分钟级。\n- 支持一键切换 Ollama 本地模型或 OpenAI\u002FClaude 等云端 API，并灵活组合 ArtPrompt 等多种攻击算法，精准量化防御短板。\n- 利用 Web UI 可视化查看攻击结果与黑词命中情况，帮助开发人员快速定位漏洞并针对性优化系统指令。\n\nFuzzyAI 将原本零散被动的大模型安全审计，转变为高效、自动化的主动防御体系，为业务上线筑牢了最后一道防线。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcyberark_FuzzyAI_13350d69.png","cyberark","CyberArk","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcyberark_8225fbfa.png","CyberArk, the undisputed leader in Privileged Account Security, secures secrets used by machines and users to protect traditional and cloud-native apps.",null,"https:\u002F\u002Fwww.cyberark.com","https:\u002F\u002Fgithub.com\u002Fcyberark",[81,85,89],{"name":82,"color":83,"percentage":84},"Jupyter Notebook","#DA5B0B",85.3,{"name":86,"color":87,"percentage":88},"Python","#3572A5",14.7,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0,1326,188,"2026-04-18T15:49:05","Apache-2.0","未说明","非必需（支持本地模型如 Ollama，也支持云端 API）","未说明（若运行本地 8B 参数模型如 Llama3.1，建议 8GB+）",{"notes":101,"python":102,"dependencies":103},"该工具主要通过 API 调用（OpenAI, Anthropic 等）或本地 Ollama 运行。若选择本地运行，需安装 Ollama 并下载模型（如 Llama3.1 约 4.7GB）。支持 Web UI 和 Jupyter Notebook。未明确指定具体的 Python 版本、GPU 型号或 CUDA 版本要求，因为核心逻辑依赖外部模型提供商或 Ollama 抽象层。","未说明（需支持 Poetry 和 pip 安装）",[104,105],"poetry","ollama (可选，用于本地模型)",[14,15,107,13,35],"其他",[109,110,111,112,113,114,115,116,117,118],"jailbreak","jailbreaking","llm","llms","ai","security","fuzzing","llm-evaluation","llm-security","ai-red-team","2026-03-27T02:49:30.150509","2026-04-19T09:16:00.208511",[122,127,132,137,142,147,152,157,162],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},42248,"如何支持或使用 Qwen 模型？","Qwen 模型在使用 Ollama 时已经受支持。只需确保先通过以下命令拉取模型即可：\nollama pull qwen3\n（注：可根据需要替换具体的版本号，如 qwen2.5 等）","https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fissues\u002F39",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},42249,"Discord 邀请链接失效了，有新的链接吗？","是的，请使用以下新的有效链接加入 Discord 社区：\nhttps:\u002F\u002Fdiscord.gg\u002FewQjdx2V","https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fissues\u002F42",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},42246,"为什么运行 run.py 时提示找不到文件？","run.py 已从项目中移除。请改用 'fuzzyai' 命令行工具。具体用法请参阅项目的 README 文档。","https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fissues\u002F45",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},42247,"如何在 Windows 上解决无法连接到 localhost:8080 的问题？","这是一个 Windows 路径问题。解决方案是进入 src\u002Ffuzzyai 目录并直接运行 Streamlit：\n1. 切换目录：cd C:\\Windows\\System32\\FuzzyAI\\src\\fuzzyai\n2. 以管理员身份在 PowerShell 中运行：streamlit run webui.py","https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fissues\u002F44",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},42250,"LLM 的回答是如何进行评估的？是否使用了自动评判器？","评估是通过分类器（Classifiers）完成的。您可以查看项目 Wiki 中的“Classifiers”页面了解详细信息。在使用过程中，可以通过添加 `-c` 标志来使用多个分类器。每个分类器都有其特定的用途和注意事项，建议仔细阅读文档。源代码位于 fuzzy\u002Fhandlers\u002Fclassifiers 目录下。","https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fissues\u002F8",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},42251,"能否将 FuzzyAI 作为库（library）导入使用，而不是作为二进制工具？","目前官方暂无计划将其转换为标准的库格式。但您可以临时通过以下方式将其作为库使用：\n1. 克隆仓库代码。\n2. 将根文件夹添加到您的 PYTHONPATH 环境变量中。\n注意：数据库（如 MongoDB）不是强制要求的，即使不安装 MongoDB，FuzzyAI 也可以正常运行。","https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fissues\u002F24",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},42252,"使用 GPTFuzzer 攻击风格时，如果变异模型生成的提示包含花括号导致报错怎么办？","这是一个已知问题，维护者已修复。根本原因是模板中的占位符与模型生成的花括号冲突。解决方法是将模板中的占位符从 {} 更改为 \u003C>，这样即使模型生成了额外的花括号也不会影响字符串格式化。该修复已合并到主分支。","https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fissues\u002F22",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},42253,"Crescendo 攻击中辅助模型生成的对抗性提示主题单一且不随用户输入变化，如何解决？","这是由于指令文件中示例过于集中导致的。建议修改发送给辅助模型的指令文件（instruction file），明确引导其生成针对特定主题的对抗性提示，避免模型被固定的示例主题（如莫洛托夫鸡尾酒）误导。用户可以参考 Issue 中的修改示例优化提示词模板。","https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fissues\u002F26",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},42254,"文档中的命令缺少 poetry 前缀导致运行失败，正确的运行方式是什么？","在运行 fuzzyai 命令时，如果使用 Poetry 管理环境，需要在命令前加上 `poetry run`。例如，不要直接运行 `fuzzyai fuzz -h`，而应运行：\npoetry run fuzzyai fuzz -h\n同时请确保您的 Python 版本与项目测试通过的版本兼容。","https:\u002F\u002Fgithub.com\u002Fcyberark\u002FFuzzyAI\u002Fissues\u002F31",[]]