[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-AdityaNG--kan-gpt":3,"tool-AdityaNG--kan-gpt":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":32,"env_os":107,"env_gpu":108,"env_ram":107,"env_deps":109,"category_tags":118,"github_topics":119,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":126,"updated_at":127,"faqs":128,"releases":164},5455,"AdityaNG\u002Fkan-gpt","kan-gpt","The PyTorch implementation of Generative Pre-trained Transformers (GPTs) using Kolmogorov-Arnold Networks (KANs) for language modeling","kan-gpt 是一个基于 PyTorch 开发的开源项目，旨在探索将全新的柯尔莫哥洛夫 - 阿诺德网络（KANs）架构应用于生成式预训练变压器（GPT）的语言建模任务中。传统的大语言模型通常依赖多层感知机（MLP）作为核心组件，而 kan-gpt 尝试用数学上更具表达力的 KAN 层来替代它们，以验证这种新架构在文本生成任务中的潜力与性能表现。\n\n该项目主要解决了学术界和工程界对于新型神经网络架构在实际大模型场景中有效性的验证需求。通过集成 minGPT 和 pykan 等成熟库，kan-gpt 提供了一套完整的流程，包括数据集下载、模型训练及文本生成示例，帮助用户快速复现对比实验。结果显示，在小型数据集上，基于 KAN 的模型表现略优于传统的 MLP 架构。\n\nkan-gpt 非常适合人工智能研究人员、深度学习开发者以及对前沿网络结构感兴趣的学生使用。它不仅是理论研究的实践工具，也为想要动手尝试“下一代”神经网络组件的工程师提供了宝贵的代码参考。如果你希望深入理解 KAN 如何改变语言模型的内部机制，或者需要在自己的研究中对比不同架构的效果，kan-gpt 都是一个轻量且易于上手的","kan-gpt 是一个基于 PyTorch 开发的开源项目，旨在探索将全新的柯尔莫哥洛夫 - 阿诺德网络（KANs）架构应用于生成式预训练变压器（GPT）的语言建模任务中。传统的大语言模型通常依赖多层感知机（MLP）作为核心组件，而 kan-gpt 尝试用数学上更具表达力的 KAN 层来替代它们，以验证这种新架构在文本生成任务中的潜力与性能表现。\n\n该项目主要解决了学术界和工程界对于新型神经网络架构在实际大模型场景中有效性的验证需求。通过集成 minGPT 和 pykan 等成熟库，kan-gpt 提供了一套完整的流程，包括数据集下载、模型训练及文本生成示例，帮助用户快速复现对比实验。结果显示，在小型数据集上，基于 KAN 的模型表现略优于传统的 MLP 架构。\n\nkan-gpt 非常适合人工智能研究人员、深度学习开发者以及对前沿网络结构感兴趣的学生使用。它不仅是理论研究的实践工具，也为想要动手尝试“下一代”神经网络组件的工程师提供了宝贵的代码参考。如果你希望深入理解 KAN 如何改变语言模型的内部机制，或者需要在自己的研究中对比不同架构的效果，kan-gpt 都是一个轻量且易于上手的选择。","# KAN-GPT\n\n![PyPI - Downloads](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fdm\u002Fkan-gpt)\n[![PyPI - Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fkan-gpt)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fkan-gpt\u002F)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002FAdityaNG\u002Fkan-gpt\u002Fbranch\u002Fmain\u002Fgraph\u002Fbadge.svg?token=kan-gpt_token_here)](https:\u002F\u002Fcodecov.io\u002Fgh\u002FAdityaNG\u002Fkan-gpt)\n[![CI](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Factions\u002Fworkflows\u002Fmain.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Factions\u002Fworkflows\u002Fmain.yml)\n[![GitHub License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FAdityaNG\u002Fkan-gpt)](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fblob\u002Fmain\u002FLICENSE)\n\n\nThe PyTorch implementation of Generative Pre-trained Transformers (GPTs) using Kolmogorov-Arnold Networks (KANs) for language modeling\n\n## Install it from PyPI\n\n```bash\npip install kan_gpt\n```\n\n## Citation\n\nIf you find our work useful cite us!\n\n```\n@misc{GANESH2024KANGPT,\n  author       = {Aditya Nalgunda Ganesh},\n  title        = {KAN-GPT: The PyTorch implementation of Generative Pre-trained Transformers (GPTs) using Kolmogorov-Arnold Networks (KANs) for language modeling},\n  year         = {2024},\n  month        = {May},\n  note         = {Release 1.0.0, 9th May 2024},\n  url          = {https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002F}\n}\n```\n\n## Usage\n\nRefer to the [KAN_GPT.ipynb](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fblob\u002Fmain\u002FKAN_GPT.ipynb) and [kan_gpt\u002Fprompt.py](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fblob\u002Fmain\u002Fkan_gpt\u002Fprompt.py) for usage examples. The following is an outline of how to use the model:\n\n```py\nfrom kan_gpt.model import GPT\nfrom transformers import GPT2Tokenizer\n\nmodel_config = GPT.get_default_config()\nmodel_config.model_type = \"gpt2\"\nmodel_config.vocab_size = 50257\nmodel_config.block_size = 1024\nmodel = GPT(model_config)\n\ntokenizer = GPT2Tokenizer.from_pretrained('gpt2')\n\nprompt = \"Bangalore is often described as the \"\n\nprompt_encoded = tokenizer.encode(\n  text=prompt, add_special_tokens=False\n)\n\nx = torch.tensor(prompt_encoded).unsqueeze(0)\n\nmodel.eval()\ny = model.generate(x, 50)  # sample 50 tokens\n\nresult = tokenizer.decode(y[0])\n\nprint(result)\n\n# Bangalore is often described as the Silicon Valley of India.\n# The city has witnessed rapid growth in the past two decades.....\n```\n\n## Setup for Development\n\n```bash\n# Download Repo\ngit clone https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\ncd kan-gpt\ngit pull\n\n# Download Dataset\npython3 -m kan_gpt.download_dataset --dataset tinyshakespeare\npython3 -m kan_gpt.download_dataset --dataset mnist\npython3 -m kan_gpt.download_dataset --dataset webtext\n\n# Install dependencies for development\npip install -r requirements.txt\npip install -e .\n```\n\n## Train\n\nUse the following dummy script to make sure everything is working as expected\n```bash\nWANDB_MODE=offline CUDA_VISIBLE_DEVICE=\"\" python3 -m kan_gpt.train --architecture MLP --batch_size 1 --dummy_dataset --device cpu --max_iters 200\nWANDB_MODE=offline CUDA_VISIBLE_DEVICE=\"\" python3 -m kan_gpt.train --architecture KAN --batch_size 1 --dummy_dataset --device cpu --max_iters 200\n```\n\nThen make use of the training script\n```bash\npython -m kan_gpt.train\n```\n\n## Prompt\n\nYou can prompt the model to produce text as follows\n```bash\npython -m kan_gpt.prompt --prompt \"Bangalore is often described as the \" --model_path (checkpoint)\n```\n\n## Results\n\nWe train and compare KAN-GPT with an equivalent MLP-GPT model on the Tiny Shakespeare dataset. We observe that the KAN-GPT performs slightly better than the MLP-GPT. We are looking into further experiments to dive deeper. The results are shown below:\n\n\n| Metrics |   |   |\n|---------|---------|---------|\n| ![results_loss](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAdityaNG_kan-gpt_readme_e3d23084171a.png) | ![results_cross_entropy](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAdityaNG_kan-gpt_readme_4b4e28ba2fc0.png) | ![results_perplexity](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAdityaNG_kan-gpt_readme_d681e87e3d7d.png) |\n\n## TODOs\n\n- [x] Integrate [minGPT](https:\u002F\u002Fgithub.com\u002Fkarpathy\u002FminGPT) and [pykan](https:\u002F\u002Fgithub.com\u002FKindXiaoming\u002Fpykan)\n- [x] Dataset downloading script for [WebText](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-2-output-dataset)\n- [x] PyTorch Dataset parser for [WebText](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-2-output-dataset)\n- [x] PyTorch Dataset parser for [tinyshakespeare](https:\u002F\u002Fraw.githubusercontent.com\u002Fkarpathy\u002Fchar-rnn\u002Fmaster\u002Fdata\u002Ftinyshakespeare\u002Finput.txt)\n- [x] Mini training POC for KAN-GPT\n  - [x] Integrate KAN training logic from `KAN.train_kan`\n  - [x] Train a dummy batch w\u002Fo any memory issues\n- [x] Mini training POC for MLP-GPT\n- [x] Train MLP-GPT on the webtext dataset as a baseline\n- [x] Train KAN-GPT on the webtext dataset as a baseline\n- [x] Metrics comparing KAN-GPT and MLP-GPT\n- [x] Auto Save checkpoints\n- [x] Auto Save checkpoints to W&B\n- [ ] Auto Download model weights from git \u002F huggingface\n- [x] W&B hyperparam sweep script\n- [x] Script to load checkpoint in interactive mode\n- [ ] Reduce requrements.txt constraints\n- [ ] Define pydantic model for training and sweep args\n- [ ] Pruning the package, get rid of unused code\n- [ ] Training script to PyTorch Lighting\n- [x] Documentation: `mkdocs gh-deploy`\n- [x] Integrate with [efficient-kan](https:\u002F\u002Fgithub.com\u002FBlealtan\u002Fefficient-kan\u002Fblob\u002Fmaster\u002Fsrc\u002Fefficient_kan\u002Fkan.py)\n- [x] Test Cases\n  - [x] KAN: Forward-Backward test\n  - [x] GPT: Forward-Backward test\n  - [x] KAN_GPT: Forward-Backward test\n  - [x] EFFICIENT_KAN: Forward-Backward test\n\n## Development\n\nRead the [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fblob\u002Fmain\u002FCONTRIBUTING.md) file.\n\n## References\n\n- [minGPT](https:\u002F\u002Fgithub.com\u002Fkarpathy\u002FminGPT)\n- [pykan](https:\u002F\u002Fgithub.com\u002FKindXiaoming\u002Fpykan)\n- [webtext](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-2-output-dataset)\n- [tinyshakespeare](https:\u002F\u002Fraw.githubusercontent.com\u002Fkarpathy\u002Fchar-rnn\u002Fmaster\u002Fdata\u002Ftinyshakespeare\u002Finput.txt)\n","# KAN-GPT\n\n![PyPI - 下载量](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fdm\u002Fkan-gpt)\n[![PyPI - 版本](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fkan-gpt)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fkan-gpt\u002F)\n[![Codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002FAdityaNG\u002Fkan-gpt\u002Fbranch\u002Fmain\u002Fgraph\u002Fbadge.svg?token=kan-gpt_token_here)](https:\u002F\u002Fcodecov.io\u002Fgh\u002FAdityaNG\u002Fkan-gpt)\n[![CI](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Factions\u002Fworkflows\u002Fmain.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Factions\u002Fworkflows\u002Fmain.yml)\n[![GitHub 许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FAdityaNG\u002Fkan-gpt)](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fblob\u002Fmain\u002FLICENSE)\n\n\n使用科尔莫戈洛夫-阿诺德网络（KAN）进行语言建模的生成式预训练 Transformer（GPT）的 PyTorch 实现\n\n## 从 PyPI 安装\n\n```bash\npip install kan_gpt\n```\n\n## 引用\n\n如果您觉得我们的工作有用，请引用我们！\n\n```\n@misc{GANESH2024KANGPT,\n  author       = {Aditya Nalgunda Ganesh},\n  title        = {KAN-GPT：使用科尔莫戈洛夫-阿诺德网络（KAN）进行语言建模的生成式预训练 Transformer（GPT）的 PyTorch 实现},\n  year         = {2024},\n  month        = {5月},\n  note         = {发布 1.0.0，2024年5月9日},\n  url          = {https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002F}\n}\n```\n\n## 使用方法\n\n请参阅 [KAN_GPT.ipynb](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fblob\u002Fmain\u002FKAN_GPT.ipynb) 和 [kan_gpt\u002Fprompt.py](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fblob\u002Fmain\u002Fkan_gpt\u002Fprompt.py) 以获取使用示例。以下是模型使用的大致流程：\n\n```py\nfrom kan_gpt.model import GPT\nfrom transformers import GPT2Tokenizer\n\nmodel_config = GPT.get_default_config()\nmodel_config.model_type = \"gpt2\"\nmodel_config.vocab_size = 50257\nmodel_config.block_size = 1024\nmodel = GPT(model_config)\n\ntokenizer = GPT2Tokenizer.from_pretrained('gpt2')\n\nprompt = \"班加罗尔通常被描述为\"\n\nprompt_encoded = tokenizer.encode(\n  text=prompt, add_special_tokens=False\n)\n\nx = torch.tensor(prompt_encoded).unsqueeze(0)\n\nmodel.eval()\ny = model.generate(x, 50)  # 采样 50 个 token\n\nresult = tokenizer.decode(y[0])\n\nprint(result)\n\n# 班加罗尔通常被描述为印度的硅谷。\n# 这座城市在过去二十年里经历了快速的发展……\n```\n\n## 开发环境搭建\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\ncd kan-gpt\ngit pull\n\n# 下载数据集\npython3 -m kan_gpt.download_dataset --dataset tinyshakespeare\npython3 -m kan_gpt.download_dataset --dataset mnist\npython3 -m kan_gpt.download_dataset --dataset webtext\n\n# 安装开发依赖\npip install -r requirements.txt\npip install -e .\n```\n\n## 训练\n\n使用以下示例脚本来确保一切正常运行：\n```bash\nWANDB_MODE=offline CUDA_VISIBLE_DEVICE=\"\" python3 -m kan_gpt.train --architecture MLP --batch_size 1 --dummy_dataset --device cpu --max_iters 200\nWANDB_MODE=offline CUDA_VISIBLE_DEVICE=\"\" python3 -m kan_gpt.train --architecture KAN --batch_size 1 --dummy_dataset --device cpu --max_iters 200\n```\n\n然后可以使用正式的训练脚本：\n```bash\npython -m kan_gpt.train\n```\n\n## 提示词生成\n\n您可以按照如下方式提示模型生成文本：\n```bash\npython -m kan_gpt.prompt --prompt \"班加罗尔通常被描述为\" --model_path (checkpoint)\n```\n\n## 结果\n\n我们在 Tiny Shakespeare 数据集上训练并比较了 KAN-GPT 和等效的 MLP-GPT 模型。我们观察到 KAN-GPT 的表现略优于 MLP-GPT。我们正在计划进一步的实验以深入研究。结果如下所示：\n\n\n| 指标 |   |   |\n|---------|---------|---------|\n| ![results_loss](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAdityaNG_kan-gpt_readme_e3d23084171a.png) | ![results_cross_entropy](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAdityaNG_kan-gpt_readme_4b4e28ba2fc0.png) | ![results_perplexity](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAdityaNG_kan-gpt_readme_d681e87e3d7d.png) |\n\n## 待办事项\n\n- [x] 集成 [minGPT](https:\u002F\u002Fgithub.com\u002Fkarpathy\u002FminGPT) 和 [pykan](https:\u002F\u002Fgithub.com\u002FKindXiaoming\u002Fpykan)\n- [x] 为 [WebText](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-2-output-dataset) 编写数据集下载脚本\n- [x] 为 [WebText](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-2-output-dataset) 编写 PyTorch 数据集解析器\n- [x] 为 [tinyshakespeare](https:\u002F\u002Fraw.githubusercontent.com\u002Fkarpathy\u002Fchar-rnn\u002Fmaster\u002Fdata\u002Ftinyshakespeare\u002Finput.txt) 编写 PyTorch 数据集解析器\n- [x] 为 KAN-GPT 制定小型训练 PoC\n  - [x] 集成 `KAN.train_kan` 中的 KAN 训练逻辑\n  - [x] 在不出现内存问题的情况下训练一个示例批次\n- [x] 为 MLP-GPT 制定小型训练 PoC\n- [x] 将 MLP-GPT 在 webtext 数据集上作为基线进行训练\n- [x] 将 KAN-GPT 在 webtext 数据集上作为基线进行训练\n- [x] 比较 KAN-GPT 和 MLP-GPT 的各项指标\n- [x] 自动保存检查点\n- [x] 自动将检查点保存到 W&B\n- [ ] 自动从 git \u002F huggingface 下载模型权重\n- [x] W&B 超参数扫描脚本\n- [x] 用于交互模式加载检查点的脚本\n- [ ] 减少 requirements.txt 中的约束条件\n- [ ] 定义用于训练和扫描参数的 Pydantic 模型\n- [ ] 对软件包进行裁剪，移除未使用的代码\n- [ ] 将训练脚本迁移到 PyTorch Lightning\n- [x] 文档：`mkdocs gh-deploy`\n- [x] 与 [efficient-kan](https:\u002F\u002Fgithub.com\u002FBlealtan\u002Fefficient-kan\u002Fblob\u002Fmaster\u002Fsrc\u002Fefficient_kan\u002Fkan.py) 集成\n- [x] 测试用例\n  - [x] KAN：前向-反向测试\n  - [x] GPT：前向-反向测试\n  - [x] KAN_GPT：前向-反向测试\n  - [x] EFFICIENT_KAN：前向-反向测试\n\n## 开发贡献\n\n请阅读 [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fblob\u002Fmain\u002FCONTRIBUTING.md) 文件。\n\n## 参考文献\n\n- [minGPT](https:\u002F\u002Fgithub.com\u002Fkarpathy\u002FminGPT)\n- [pykan](https:\u002F\u002Fgithub.com\u002FKindXiaoming\u002Fpykan)\n- [webtext](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-2-output-dataset)\n- [tinyshakespeare](https:\u002F\u002Fraw.githubusercontent.com\u002Fkarpathy\u002Fchar-rnn\u002Fmaster\u002Fdata\u002Ftinyshakespeare\u002Finput.txt)","# KAN-GPT 快速上手指南\n\nKAN-GPT 是一个基于 PyTorch 的项目，它使用 **Kolmogorov-Arnold Networks (KANs)** 来实现生成式预训练变压器（GPT）进行语言建模。本指南将帮助你快速安装并运行该模型。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows\n*   **Python**: 建议版本 3.8 及以上\n*   **核心依赖**:\n    *   PyTorch\n    *   Transformers (Hugging Face)\n    *   Weights & Biases (可选，用于训练监控)\n*   **硬件**: 推荐使用 NVIDIA GPU 以加速训练和推理（CPU 亦可运行，但速度较慢）\n\n> **提示**：国内开发者建议使用清华源或阿里源加速 Python 包的安装。\n\n## 安装步骤\n\n### 1. 从 PyPI 安装（推荐）\n\n最简单的方式是通过 pip 直接安装发布版：\n\n```bash\npip install kan_gpt\n```\n\n**国内加速安装：**\n```bash\npip install kan_gpt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2. 源码安装（开发模式）\n\n如果你需要修改源码或参与贡献，请克隆仓库并进行可编辑安装：\n\n```bash\n# 下载代码库\ngit clone https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\ncd kan-gpt\n\n# 安装依赖\npip install -r requirements.txt\npip install -e .\n```\n\n**国内加速安装依赖：**\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install -e .\n```\n\n### 3. 下载数据集（可选）\n\n如果需要本地训练或测试，可以下载内置支持的数据集（如 Tiny Shakespeare, MNIST, WebText）：\n\n```bash\npython3 -m kan_gpt.download_dataset --dataset tinyshakespeare\npython3 -m kan_gpt.download_dataset --dataset mnist\npython3 -m kan_gpt.download_dataset --dataset webtext\n```\n\n## 基本使用\n\n以下是最简单的文本生成示例。该示例加载默认配置的 GPT 模型，并使用 GPT-2 的分词器对提示词进行编码，生成后续文本。\n\n```py\nimport torch\nfrom kan_gpt.model import GPT\nfrom transformers import GPT2Tokenizer\n\n# 1. 初始化模型配置\nmodel_config = GPT.get_default_config()\nmodel_config.model_type = \"gpt2\"\nmodel_config.vocab_size = 50257\nmodel_config.block_size = 1024\nmodel = GPT(model_config)\n\n# 2. 加载分词器\ntokenizer = GPT2Tokenizer.from_pretrained('gpt2')\n\n# 3. 准备提示词\nprompt = \"Bangalore is often described as the \"\n\n# 4. 编码输入\nprompt_encoded = tokenizer.encode(\n  text=prompt, add_special_tokens=False\n)\n\nx = torch.tensor(prompt_encoded).unsqueeze(0)\n\n# 5. 设置模型为评估模式并生成文本\nmodel.eval()\n# generate 第二个参数表示生成的 token 数量\ny = model.generate(x, 50)  \n\n# 6. 解码并输出结果\nresult = tokenizer.decode(y[0])\n\nprint(result)\n```\n\n**预期输出示例：**\n```text\nBangalore is often described as the Silicon Valley of India.\nThe city has witnessed rapid growth in the past two decades.....\n```\n\n### 命令行快速推理\n\n如果你已经训练好了模型或拥有检查点文件，可以直接通过命令行进行交互：\n\n```bash\npython -m kan_gpt.prompt --prompt \"Bangalore is often described as the \" --model_path \u003C你的检查点路径>\n```","某高校自然语言处理实验室的研究团队正致力于探索新型神经网络架构在文本生成任务中的潜力，试图验证 Kolmogorov-Arnold Networks (KANs) 是否能替代传统 Transformer 中的多层感知机（MLP）模块。\n\n### 没有 kan-gpt 时\n- **架构验证门槛高**：研究人员需手动修改 minGPT 或 Hugging Face 的底层代码来替换 MLP 层为 KAN 层，极易引入难以排查的维度对齐错误。\n- **基线对比困难**：缺乏统一的训练框架，导致难以在相同数据集（如 Tiny Shakespeare）和超参数下，公平地对比 KAN-GPT 与传统 MLP-GPT 的收敛速度和损失曲线。\n- **实验复现繁琐**：从数据下载（WebText\u002FMNIST）到模型初始化的流程分散，新加入的研究生往往需要数天时间搭建可运行的实验环境。\n- **理论落地滞后**：虽然 KAN 理论新颖，但缺少开箱即用的 PyTorch 实现，阻碍了团队快速验证其在语言建模任务中是否真能降低困惑度（Perplexity）。\n\n### 使用 kan-gpt 后\n- **一键切换架构**：通过 `model_config` 即可轻松将模型类型从 \"MLP\" 切换为 \"KAN\"，无需触碰底层数学实现，让研究者专注于算法逻辑而非工程调试。\n- **标准化性能评估**：内置完整的训练脚本和指标监控，直接输出 Loss、交叉熵和困惑度对比图表，清晰量化 KAN 架构在特定任务上的微小性能优势。\n- **全流程自动化**：集成数据集自动下载与解析功能，配合 `pip install` 即可在几分钟内完成从环境配置到模型生成的完整闭环。\n- **加速科研迭代**：基于成熟的 minGPT 和 pykan 整合，团队能迅速复现论文结果并开展进一步实验，大幅缩短了从理论假设到实证分析周期。\n\nkan-gpt 通过将前沿的 KAN 理论转化为标准化的 PyTorch 工程实践，极大地降低了新型架构在语言模型领域的探索成本与验证门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAdityaNG_kan-gpt_e3d23084.png","AdityaNG","Aditya","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAdityaNG_26ef406a.jpg","Accelerating Hardware Design at CopperPilot","CopperPilot","India",null,"https:\u002F\u002Fadityang.github.io\u002F","https:\u002F\u002Fgithub.com\u002FAdityaNG",[83,87,91,95,99],{"name":84,"color":85,"percentage":86},"Python","#3572A5",92.5,{"name":88,"color":89,"percentage":90},"Jupyter Notebook","#DA5B0B",5.3,{"name":92,"color":93,"percentage":94},"Makefile","#427819",1.7,{"name":96,"color":97,"percentage":98},"Shell","#89e051",0.4,{"name":100,"color":101,"percentage":102},"Dockerfile","#384d54",0,725,55,"2026-03-25T07:17:34","MIT","未说明","非必需。训练脚本支持通过设置 CUDA_VISIBLE_DEVICE=\"\" 和 --device cpu 在 CPU 上运行；若使用 GPU，需 NVIDIA 显卡及对应的 CUDA 环境（具体版本未说明）。",{"notes":110,"python":111,"dependencies":112},"该工具是基于 PyTorch 的 KAN-GPT 实现。开发环境需克隆仓库并安装 requirements.txt 中的依赖。训练时支持 TinyShakespeare、MNIST 和 WebText 数据集（提供下载脚本）。示例显示可使用 CPU 进行小规模测试训练，生产环境或大规模训练建议使用 GPU。","3.x (根据 'python3' 命令推断，具体小版本未说明)",[113,114,115,116,117],"torch","transformers","pykan (或 efficient-kan)","wandb","minGPT",[35,13,14],[120,121,122,123,124,125,114],"gpt","kanformers","kolmogorov-arnold-networks","kolmogorov-arnold-representation","llm","text-generation","2026-03-27T02:49:30.150509","2026-04-08T17:46:27.644736",[129,134,139,144,149,154,159],{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},24765,"kan-gpt 强制锁定了 scikit-learn 版本，导致与其他项目依赖冲突，如何解决？","维护者已在新发布的 `1.1.0` 版本中放宽了对 `scikit-learn` 的版本限制。请将库升级到最新版本以解决依赖冲突问题：`pip install --upgrade kan-gpt`。","https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fissues\u002F21",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},24762,"KAN-GPT 与 MLP-GPT 的性能对比结果如何？","目前初步结果显示，KAN-GPT 的表现略优于 MLP-GPT。项目文档和 README 中已添加了交叉熵（cross entropy）、困惑度（perplexity）指标以及损失曲线图供参考。维护者正在进行大规模的超参数扫描以获取更详尽的结果。","https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fissues\u002F6",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},24763,"在 Colab 中安装后导入模块时报错（Import module error），如何解决？","该问题已在 `0.4.0` 版本中修复。请尝试升级库：`pip install --upgrade kan_gpt`。如果问题仍然存在，请检查导入路径是否正确，可能需要修改为：`from kan_gpt.kan_gpt.effificent_kan.model import GPT`。","https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fissues\u002F9",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},24764,"如何增加模型的 block size（上下文长度）？","Block size 是可配置的变量。您可以通过修改配置对象来调整它，示例代码如下：\n```py\nfrom kan_gpt.model import GPT\nmodel_config = GPT.get_default_config()\nmodel_config.block_size = 3000  # 设置为您需要的长度\nmodel = GPT(model_config)\n```\n注意：虽然可以更改配置，但如果不重新训练模型，直接增加 block size 可能无法达到预期效果。","https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fissues\u002F7",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},24766,"运行示例代码或训练脚本时出现解码错误，如何处理？","如果在生成结果后进行解码时报错，请确保使用正确的 tokenizer 解码方法。正确的代码应为：`result = tokenizer.decode(y[0])`。此外，请确保您使用的是最新版本的代码，因为相关错误已在近期修复。","https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fissues\u002F19",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},24767,"在哪里可以找到 kan-gpt 的 PyPI 页面？README 中的链接似乎无效。","kan-gpt 的官方 PyPI 页面地址是：https:\u002F\u002Fpypi.org\u002Fproject\u002Fkan-gpt\u002F。您可以直接通过 `pip install kan-gpt` 进行安装。","https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fissues\u002F13",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},24768,"运行训练脚本时提示缺少 tinyshakespeare 数据集，该如何下载？","默认脚本可能只下载了 webtext 数据集。您需要手动添加下载 tinyshakespeare 数据集的命令。在您的脚本或 Notebook 中加入以下命令：\n`!.\u002Fscripts\u002Fdownload_tinyshakespeare.sh`\n完整的顺序应为先克隆仓库，然后分别下载 webtext 和 tinyshakespeare 数据集，最后安装依赖。","https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt\u002Fissues\u002F10",[165,170,175,180,185,190,195,200,205,210,215,220,225,230,235],{"id":166,"version":167,"summary_zh":168,"released_at":169},154256,"1.2.0","阿迪提亚·NG (2):\n          功能(坎吉PT\u002F数据集.py): 支持MNIST\n          发布：版本1.2.0 🚀\n\n","2024-09-09T18:48:34",{"id":171,"version":172,"summary_zh":173,"released_at":174},154257,"1.1.0","    Aditya (3):\n          合并 pull request #20，来自 gyunggyung\u002Fpatch-1\n          合并 pull request #23，来自 AdityaNG\u002Ffix\u002F21_relax_requirements\n          合并 pull request #22，来自 yumemio\u002Fmain\n\n    Aditya NG (2):\n          修复 (requirements.txt): 松弛了依赖要求\n          发布：版本 1.1.0 🚀\n\n    gyunggyung (1):\n          更新 README.md\n\n    yumemio (1):\n          修复：download_dataset 中的 NotImplementedError\n\n","2024-07-14T07:56:21",{"id":176,"version":177,"summary_zh":178,"released_at":179},154258,"1.0.5","阿迪提亚·NG (2):\n          文档(README): 引用\n          发布: 版本 1.0.5 🚀\n\n","2024-05-29T05:20:59",{"id":181,"version":182,"summary_zh":183,"released_at":184},154259,"1.0.4","阿迪提亚·NG (2):\n          文档(README): 总下载量徽章\n          发布: 版本 1.0.4 🚀\n\n","2024-05-17T06:32:13",{"id":186,"version":187,"summary_zh":188,"released_at":189},154260,"1.0.3","阿迪提亚·NG (2):\n          测试(.coveragerc): 目前排除了几个文件\n          发布: 版本 1.0.3 🚀\n\n","2024-05-17T06:16:33",{"id":191,"version":192,"summary_zh":193,"released_at":194},154261,"1.0.2","    Aditya (3):\n          合并拉取请求 #14，来自 TheMattBin 的 readme-update 分支\n          合并拉取请求 #15，来自 eltociear 的 patch-1 分支\n          合并拉取请求 #17，来自 KPCOFGS 的 main 分支\n\n    Aditya NG (2):\n          docs(README): 使用绝对链接\n          发布：版本 1.0.2 🚀\n\n    Ikko Eltociear Ashimine (1):\n          文档：更新 README.md\n\n    Matthew Liu (1):\n          更新 README.md\n\n    Shixian Sheng (1):\n          更新 README.md\n\n","2024-05-15T08:36:16",{"id":196,"version":197,"summary_zh":198,"released_at":199},154262,"1.0.1","阿迪提亚·NG (4):\n          文档(README.md): 拼写错误\n          文档(README、docs\u002F): 徽章\n          测试(kan): 覆盖率提升\n          发布: 版本 1.0.1 🚀\n\n","2024-05-09T07:46:01",{"id":201,"version":202,"summary_zh":203,"released_at":204},154263,"1.0.0","    Aditya (1):\n          合并拉取请求 #11，来自 wektorz\u002Ffix_missing_dataset_dowload\n\n    Aditya NG (6):\n          发布：版本 0.4.0 🚀\n          新增功能 (train.py)：添加了指标\n          文档 (README、media)：结果和指标\n          文档 (mkdocs)：添加了结果\n          版本号递增\n          发布：版本 1.0.0 🚀\n\n    Wiktor Zdrojewski (1):\n          更新 KAN_GPT.ipynb\n\n","2024-05-09T02:35:30",{"id":206,"version":207,"summary_zh":208,"released_at":209},154264,"0.4.0","阿迪提亚·NG (13):\n          功能（download_dataset）：添加了下载 tinyshakespeare 和 webtext 数据集的函数\n          功能（sweep）：减小了批次大小\n          修复（sweep）：增加了 CUDA 清理操作\n          测试（tests\u002Ftest_train.py）：在测试期间禁用 wandb\n          CI（main）：在 CI 中禁用了 wandb\n          修复（sweep）：CUDA 设备问题\n          修复（sweep）：max_iters 参数问题\n          功能（sweep）：使用更慢的学习率\n          文档（mkdocs）：为 mkdocs 添加文档\n          功能（README.md）：添加了结果\n          修复（kan_gpt\u002Fefficient_kan\u002F__init__.py）：缺少 init 文件\n          版本号递增\n          发布：版本 0.4.0 🚀\n\n","2024-05-08T17:43:27",{"id":211,"version":212,"summary_zh":213,"released_at":214},154265,"0.3.0","阿迪提亚·NG (6):\n          测试(高效KAN,原始KAN): 覆盖率\n          测试(tests\u002Ftest_prompt.py): 评估代码\n          功能(小莎士比亚数据集): 支持另一个数据集\n          功能(sweep): 用于进行大规模超参数搜索的脚本\n          文档(README.md): 提及数据集\n          发布: 版本 0.3.0 🚀\n\n","2024-05-07T19:30:24",{"id":216,"version":217,"summary_zh":218,"released_at":219},154266,"0.2.0","    Aditya NG (7):\n          fix(dataset): index error\n          feat(kan_gpt\u002Fdataset.py): lengthwise dataset iteration\n          feat(train,prompt): saving model after training, prompting a model given the saved model path\n          feat(train): date id of asset\n          docs(KAN_GPT.ipynb): benchmark runs between mlp and kan gpts\n          version increment\n          release: version 0.2.0 🚀\n\n","2024-05-04T18:07:19",{"id":221,"version":222,"summary_zh":223,"released_at":224},154267,"0.1.3","    Aditya NG (2):\n          fix(dataset): padding and range fix\n          release: version 0.1.3 🚀\n\n","2024-05-04T14:00:28",{"id":226,"version":227,"summary_zh":228,"released_at":229},154268,"0.1.2","    Aditya NG (3):\n          test(gpt-pico): reducing memory footprint\n          feat(kan_gpt\u002Fefficient_kan\u002F): integration with efficient kan reduced training memory footprint\n          release: version 0.1.2 🚀\n\n","2024-05-04T07:34:16",{"id":231,"version":232,"summary_zh":233,"released_at":234},154269,"0.1.1","    Aditya (6):\n          Merge pull request #1 from AdityaNG\u002Fdependabot\u002Fgithub_actions\u002Fsoftprops\u002Faction-gh-release-2\n          Merge pull request #2 from AdityaNG\u002Fdependabot\u002Fgithub_actions\u002Fstefanzweifel\u002Fgit-auto-commit-action-5\n          Merge pull request #3 from AdityaNG\u002Fdependabot\u002Fgithub_actions\u002Factions\u002Fcheckout-4\n          Merge pull request #4 from AdityaNG\u002Fdependabot\u002Fgithub_actions\u002Fcodecov\u002Fcodecov-action-4\n          Merge pull request #5 from AdityaNG\u002Fdependabot\u002Fgithub_actions\u002Factions\u002Fsetup-python-5\n          Update LICENSE\n\n    Aditya NG (5):\n          refactor(kan_gpt): linting\n          Merge branch 'main' of https:\u002F\u002Fgithub.com\u002FAdityaNG\u002Fkan-gpt into main\n          ci(codecov): token\n          test(kan_gpt,mlp_gpt,kan): test cases for forward-backward passes\n          release: version 0.1.1 🚀\n\n    dependabot[bot] (5):\n          Bump softprops\u002Faction-gh-release from 1 to 2\n          Bump stefanzweifel\u002Fgit-auto-commit-action from 4 to 5\n          Bump actions\u002Fcheckout from 3 to 4\n          Bump codecov\u002Fcodecov-action from 3 to 4\n          Bump actions\u002Fsetup-python from 4 to 5\n\n","2024-05-04T04:50:58",{"id":236,"version":237,"summary_zh":79,"released_at":238},154270,"0.1.0","2024-05-03T03:33:08"]