[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jerry1993-tech--Cornucopia-LLaMA-Fin-Chinese":3,"tool-jerry1993-tech--Cornucopia-LLaMA-Fin-Chinese":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":82,"owner_url":83,"languages":84,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":10,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":109,"github_topics":110,"view_count":23,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":137},3573,"jerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese","Cornucopia-LLaMA-Fin-Chinese","聚宝盆(Cornucopia): 中文金融系列开源可商用大模型，并提供一套高效轻量化的垂直领域LLM训练框架(Pretraining、SFT、RLHF、Quantize等)","Cornucopia-LLaMA-Fin-Chinese（聚宝盆）是一款专为中文金融领域打造的开源大语言模型。它基于 LLaMA 架构，利用海量中文金融问答数据（涵盖保险、理财、股票、基金等场景）进行指令微调，显著提升了模型在金融垂直领域的专业问答能力，有效解决了通用大模型在金融术语理解、业务逻辑推理及合规性回答上不够精准的问题。\n\n该项目不仅提供现成的高性能微调模型，还开源了一套高效轻量化的垂直领域训练框架，完整覆盖预训练、监督微调（SFT）、人类反馈强化学习（RLHF）及量化部署全流程。其独特亮点在于支持 LoRA 低资源微调，并计划引入多任务学习与知识图谱增强技术，持续优化数据质量与场景覆盖度。\n\nCornucopia-LLaMA-Fin-Chinese 非常适合金融科技的开发者、人工智能研究人员以及需要构建私有化金融智能助手的企业团队使用。无论是希望快速集成金融问答能力的工程师，还是致力于探索垂直领域大模型训练的学者，都能通过该项目提供的灵活框架和高质量权重，低成本地实现专业级金融 AI 应用的落地。项目采用 Apache 2.0 协议，支持商业使用，欢迎社区共同协作进化。","\u003Cdiv align=center> \n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjerry1993-tech_Cornucopia-LLaMA-Fin-Chinese_readme_d92d9c44529a.png\" alt=\"Cornucopia-LLaMa\" style=\"width: 80%; min-width: 350px; display: block; margin: auto;\">\u003C\u002Fa>\n\n[![Author](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAuthor-yangmu.yu-green.svg \"Author\")](https:\u002F\u002Fwww.zhihu.com\u002Fpeople\u002Fxuyingjie521\u002Fcolumns) [![OS](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOS-Linux\u002FWindows\u002FMac-red.svg \"OS\")](.\u002F) [![Based](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FBased-huggingface_transformers-blue.svg \"OS\")](.\u002F)\n\n[![Code License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode%20License-Apache_2.0-green.svg)](https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese\u002FLICENSE) [![Python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.9+-darkseagreen.svg \"Python\")](.\u002F)\n\n[![Typing SVG](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjerry1993-tech_Cornucopia-LLaMA-Fin-Chinese_readme_1bd389107474.png)](https:\u002F\u002Fgit.io\u002Ftyping-svg)\n\n\u003C\u002Fdiv>\n\n\n# Cornucopia-LLaMA-Fin-Chinese\n### 聚宝盆(Cornucopia): 基于中文金融知识的 LLaMA 系微调模型\n\n\n本项目开源了基于 LLaMA 系基模型经过中文金融知识指令精调\u002F指令微调(Instruct-tuning) 的微调模型。通过中文金融公开问答数据+爬取的金融问答数据构建指令数据集，并在此基础上对 LLaMA 系模型进行了指令微调，提高了 LLaMA 在金融领域的问答效果。  \n\n基于已有数据和继续爬取的中文金融数据，将继续利用 GPT3.5\u002F4.0 API 构建高质量的数据集，另在[中文知识图谱-金融](http:\u002F\u002Fwww.openkg.cn\u002Fgroup\u002Ffinance)、CFLEB 金融数据集等数据上进一步扩充高质量指令数据集。  \n\n陆续会发布新的**中文场景的金融模型**（next-pretrain、multi-task SFT、RLHF），欢迎大家届时使用体验，敬请期待。  \n\n## 🔄 News\n\n[2023\u002F05\u002F10] 发布了基于 Chinese-LLaMA 和中文金融数据进行指令微调的模型。  \n\n[2023\u002F05\u002F07] 发布了基于 Meta-LLaMA 和中文金融数据进行指令微调的模型。  \n\n\n## 🚀 快速开始\n\n首先安装依赖包，python环境建议3.9+\n\n```\n\npip install -r requirements.txt\n\n```\n其次安装 lfs 方便本地下载 LLaMa 大模型\n\n```\n\ngit lfs install\n\n# 下载7B模型到本地\nbash .\u002Fbase_models\u002Fload.sh\n\n```\n\n### 🤖 模型下载\n\nLoRA 权重可以通过 Huggingface 下载，结构如下：  \n ```\n     Fin-Alpaca-LoRA-7B-Meta\u002F\n        - adapter_config.json   # LoRA权重配置文件\n        - adapter_model.bin     # LoRA权重文件\n ```\n| LoRA模型下载                                                                         | 分类         |  重构模型   | 训练数据     | 训练序列长度 | 版本   |\n|----------------------------------------------------------------------------------|------------|-----|----------|--------|------|\n| [Fin-Alpaca-LoRA-7B-Meta](https:\u002F\u002Fhuggingface.co\u002Fyuyangmu125\u002FFin-Alpaca-LoRA-7B-Meta)   | 中文金融问答微调模型 |  decapoda-research\u002Fllama-7b-hf   | 12M 指令数据 | 512  | V1.0 |\n| [Fin-Alpaca-LoRA-7B-Linly](https:\u002F\u002Fhuggingface.co\u002Fyuyangmu125\u002FFin-Alpaca-LoRA-7B-Linly) | 中文金融问答微调模型 |  Linly-AI\u002FChinese-LLaMA-7B   | 14M 指令数据 | 512      | V1.1 |\n\n\n### Inference\n\n目前在`.\u002Finstruction_data\u002Finfer.json`中提供了一些测试用例，也可替换成其它的数据集但注意格式保持一致\n  \n\n运行infer脚本\n\n```\n\n# 单模型推理\nbash .\u002Fscripts\u002Finfer.sh\n\n# 多模型对比\nbash .\u002Fscripts\u002Fcomparison_test.sh\n\n```\n\n### 📊 数据集构建\n\n此前版本采用了**公开和爬取的中文金融领域问答数据**，涉及到保险、理财、股票、基金、贷款、信用卡、社保等。\n\n指令数据示例如下：\n\n```\n\n问题：办理商业汇票应遵守哪些原则和规定？\n\n回答: 办理商业汇票应遵守下列原则和规定：1.使用商业汇票的单位，必须是在银行开立帐户的法人；2.商业汇票在同城和异地均可使用；3.签发商业汇票必须以合法的商品交易为基础；4.经承兑的商业汇票，可向银行贴现；5.商业汇票一律记名，允许背书转让；6.商业汇票的付款期限由交易双方商定，最长不得超过6个月；7.商业汇票经承兑后，承兑人即付款人负有到期无条件交付票款的责任；8.商业汇票由银行印制和发售。\n\n```\n\n针对此前数据仍存在不准确和类型单一等不完善的地方；目前我们利用GPT3.5\u002F4.0 接口进一步优化数据、并扩充中文金融知识库，设置**多种Prompt形式、multi-task形式拓展丰富指令数据集**，实现金融领域多业务场景覆盖。  \n\n最新模型情况：（即将发布，敬请期待～）  \n\n\n\u003Cp align=\"center\" width=\"80%\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjerry1993-tech_Cornucopia-LLaMA-Fin-Chinese_readme_c354500e103a.png\" alt=\"Cornucopia-LLaMA-Fin-Chinese\">\n\u003C\u002Fp>\n\n\n\n### ⚙️ Finetune\n\n若想用自己的数据集微调 LLaMA，请按照`.\u002Finstruction_data\u002Ffin_data.json`的格式构建自己的数据集\n\n运行 finetune 脚本\n\n```\n\nbash .\u002Fscripts\u002Ffinetune.sh\n\n```\n\n\n## 🏃 训练细节\n\n### 计算资源需求\n\n目前训练设备为一张A100-SXM-80GB显卡，训练总轮次10轮。batch_size=64的情况下显存占用在40G左右、batch_size=96的情况下显存占用在65G左右。预计3090\u002F4090显卡(24GB显存)以上显卡可以较好支持，根据显存大小来调整batch_size。\n\n### 实验记录\n\n实验指标记录与超参设置可以参考wandb的链接:\n\nhttps:\u002F\u002Fapi.wandb.ai\u002Flinks\u002F1812316597\u002Fhkyiriw5  \n\n\n## 📑 模型效果对比\n\n  \n| 测试输入 | 原始Llama输出 | Cornucopia(Fin-Alpaca-LoRA-7B-Meta)输出                                                                                                                                                                                                                                                                                                  | Cornucopia(Fin-Alpaca-LoRA-7B-Linly)输出                                                                                                                                                                                                                                                                                                                           | 文心一言输出        | 讯飞星火认知输出 |\n|:------------ |:----------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------|:------|\n|老年人理财好还是存定期好？|老年人的理财办法应该适合于自身情况。如果他\u002F她有足够的时间和投资能力，则建议他\u002F她利用现在的时间与投资机会进行理财活动。因为老年人可以获得余额、保险、房地产等多种收入方式，所以他\u002F她可以选择不同类型的理财项目，包括公开市场、非公开市场、基金、信托计划等。当然，老年人也应该注意其实需要的生活财务安全。| **若投资者风险承受能力比较高，那么可以选择理财产品进行投资，若投资者风险承受能力比较低，那么可以选择定期存款进行投资。目前理财产品和定期存款都是保本型产品，不会亏损本金，并且收益由投资标的决定，所以理财产品和定期存款相比较更加稳定。需要注意的是理财产品和定期存款没有同样的活期利率，而且理财产品每日计算收益，所以理财产品收益越高，投资者获得收益的概率也越高。9QDII基金是指中国市场上开放式外资基金，这类基金主要投资于：A股、港股、美股、英股、德股、日股、法股、台股、香港股、新加坡股等；QFII基金是指中国交易所开放式外资基金，这类基金主要投资于：A股、港股、美股、英股、德股、日股、法股、台股、香港股、新加坡股等。** | **对于风险承受能力比较低的老年人来说，选择定期存款比较好，因为其风险性比较低，收益也比较稳定，而对于风险承受能力比较高的老年人来说，选择理财产品比较好，因为其风险性比较大，收益也比较高。需要注意的是目前理财产品不是保本型产品，有亏损本金的可能，并且根据投资标的分为不同的风险等级，若投资者风险承受能力比较低，那么可以选择风险等级R2及以下的理财产品，若投资者风险承受能力比较高，那么可以选择风险等级R3及以上的理财产品。当前理财产品包括：债券型基金、股票型基金、混合型基金、指数基金和联接基金等，投资者可以根据自身实际情况选择合适的产品进行投资。**                                                                 |老年人存定期比较好。老年人没工作收入，资产总额也是在逐渐降低，而且老人容易生病，而医疗费支出较大。如果老年人投资理财产品，伴随着其产品净值的变化，是有可能会出现亏损现象的。而定期存款，其利率一般是固定的，期满返本还息，相对而言，安全系数高，盈利更持久。|作为AI语言模型，我没有个人观点和建议。但是，老年人理财和存定期都有其优缺点。老年人理财的优点是可以更好地规划自己的财务状况，包括退休金、医疗保险、子女教育等方面的支出。此外，老年人可以通过投资股票、基金等金融产品来增加财富。存定期的优点是风险较小，收益相对稳定。老年人可以选择不同期限的定期存款，根据自己的需求和风险承受能力来选择。综合来看，老年人应该根据自己的实际情况和需求来选择适合自己的理财方式。如果老年人有足够的资金和风险承受能力，可以考虑投资股票、基金等金融产品来增加财富。如果老年人更注重稳定性和安全性，可以选择存定期来保障自己的财务状况。|\n|股票和基金能当天随买随卖吗？|Yes, stocks and funds can be bought and sold on the same day.| **不能，股票和基金实行T+1交易，交易日当天买入，按照买入当天收盘时的净值计算，第二个交易日确认份额，份额确认后计算收益，所以在交易日买入就要等到第二个交易日才能获得收益。比如投资者周一买入了某只股票，周二市场上公布的净值为10元，那么投资者可以根据这些数据计算收益：1000×10=10000；10000\u002F10=1000。若投资者持有此股票超过30个工作日，那么可以直接转换成现金，也就是将该股票全部或者部分提前支取。需要注意的是，目前没有任何法律法规限制投资者在交易日买入基金、股票，因此投资者在交易日买入基金、股票都能进行当天开放型交易。同时，投资者在交易日买入股票之后，其股票会自动转换为现金，并且投资者在交易日买入股票之后，其股票会自动转换为涨跌幅限制（20％左右），从而影响投资者的手续费和收益。**| **不能，股票交易时间：周一至周五上午9:30-11:30，下午13:00-15:00，法定节假日不交易。基金交易时间：周一至周五上午9:30-11:30，下午13:00-15:00，法定节假日不交易。股票实行T+1交易，按照市场实时价格进行成交，遵循价格优先、时间优先的原则，沪深两市股票涨跌幅限制为10%，创业板和科创板股票涨跌幅限制为20%，北交所涨跌幅限制为30%，ST以及*ST涨跌幅限制为5%（创业板和科创板涨跌幅还没有这个限制），港股涨跌幅限制为20%，新三板涨跌幅限制为10%（创业板和科创板涨跌幅还没有这个限制），对于投资者来说，股票交易比较灵活，可以根据自身情况进行交易，并且股票交易手续费比较低，基金交易手续费也比较低，同时股票波动比较大，风险也比较大。** |不可以，股票基金实行T+1交易，交易日当天买入（交易时间），按照买入当天收盘时的净值计算，第二个交易日确认份额，份额确认后才能将基金卖出，一般交易日当天买入，第三个交易日才能卖出，第三个交易日随时可以卖出。| 股票和基金的交易方式因不同的证券市场而异。在一些证券市场上，股票和基金是可以当天随买随卖的，也就是所谓的“T+0”交易。但是，在另一些证券市场上，股票和基金是不能当天随买随卖的，需要等待一定的交易时间后才能进行买卖。在中国A股市场中，股票和基金是不能当天随买随卖的，需要进行T+1或T+2的交易。这意味着如果您今天买入了一只股票或基金，那么您需要等到明天才能卖出它。 在其他一些国家和地区，股票和基金的交易方式可能会有所不同。因此，如果您想进行股票或基金的投资，建议您了解当地的交易规则和市场情况。                           |\n\n\n## 项目参与者\n本项目由[中科院成都计算机应用研究所 (中科信息)](http:\u002F\u002Fwww.casit.com.cn\u002F)人工智能部Yangmu Yu、Wenhuan Hong完成。  \n\n\n## 👏 致谢\n\n\n本项目参考了以下开源项目，在此对相关项目和研究开发人员表示感谢。\n\n- Facebook LLaMA: https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama\n- Stanford Alpaca: https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\n- alpaca-lora by @tloen: https:\u002F\u002Fgithub.com\u002Ftloen\u002Falpaca-lora\n- Huatuo-Llama-Med-Chinese: https:\u002F\u002Fgithub.com\u002FSCIR-HI\u002FHatuo-Llama-Med-Chinese\n- 文心一言 https:\u002F\u002Fyiyan.baidu.com\u002Fwelcome 本项目的logo由文心一言自动生成\n- 讯飞星火认知 https:\u002F\u002Fxinghuo.xfyun.cn\u002Fdesk\n\n\n## 免责声明\n\n本项目相关资源仅供学术研究之用，严禁用于商业用途。使用涉及第三方代码的部分时，请严格遵循相应的开源协议。模型生成的内容受模型计算、随机性和量化精度损失等因素影响，本项目无法对其准确性作出保证。对于模型输出的任何内容，不作为任何投资建议，本项目不承担任何法律责任，亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。\n\n\n## TODO List\n\n- [ ] 支持中文金融领域 multi-task SFT\n- [ ] 支持量化模型 CUDA 部署\n- [ ] 强化学习 -> Chat化\n- [ ] 中文金融领域 next-pretrain\n- [ ] 支持 13B 模型\n\n\n## 📌 Citation\n\n如果你使用了本项目的数据或者代码，请声明引用\n\n\n```\n\n@misc{Cornucopia-LLaMA-Fin-Chinese,\n  title={Cornucopia-LLaMA-Fin-Chinese},\n  author={YangMu Yu},\n  year={2023},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese}},\n}\n\n```\n\n\n## ⛽️ 如何贡献\n\n如果您想参与本项目，提交贡献数据\u002F代码，请参考[如何贡献](https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese\u002Fblob\u002Fmain\u002FHOW_TO_CONTRIBUTE.md)。\n\n\n## ☎️ 交流和问题反馈\n\n欢迎点赞🌟、关注、分享，一键三连；如有问题，请在GitHub Issue中提交，或进群进一步探讨：  \n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjerry1993-tech_Cornucopia-LLaMA-Fin-Chinese_readme_79ac66561bee.jpeg\" width=\"350\" >\n\n","\u003Cdiv align=center> \n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese\u002F\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjerry1993-tech_Cornucopia-LLaMA-Fin-Chinese_readme_d92d9c44529a.png\" alt=\"Cornucopia-LLaMa\" style=\"width: 80%; min-width: 350px; display: block; margin: auto;\">\u003C\u002Fa>\n\n[![作者](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F作者-yangmu.yu-green.svg \"作者\")](https:\u002F\u002Fwww.zhihu.com\u002Fpeople\u002Fxuyingjie521\u002Fcolumns) [![操作系统](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F操作系统-Linux\u002FWindows\u002FMac-red.svg \"操作系统\")](.\u002F) [![基于](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F基于-huggingface_transformers-blue.svg \"基于\")](.\u002F)\n\n[![代码许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F代码%20许可证-Apache_2.0-green.svg)](https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese\u002FLICENSE) [![Python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.9+-darkseagreen.svg \"Python\")](.\u002F)\n\n[![打字效果SVG](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjerry1993-tech_Cornucopia-LLaMA-Fin-Chinese_readme_09745e5632d7.png)](https:\u002F\u002Fgit.io\u002Ftyping-svg)\n\n\u003C\u002Fdiv>\n\n\n# Cornucopia-LLaMA-Fin-Chinese\n### 聚宝盆(Cornucopia): 基于中文金融知识的 LLaMA 系微调模型\n\n\n本项目开源了基于 LLaMA 系基模型经过中文金融知识指令精调\u002F指令微调(Instruct-tuning) 的微调模型。通过中文金融公开问答数据+爬取的金融问答数据构建指令数据集，并在此基础上对 LLaMA 系模型进行了指令微调，提高了 LLaMA 在金融领域的问答效果。  \n\n基于已有数据和继续爬取的中文金融数据，将继续利用 GPT3.5\u002F4.0 API 构建高质量的数据集，另在[中文知识图谱-金融](http:\u002F\u002Fwww.openkg.cn\u002Fgroup\u002Ffinance)、CFLEB 金融数据集等数据上进一步扩充高质量指令数据集。  \n\n陆续会发布新的**中文场景的金融模型**（next-pretrain、multi-task SFT、RLHF），欢迎大家届时使用体验，敬请期待。  \n\n## 🔄 新闻\n\n[2023\u002F05\u002F10] 发布了基于 Chinese-LLaMA 和中文金融数据进行指令微调的模型。  \n\n[2023\u002F05\u002F07] 发布了基于 Meta-LLaMA 和中文金融数据进行指令微调的模型。  \n\n\n## 🚀 快速开始\n\n首先安装依赖包，python环境建议3.9+\n\n```\n\npip install -r requirements.txt\n\n```\n其次安装 lfs 方便本地下载 LLaMa 大模型\n\n```\n\ngit lfs install\n\n# 下载7B模型到本地\nbash .\u002Fbase_models\u002Fload.sh\n\n```\n\n### 🤖 模型下载\n\nLoRA 权重可以通过 Huggingface 下载，结构如下：  \n ```\n     Fin-Alpaca-LoRA-7B-Meta\u002F\n        - adapter_config.json   # LoRA权重配置文件\n        - adapter_model.bin     # LoRA权重文件\n ```\n| LoRA模型下载                                                                         | 分类         |  重构模型   | 训练数据     | 训练序列长度 | 版本   |\n|----------------------------------------------------------------------------------|------------|-----|----------|--------|------|\n| [Fin-Alpaca-LoRA-7B-Meta](https:\u002F\u002Fhuggingface.co\u002Fyuyangmu125\u002FFin-Alpaca-LoRA-7B-Meta)   | 中文金融问答微调模型 |  decapoda-research\u002Fllama-7b-hf   | 12M 指令数据 | 512  | V1.0 |\n| [Fin-Alpaca-LoRA-7B-Linly](https:\u002F\u002Fhuggingface.co\u002Fyuyangmu125\u002FFin-Alpaca-LoRA-7B-Linly) | 中文金融问答微调模型 |  Linly-AI\u002FChinese-LLaMA-7B   | 14M 指令数据 | 512      | V1.1 |\n\n\n### 推理\n\n目前在`.\u002Finstruction_data\u002Finfer.json`中提供了一些测试用例，也可替换成其它的数据集但注意格式保持一致\n  \n\n运行infer脚本\n\n```\n\n# 单模型推理\nbash .\u002Fscripts\u002Finfer.sh\n\n# 多模型对比\nbash .\u002Fscripts\u002Fcomparison_test.sh\n\n```\n\n### 📊 数据集构建\n\n此前版本采用了**公开和爬取的中文金融领域问答数据**，涉及到保险、理财、股票、基金、贷款、信用卡、社保等。\n\n指令数据示例如下：\n\n```\n\n问题：办理商业汇票应遵守哪些原则和规定？\n\n回答: 办理商业汇票应遵守下列原则和规定：1.使用商业汇票的单位，必须是在银行开立帐户的法人；2.商业汇票在同城和异地均可使用；3.签发商业汇票必须以合法的商品交易为基础；4.经承兑的商业汇票，可向银行贴现；5.商业汇票一律记名，允许背书转让；6.商业汇票的付款期限由交易双方商定，最长不得超过6个月；7.商业汇票经承兑后，承兑人即付款人负有到期无条件交付票款的责任；8.商业汇票由银行印制和发售。\n\n```\n\n针对此前数据仍存在不准确和类型单一等不完善的地方；目前我们利用GPT3.5\u002F4.0 接口进一步优化数据、并扩充中文金融知识库，设置**多种Prompt形式、multi-task形式拓展丰富指令数据集**，实现金融领域多业务场景覆盖。  \n\n最新模型情况：（即将发布，敬请期待～）  \n\n\n\u003Cp align=\"center\" width=\"80%\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjerry1993-tech_Cornucopia-LLaMA-Fin-Chinese_readme_c354500e103a.png\" alt=\"Cornucopia-LLaMA-Fin-Chinese\">\n\u003C\u002Fp>\n\n\n\n### ⚙️ 微调\n\n若想用自己的数据集微调 LLaMA，请按照`.\u002Finstruction_data\u002Ffin_data.json`的格式构建自己的数据集\n\n运行 finetune 脚本\n\n```\n\nbash .\u002Fscripts\u002Ffinetune.sh\n\n```\n\n\n## 🏃 训练细节\n\n### 计算资源需求\n\n目前训练设备为一张A100-SXM-80GB显卡，训练总轮次10轮。batch_size=64的情况下显存占用在40G左右、batch_size=96的情况下显存占用在65G左右。预计3090\u002F4090显卡(24GB显存)以上显卡可以较好支持，根据显存大小来调整batch_size。\n\n### 实验记录\n\n实验指标记录与超参设置可以参考wandb的链接:\n\nhttps:\u002F\u002Fapi.wandb.ai\u002Flinks\u002F1812316597\u002Fhkyiriw5\n\n## 📑 模型效果对比\n\n  \n| 测试输入 | 原始Llama输出 | Cornucopia(Fin-Alpaca-LoRA-7B-Meta)输出                                                                                                                                                                                                                                                                                                  | Cornucopia(Fin-Alpaca-LoRA-7B-Linly)输出                                                                                                                                                                                                                                                                                                                           | 文心一言输出        | 讯飞星火认知输出 |\n|:------------ |:----------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------|:------|\n|老年人理财好还是存定期好？|老年人的理财办法应该适合于自身情况。如果他\u002F她有足够的时间和投资能力，则建议他\u002F她利用现在的时间与投资机会进行理财活动。因为老年人可以获得余额、保险、房地产等多种收入方式，所以他\u002F她可以选择不同类型的理财项目，包括公开市场、非公开市场、基金、信托计划等。当然，老年人也应该注意其实需要的生活财务安全。| **若投资者风险承受能力比较高，那么可以选择理财产品进行投资，若投资者风险承受能力比较低，那么可以选择定期存款进行投资。目前理财产品和定期存款都是保本型产品，不会亏损本金，并且收益由投资标的决定，所以理财产品和定期存款相比较更加稳定。需要注意的是理财产品和定期存款没有同样的活期利率，而且理财产品每日计算收益，所以理财产品收益越高，投资者获得收益的概率也越高。9QDII基金是指中国市场上开放式外资基金，这类基金主要投资于：A股、港股、美股、英股、德股、日股、法股、台股、香港股、新加坡股等；QFII基金是指中国交易所开放式外资基金，这类基金主要投资于：A股、港股、美股、英股、德股、日股、法股、台股、香港股、新加坡股等。** | **对于风险承受能力比较低的老年人来说，选择定期存款比较好，因为其风险性比较低，收益也比较稳定，而对于风险承受能力比较高的老年人来说，选择理财产品比较好，因为其风险性比较大，收益也比较高。需要注意的是目前理财产品不是保本型产品，有亏损本金的可能，并且根据投资标的分为不同的风险等级，若投资者风险承受能力比较低，那么可以选择风险等级R2及以下的理财产品，若投资者风险承受能力比较高，那么可以选择风险等级R3及以上的理财产品。当前理财产品包括：债券型基金、股票型基金、混合型基金、指数基金和联接基金等，投资者可以根据自身实际情况选择合适的产品进行投资。**                                                                 |老年人存定期比较好。老年人没工作收入，资产总额也是在逐渐降低，而且老人容易生病，而医疗费支出较大。如果老年人投资理财产品，伴随着其产品净值的变化，是有可能会出现亏损现象的。而定期存款，其利率一般是固定的，期满返本还息，相对而言，安全系数高，盈利更持久。|作为AI语言模型，我没有个人观点和建议。但是，老年人理财和存定期都有其优缺点。老年人理财的优点是可以更好地规划自己的财务状况，包括退休金、医疗保险、子女教育等方面的支出。此外，老年人可以通过投资股票、基金等金融产品来增加财富。存定期的优点是风险较小，收益相对稳定。老年人可以选择不同期限的定期存款，根据自己的需求和风险承受能力来选择。综合来看，老年人应该根据自己的实际情况和需求来选择适合自己的理财方式。如果老年人有足够的资金和风险承受能力，可以考虑投资股票、基金等金融产品来增加财富。如果老年人更注重稳定性和安全性，可以选择存定期来保障自己的财务状况。|\n|股票和基金能当天随买随卖吗？|Yes, stocks and funds can be bought and sold on the same day.| **不能，股票和基金实行T+1交易，交易日当天买入，按照买入当天收盘时的净值计算，第二个交易日确认份额，份额确认后计算收益，所以在交易日买入就要等到第二个交易日才能获得收益。比如投资者周一买入了某只股票，周二市场上公布的净值为10元，那么投资者可以根据这些数据计算收益：1000×10=10000；10000\u002F10=1000。若投资者持有此股票超过30个工作日，那么可以直接转换成现金，也就是将该股票全部或者部分提前支取。需要注意的是，目前没有任何法律法规限制投资者在交易日买入基金、股票，因此投资者在交易日买入基金、股票都能进行当天开放型交易。同时，投资者在交易日买入股票之后，其股票会自动转换为现金，并且投资者在交易日买入股票之后，其股票会自动转换为涨跌幅限制（20％左右），从而影响投资者的手续费和收益。**| **不能，股票交易时间：周一至周五上午9:30-11:30，下午13:00-15:00，法定节假日不交易。基金交易时间：周一至周五上午9:30-11:30，下午13:00-15:00，法定节假日不交易。股票实行T+1交易，按照市场实时价格进行成交，遵循价格优先、时间优先的原则，沪深两市股票涨跌幅限制为10%，创业板和科创板股票涨跌幅限制为20%，北交所涨跌幅限制为30%，ST以及*ST涨跌幅限制为5%（创业板和科创板涨跌幅还没有这个限制），港股涨跌幅限制为20%，新三板涨跌幅限制为10%（创业板和科创板涨跌幅还没有这个限制），对于投资者来说，股票交易比较灵活，可以根据自身情况进行交易，并且股票交易手续费比较低，基金交易手续费也比较低，同时股票波动比较大，风险也比较大。** |不可以，股票基金实行T+1交易，交易日当天买入（交易时间），按照买入当天收盘时的净值计算，第二个交易日确认份额，份额确认后才能将基金卖出，一般交易日当天买入，第三个交易日才能卖出，第三个交易日随时可以卖出。| 股票和基金的交易方式因不同的证券市场而异。在一些证券市场上，股票和基金是可以当天随买随卖的，也就是所谓的“T+0”交易。但是，在另一些证券市场上，股票和基金是不能当天随买随卖的，需要等待一定的交易时间后才能进行买卖。在中国A股市场中，股票和基金是不能当天随买随卖的，需要进行T+1或T+2的交易。这意味着如果您今天买入了一只股票或基金，那么您需要等到明天才能卖出它。 在其他一些国家和地区，股票和基金的交易方式可能会有所不同。因此，如果您想进行股票或基金的投资，建议您了解当地的交易规则和市场情况。                           |\n\n\n## 项目参与者\n本项目由[中科院成都计算机应用研究所 (中科信息)](http:\u002F\u002Fwww.casit.com.cn\u002F)人工智能部Yangmu Yu、Wenhuan Hong完成。  \n\n\n## 👏 致谢\n\n\n本项目参考了以下开源项目，在此对相关项目和研究开发人员表示感谢。\n\n- Facebook LLaMA: https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama\n- Stanford Alpaca: https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\n- alpaca-lora by @tloen: https:\u002F\u002Fgithub.com\u002Ftloen\u002Falpaca-lora\n- Huatuo-Llama-Med-Chinese: https:\u002F\u002Fgithub.com\u002FSCIR-HI\u002FHatuo-Llama-Med-Chinese\n- 文心一言 https:\u002F\u002Fyiyan.baidu.com\u002Fwelcome 本项目的logo由文心一言自动生成\n- 讯飞星火认知 https:\u002F\u002Fxinghuo.xfyun.cn\u002Fdesk\n\n\n## 免责声明\n\n本项目相关资源仅供学术研究之用，严禁用于商业用途。使用涉及第三方代码的部分时，请严格遵循相应的开源协议。模型生成的内容受模型计算、随机性和量化精度损失等因素影响，本项目无法对其准确性作出保证。对于模型输出的任何内容，不作为任何投资建议，本项目不承担任何法律责任，亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。\n\n\n## TODO List\n\n- [ ] 支持中文金融领域 multi-task SFT\n- [ ] 支持量化模型 CUDA 部署\n- [ ] 强化学习 -> Chat化\n- [ ] 中文金融领域 next-pretrain\n- [ ] 支持 13B 模型\n\n\n## 📌 Citation\n\n如果你使用了本项目的数据或者代码，请声明引用\n\n\n```\n\n@misc{Cornucopia-LLaMA-Fin-Chinese,\n  title={Cornucopia-LLaMA-Fin-Chinese},\n  author={YangMu Yu},\n  year={2023},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese}},\n}\n\n```\n\n\n## ⛽️ 如何贡献\n\n如果您想参与本项目，提交贡献数据\u002F代码，请参考[如何贡献](https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese\u002Fblob\u002Fmain\u002FHOW_TO_CONTRIBUTE.md)。\n\n\n## ☎️ 交流和问题反馈\n\n欢迎点赞🌟、关注、分享，一键三连；如有问题，请在GitHub Issue中提交，或进群进一步探讨：  \n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjerry1993-tech_Cornucopia-LLaMA-Fin-Chinese_readme_79ac66561bee.jpeg\" width=\"350\" >","# Cornucopia-LLaMA-Fin-Chinese 快速上手指南\n\nCornucopia（聚宝盆）是基于 LLaMA 系列基座模型，利用中文金融领域指令数据微调而成的开源模型。本项目旨在提升大模型在保险、理财、股票、基金等金融场景下的问答能力。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F Windows \u002F macOS\n*   **Python 版本**：3.9 及以上\n*   **硬件建议**：\n    *   推理：建议显存 16GB 以上（如 RTX 3090\u002F4090）。\n    *   微调：建议单卡 A100 (80GB) 或同等算力；若使用消费级显卡，需根据显存大小调整 `batch_size`。\n*   **前置依赖**：\n    *   已安装 `git` 和 `git-lfs`（用于下载大模型文件）。\n\n## 2. 安装步骤\n\n### 2.1 克隆项目与安装依赖\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese.git\ncd Cornucopia-LLaMA-Fin-Chinese\n\n# 安装 Python 依赖包\npip install -r requirements.txt\n```\n\n### 2.2 配置 Git LFS 并下载基座模型\n\n为了顺利下载较大的模型文件，必须先初始化 Git LFS：\n\n```bash\n# 初始化 git lfs\ngit lfs install\n\n# 执行脚本下载 7B 基座模型到本地 (自动处理 Meta 或 Linly 版本)\nbash .\u002Fbase_models\u002Fload.sh\n```\n\n### 2.3 获取微调权重 (LoRA)\n\n本项目提供两种 LoRA 权重，请根据需求从 Hugging Face 下载对应文件夹至项目目录：\n\n| 模型名称 | 基座模型 | 特点 | 下载地址 |\n| :--- | :--- | :--- | :--- |\n| **Fin-Alpaca-LoRA-7B-Meta** | `decapoda-research\u002Fllama-7b-hf` | 基于原生 LLaMA，V1.0 版本 | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fyuyangmu125\u002FFin-Alpaca-LoRA-7B-Meta) |\n| **Fin-Alpaca-LoRA-7B-Linly** | `Linly-AI\u002FChinese-LLaMA-7B` | 基于中文增强版，V1.1 版本 | [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fyuyangmu125\u002FFin-Alpaca-LoRA-7B-Linly) |\n\n下载后的目录结构应如下所示：\n```text\nFin-Alpaca-LoRA-7B-Meta\u002F\n   ├── adapter_config.json\n   └── adapter_model.bin\n```\n\n> **提示**：国内用户若访问 Hugging Face 困难，可使用镜像站（如 `hf-mirror.com`）或手动下载后放入对应目录。\n\n## 3. 基本使用\n\n### 3.1 快速推理\n\n项目已内置测试数据集 `.\u002Finstruction_data\u002Finfer.json`，您可以直接运行脚本进行单模型推理测试。\n\n```bash\n# 运行单模型推理脚本\nbash .\u002Fscripts\u002Finfer.sh\n```\n\n若需对比不同模型（如原始 LLaMA 与微调后模型）的效果，可运行：\n\n```bash\n# 运行多模型对比脚本\nbash .\u002Fscripts\u002Fcomparison_test.sh\n```\n\n### 3.2 自定义数据推理\n\n如需使用自己的数据进行测试，请参照 `.\u002Finstruction_data\u002Finfer.json` 的格式准备 JSON 文件，并在运行脚本前替换相应路径或修改脚本配置。\n\n**数据格式示例：**\n```json\n[\n  {\n    \"instruction\": \"办理商业汇票应遵守哪些原则和规定？\",\n    \"input\": \"\",\n    \"output\": \"办理商业汇票应遵守下列原则和规定：1.使用商业汇票的单位...\"\n  }\n]\n```\n\n### 3.3 开始微调 (可选)\n\n如果您希望使用自己的金融数据集对模型进行进一步微调，请按以下步骤操作：\n\n1.  按照 `.\u002Finstruction_data\u002Ffin_data.json` 的格式构建训练数据集。\n2.  运行微调脚本：\n\n```bash\nbash .\u002Fscripts\u002Ffinetune.sh\n```\n\n> **注意**：微调过程显存占用较高，请根据您的显卡显存大小在脚本中调整 `batch_size` 参数。","某城商行智能客服团队正试图升级其自动化问答系统，以应对每日数千条关于理财、贷款及票据业务的专业咨询。\n\n### 没有 Cornucopia-LLaMA-Fin-Chinese 时\n- **专业术语理解偏差**：通用大模型无法准确识别“商业汇票背书转让”、“贴现率”等金融专有名词，常给出泛泛而谈的科普回答而非业务指引。\n- **合规风险高**：模型在回答社保缴纳或信贷政策时，容易编造不存在的条款（幻觉），缺乏对最新监管规定的遵循，存在误导客户的法律风险。\n- **响应效率低下**：开发人员需耗费数周时间手动整理金融语料并搭建复杂的微调框架，且难以在有限显存资源下完成模型训练。\n- **场景覆盖单一**：仅能处理简单的余额查询，面对保险理赔、基金定投等复杂多轮对话场景时，逻辑混乱，无法提供连贯建议。\n\n### 使用 Cornucopia-LLaMA-Fin-Chinese 后\n- **领域知识精准匹配**：基于 1200 万 + 中文金融指令数据微调，模型能准确解析“商业汇票付款期限”等复杂问题，直接输出符合银行内部规定的标准答案。\n- **内容安全可控**：内置的金融垂直领域 RLHF 优化机制，确保回答严格基于真实法规与产品条款，大幅降低胡编乱造带来的合规隐患。\n- **部署轻量高效**：利用其提供的轻量化训练框架与 LoRA 权重，团队仅需单张消费级显卡即可快速完成适配，将模型上线周期从数周缩短至几天。\n- **多业务场景贯通**：模型天然支持保险、股票、信贷等多任务场景，能像资深客户经理一样处理复杂的组合咨询，显著提升用户满意度。\n\nCornucopia-LLaMA-Fin-Chinese 通过注入高质量的中文金融基因，让通用大模型瞬间蜕变为懂业务、守合规的专属金融专家。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjerry1993-tech_Cornucopia-LLaMA-Fin-Chinese_d92d9c44.png","jerry1993-tech","Cornucopia.AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjerry1993-tech_f3ca773e.jpg","NLPer","UCAS","chendu","yym18810978851@163.com",null,"https:\u002F\u002Fgithub.com\u002Fjerry1993-tech",[85,89],{"name":86,"color":87,"percentage":88},"Python","#3572A5",85.4,{"name":90,"color":91,"percentage":92},"Shell","#89e051",14.6,657,68,"2026-03-30T12:52:26","Apache-2.0","Linux, Windows, macOS","训练必需：推荐 NVIDIA A100 (80GB)，或 RTX 3090\u002F4090 (24GB+)；显存需求随 batch_size 变化（40GB-65GB+）。推理未明确具体型号，但需支持 LLaMA 7B 模型加载。","未说明",{"notes":101,"python":102,"dependencies":103},"1. 需安装 git-lfs 以下载 LLaMA 基模型权重。2. 训练基于 LoRA 微调，单卡 A100-80G 可支持 batch_size 64-96；24G 显存显卡需调小 batch_size。3. 模型分为基于 Meta-LLaMA 和 Chinese-LLaMA (Linly) 的两个版本。4. 代码基于 Huggingface transformers 库。","3.9+",[104,105,106,107,108],"transformers","torch","peft","accelerate","bitsandbytes",[26,13],[111,112,113,114,115,116,117,118,119,104],"llama","nlp","chinese","finance","rlhf","sft","qa","text-generation","large-language-models","2026-03-27T02:49:30.150509","2026-04-06T10:23:43.687513",[123,128,133],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},16361,"使用 24G 显存的 GPU（如 A10）能否支持该模型的推理和微调？","24G 显存的 GPU 用于推理和低秩微调（LoRA）是足够的。具体显存占用情况如下：6B 和 7B 模型推理大约占用 12～14G 显存，13B 模型大约占用 22G 显存。此外，项目后续还会发布量化版本的模型，届时所需的显存将更少。","https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese\u002Fissues\u002F18",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},16362,"如何联系项目作者进行合作或咨询？","如果您有合作意向或需要进一步咨询，可以通过留言留下您的联系方式（如微信或 QQ）。目前作者已公开其 QQ 号码供联系，同时也表示对新能源等垂直领域的合作非常感兴趣，期待与您交流。","https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese\u002Fissues\u002F19",{"id":134,"question_zh":135,"answer_zh":136,"source_url":132},16363,"项目是否有后续的更新计划？","是的，项目计划在年底前进行重大更新，内容包括代码框架的优化以及大模型权重的发布。",[]]