[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-llSourcell--Doctor-Dignity":3,"similar-llSourcell--Doctor-Dignity":119},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":19,"owner_location":19,"owner_email":19,"owner_twitter":19,"owner_website":20,"owner_url":21,"languages":22,"stars":61,"forks":62,"last_commit_at":63,"license":64,"difficulty_score":65,"env_os":66,"env_gpu":67,"env_ram":68,"env_deps":69,"category_tags":83,"github_topics":19,"view_count":85,"oss_zip_url":19,"oss_zip_packed_at":19,"status":86,"created_at":87,"updated_at":88,"faqs":89,"releases":118},5417,"llSourcell\u002FDoctor-Dignity","Doctor-Dignity","Doctor Dignity is an LLM that can pass the US Medical Licensing Exam. It works offline, it's cross-platform, & your health data stays private.","Doctor-Dignity 是一款旨在通过美国医师执照考试的开源大型语言模型，其核心使命是让每个人都能拥有专属的私人医生助手。它基于 Meta 的 Llama2-7B 模型，经过专业医疗对话数据集的微调，并结合强化学习与宪法式 AI 技术进一步优化而成。\n\n这款工具主要解决了传统在线医疗 AI 存在的数据隐私泄露风险及高昂的使用成本问题。由于模型体积仅约 3GB，Doctor-Dignity 能够完全在本地设备（如手机、电脑）上离线运行，无需联网或调用云端 API，从而确保用户的健康数据始终保留在本地，严格保护患者隐私。同时，作为免费开源项目，它也降低了获取高质量医疗辅助服务的门槛。\n\nDoctor-Dignity 非常适合关注数据隐私的普通用户日常健康咨询参考，同时也为开发者和研究人员提供了一个在移动端部署垂直领域大模型的优秀范例。其独特的技术亮点在于采用了量化压缩技术，将庞大的模型精简至可嵌入 iOS、Android 及 Web 端的大小，并利用 TVM 技术实现了高效的跨平台推理能力。\n\n需要特别注意的是，该项目目前仍处于开发完善阶段，官方明确提示其输出内容仅供参考，切勿将其建","Doctor-Dignity 是一款旨在通过美国医师执照考试的开源大型语言模型，其核心使命是让每个人都能拥有专属的私人医生助手。它基于 Meta 的 Llama2-7B 模型，经过专业医疗对话数据集的微调，并结合强化学习与宪法式 AI 技术进一步优化而成。\n\n这款工具主要解决了传统在线医疗 AI 存在的数据隐私泄露风险及高昂的使用成本问题。由于模型体积仅约 3GB，Doctor-Dignity 能够完全在本地设备（如手机、电脑）上离线运行，无需联网或调用云端 API，从而确保用户的健康数据始终保留在本地，严格保护患者隐私。同时，作为免费开源项目，它也降低了获取高质量医疗辅助服务的门槛。\n\nDoctor-Dignity 非常适合关注数据隐私的普通用户日常健康咨询参考，同时也为开发者和研究人员提供了一个在移动端部署垂直领域大模型的优秀范例。其独特的技术亮点在于采用了量化压缩技术，将庞大的模型精简至可嵌入 iOS、Android 及 Web 端的大小，并利用 TVM 技术实现了高效的跨平台推理能力。\n\n需要特别注意的是，该项目目前仍处于开发完善阶段，官方明确提示其输出内容仅供参考，切勿将其建议作为严肃的医疗诊断依据，以免发生危险。","# Doctor Dignity\n\u003Cp align=\"center\">\n\n\nDISCLAIMER - Do not take any advice from Doctor Dignity seriously yet. This is a work in progress and taking any advice seriously could result in serious injury or even death. \n\n\u003Cimg src=\"https:\u002F\u002Fi.imgur.com\u002F18jVWiV.png\" width=\"400\" height=\"400\">\n\u003C\u002Fp>\n\n## Overview\nDoctor Dignity is a Large Language Model that can pass the US Medical Licensing Exam. This is an open-source project with a mission to provide everyone their own private doctor. Doctor Dignity is a version of Meta's [Llama2](https:\u002F\u002Fai.meta.com\u002Fllama\u002F) 7 billion parameter Large Language Model that was fine-tuned on a Medical Dialogue Dataset, then further improved using Reinforcement Learning & Constitutional AI. Since the model is only 3 Gigabytes in size, it fits on any local device, so there is no need to pay an API to use it. It's free, made for offline usage which preserves patient confidentiality, and it's available on iOS, Android, and Web. Pull requests for feature additions and improvements are encouraged.\n\n## Dependencies\n- [Numpy](https:\u002F\u002Fnumpy.org\u002Finstall\u002F)           (Use matrix math operations)\n- [PyTorch](https:\u002F\u002Fpytorch.org\u002F)         (Build Deep Learning models)\n- [Datasets](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fdatasets\u002Findex)        (Access datasets from huggingface hub)\n- [Huggingface_hub](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fhuggingface_hub\u002Fv0.5.1\u002Fen\u002Fpackage_reference\u002Fhf_api) (access huggingface data & models) \n- [Transformers](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftransformers\u002Findex)    (Access models from HuggingFace hub)\n- [Trl](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftrl\u002Findex)             (Transformer Reinforcement Learning. And fine-tuning.)\n- [Bitsandbytes](https:\u002F\u002Fgithub.com\u002FTimDettmers\u002Fbitsandbytes)    (makes models smaller, aka 'quantization')\n- [Sentencepiece](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fsentencepiece)       (Byte Pair Encoding scheme aka 'tokenization')\n- [OpenAI](https:\u002F\u002Fopenai.com)          (Create synthetic fine-tuning and reward model data)\n- [TVM](https:\u002F\u002Ftvm.apache.org\u002F)             (Tensor Virtual Machine, converts onnx model to efficient cross-platform use)\n- [Peft](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fpeft)            (Parameter Efficient Fine Tuning, use low rank adaption (LoRa) to fine-tune)\n- [Onnx](https:\u002F\u002Fonnx.ai\u002F)            (Convert trained model to universal format)\n\n\n\n## Installation\n\nInstall all dependencies in one line using [pip](https:\u002F\u002Fpip.pypa.io\u002Fen\u002Fstable\u002Finstallation\u002F)\n\n```bash\npip install numpy torch datasets huggingface_hub transformers trl bitsandbytes sentencepiece openai tvm peft onnx\n```\n\n## iOS QuickStart v2\n\n1. Clone this repository\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FllSourcell\u002FDoctor-Dignity\n```\n2. Download the Weights\n```bash\nmkdir -p dist\u002Fprebuilt\ngit clone https:\u002F\u002Fgithub.com\u002Fmlc-ai\u002Fbinary-mlc-llm-libs.git dist\u002Fprebuilt\u002Flib\ncd dist\u002Fprebuilt\ngit lfs install\nwget --no-check-certificate 'https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1MLy8BDhuTTcXqagzLFMA07JDzqjQYUTB\u002Fview?pli=1'\ncd ..\u002F..\n```\n3. Build the Tensor Virtual Machine Runtime\n```bash\ngit submodule update --init --recursive\npip install apache-tvm\ncd .\u002Fios\npip install --pre --force-reinstall mlc-ai-nightly mlc-chat-nightly -f https:\u002F\u002Fmlc.ai\u002Fwheels \n.\u002Fprepare_libs.sh\n```\n** Find the right version of MLC LLM for your system [here](https:\u002F\u002Fmlc.ai\u002Fpackage\u002F)\n4. Add Weights to Xcode\n```bash\ncd .\u002Fios\nopen .\u002Fprepare_params.sh # make sure builtin_list only contains \"RedPajama-INCITE-Chat-3B-v1-q4f16_1\"\n.\u002Fprepare_params.sh\n```\n5. Open Xcode Project and run! \n\n\n## DIY Training\n\nIn order to train the model, you can run the training.ipynb notebook locally or remotely via a cloud service like Google Colab Pro. The training process requires a GPU, and if you don't have one then the most accessible option i found was using Google Colab [Pro](https:\u002F\u002Fcolab.research.google.com\u002Fsignup) which costs $10\u002Fmonth. The total training time for Doctor Dignity including supervised fine-tuning of the initial LLama model on custom medical data, as well as further improving it via Reinforcement Learning from Constitional AI Feedback took 24 hours on a paid instance of Google Colab. If you're interested in learning more about how this process works, details are in the training.ipynb notebook. \n\n#### Cloud Training\n\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FllSourcell\u002FDoctorGPT\u002Fblob\u002Fmain\u002Fllama2.ipynb)\nclick here: https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FllSourcell\u002FDoctor-Dignity\u002Fblob\u002Fmain\u002Fllama2.ipynb\n\n#### Local Training\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FllSourcell\u002FDoctor-Dignity.git\njupyter training.ipynb\n```\nGet jupyter [here](https:\u002F\u002Fjupyter.org\u002Finstall)\n\n## Usage  https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002Fmedllama2_7b\n\nThere are 2 huggingface repos, one which is quantized for mobile and one that is not.\n\n#### Old iOS app \n   \n- Step 1: [Download](https:\u002F\u002Fgithub.com\u002Fmlc-ai\u002Fmlc-llm\u002Ftree\u002Fmain\u002Fios) the iOS Machine Learning Compilation Chat Repository\n- Step 2: Follow the [installation steps](https:\u002F\u002Fmlc.ai\u002Fmlc-llm\u002Fdocs\u002Fdeploy\u002Fios.html) \n- Step 3: Once the app is running on your iOS device or simulator, tap \"add model variant\"\n- Step 4: Enter the URL for the latest Doctor Dignity model to download it: [https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini] (https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini)\n- Step 5: Tap 'Add Model' and start chatting locally, inference runs on device. No internet connection needed!\n\n#### Android app (TODO)\n\n- Step 1: [Download](https:\u002F\u002Fgithub.com\u002Fmlc-ai\u002Fmlc-llm\u002Ftree\u002Fmain\u002Fandroid) the Android Machine Learning Compilation Chat Repository\n- Step 2: Follow the [installation steps]([https:\u002F\u002Fmlc.ai\u002Fmlc-llm\u002Fdocs\u002Fdeploy\u002Fios.html](https:\u002F\u002Fmlc.ai\u002Fmlc-llm\u002Fdocs\u002Fdeploy\u002Fandroid.html)) \n- Step 3: Tap \"add model variant\"\n- Step 4: Enter the URL for the latest Doctor Dignity model to download it: [https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini](https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini)\n- Step 5: Tap 'Add Model' and start chatting locally! No internet needed. \n\n#### Web (TODO)\n\nAs an experiment in Online Learning using actual human feedback, i want to deploy the model as a Flask API with a React front-end. In this case, anyone can chat with the model at this URL. After each query, a human can rate the model's response. This rating is then used to further improve the model's performance through reinforcement learning. to run the app, download [flask](https:\u002F\u002Fflask.palletsprojects.com\u002Fen\u002F2.3.x\u002F) and then you can run:\n\n```bash\nflask run\n```\n\nThen visit localhost:3000 to interact with it! You can also deploy to [vercel](https:\u002F\u002Fvercel.com\u002Ftemplates\u002Fai)\n\n## Credits\n\nMeta, MedAlpaca, Apache, MLC Chat & OctoML \n\n","# 医生尊严\n\u003Cp align=\"center\">\n\n\n免责声明 - 请勿认真对待“医生尊严”的任何建议。这是一个正在进行中的项目，若认真采纳其中的建议，可能会导致严重伤害甚至死亡。\n\n\u003Cimg src=\"https:\u002F\u002Fi.imgur.com\u002F18jVWiV.png\" width=\"400\" height=\"400\">\n\u003C\u002Fp>\n\n## 概述\n“医生尊严”是一款能够通过美国医师执照考试的大语言模型。这是一个开源项目，旨在为每个人提供一位私人医生。“医生尊严”基于Meta的[Llama2](https:\u002F\u002Fai.meta.com\u002Fllama\u002F) 70亿参数大语言模型，在医学对话数据集上进行了微调，并进一步通过强化学习和宪法式人工智能技术加以优化。由于该模型仅3GB大小，可运行于任何本地设备上，因此无需支付API费用即可使用。它是免费的、专为离线使用而设计，能够有效保护患者隐私，并且支持iOS、Android和Web平台。欢迎提交功能添加与改进的拉取请求。\n\n## 依赖项\n- [Numpy](https:\u002F\u002Fnumpy.org\u002Finstall\u002F)           （用于矩阵运算）\n- [PyTorch](https:\u002F\u002Fpytorch.org\u002F)         （构建深度学习模型）\n- [Datasets](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fdatasets\u002Findex)        （访问Hugging Face Hub上的数据集）\n- [Huggingface_hub](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fhuggingface_hub\u002Fv0.5.1\u002Fen\u002Fpackage_reference\u002Fhf_api) （访问Hugging Face的数据与模型） \n- [Transformers](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftransformers\u002Findex)    （访问Hugging Face Hub上的模型）\n- [Trl](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftrl\u002Findex)             （Transformer强化学习及微调）\n- [Bitsandbytes](https:\u002F\u002Fgithub.com\u002FTimDettmers\u002Fbitsandbytes)    （使模型更小，即“量化”）\n- [Sentencepiece](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fsentencepiece)       （字节对编码方案，即“分词”）\n- [OpenAI](https:\u002F\u002Fopenai.com)          （生成合成的微调和奖励模型数据）\n- [TVM](https:\u002F\u002Ftvm.apache.org\u002F)             （张量虚拟机，将ONNX模型转换为高效的跨平台格式）\n- [Peft](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fpeft)            （参数高效微调，使用低秩自适应（LoRA）进行微调）\n- [Onnx](https:\u002F\u002Fonnx.ai\u002F)            （将训练好的模型转换为通用格式）\n\n\n\n## 安装\n\n使用[pip](https:\u002F\u002Fpip.pypa.io\u002Fen\u002Fstable\u002Finstallation\u002F)一行命令安装所有依赖项：\n\n```bash\npip install numpy torch datasets huggingface_hub transformers trl bitsandbytes sentencepiece openai tvm peft onnx\n```\n\n## iOS快速入门v2\n\n1. 克隆本仓库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FllSourcell\u002FDoctor-Dignity\n```\n2. 下载权重\n```bash\nmkdir -p dist\u002Fprebuilt\ngit clone https:\u002F\u002Fgithub.com\u002Fmlc-ai\u002Fbinary-mlc-llm-libs.git dist\u002Fprebuilt\u002Flib\ncd dist\u002Fprebuilt\ngit lfs install\nwget --no-check-certificate 'https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1MLy8BDhuTTcXqagzLFMA07JDzqjQYUTB\u002Fview?pli=1'\ncd ..\u002F..\n```\n3. 构建张量虚拟机运行时\n```bash\ngit submodule update --init --recursive\npip install apache-tvm\ncd .\u002Fios\npip install --pre --force-reinstall mlc-ai-nightly mlc-chat-nightly -f https:\u002F\u002Fmlc.ai\u002Fwheels \n.\u002Fprepare_libs.sh\n```\n** 在[这里](https:\u002F\u002Fmlc.ai\u002Fpackage\u002F)找到适合您系统的MLC LLM版本\n4. 将权重添加到Xcode\n```bash\ncd .\u002Fios\nopen .\u002Fprepare_params.sh # 确保builtin_list只包含“RedPajama-INCITE-Chat-3B-v1-q4f16_1”\n.\u002Fprepare_params.sh\n```\n5. 打开Xcode项目并运行！\n\n\n## 自行训练\n\n为了训练模型，您可以在本地或通过Google Colab Pro等云服务远程运行training.ipynb笔记本。训练过程需要GPU，如果您没有GPU，最方便的选择是使用Google Colab [Pro](https:\u002F\u002Fcolab.research.google.com\u002Fsignup)，每月收费10美元。包括在自定义医疗数据上对初始Llama模型进行监督微调，以及通过宪法式人工智能反馈进一步优化在内的“医生尊严”总训练时间，在Google Colab付费实例上耗时24小时。如果您想了解更多关于此过程的工作原理，详情请参阅training.ipynb笔记本。\n\n#### 云端训练\n\n[![在Colab中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FllSourcell\u002FDoctorGPT\u002Fblob\u002Fmain\u002Fllama2.ipynb)\n点击此处：https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FllSourcell\u002FDoctor-Dignity\u002Fblob\u002Fmain\u002Fllama2.ipynb\n\n#### 本地训练\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FllSourcell\u002FDoctor-Dignity.git\njupyter training.ipynb\n```\n在此获取Jupyter [这里](https:\u002F\u002Fjupyter.org\u002Finstall)\n\n## 使用方法  https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002Fmedllama2_7b\n\n有两个Hugging Face仓库，一个针对移动端进行了量化，另一个则未量化。\n\n#### 老款iOS应用\n   \n- 第一步：[下载](https:\u002F\u002Fgithub.com\u002Fmlc-ai\u002Fmlc-llm\u002Ftree\u002Fmain\u002Fios) iOS机器学习编译聊天库\n- 第二步：按照[安装步骤](https:\u002F\u002Fmlc.ai\u002Fmlc-llm\u002Fdocs\u002Fdeploy\u002Fios.html)操作\n- 第三步：当应用在您的iOS设备或模拟器上运行时，点击“添加模型变体”\n- 第四步：输入最新“医生尊严”模型的URL以下载它：[https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini] (https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini)\n- 第五步：点击“添加模型”，即可开始本地聊天，推理在设备上运行。无需互联网连接！\n\n#### 安卓应用（待完成）\n\n- 第一步：[下载](https:\u002F\u002Fgithub.com\u002Fmlc-ai\u002Fmlc-llm\u002Ftree\u002Fmain\u002Fandroid) 安卓机器学习编译聊天库\n- 第二步：按照[安装步骤]([https:\u002F\u002Fmlc.ai\u002Fmlc-llm\u002Fdocs\u002Fdeploy\u002Fios.html](https:\u002F\u002Fmlc.ai\u002Fmlc-llm\u002Fdocs\u002Fdeploy\u002Fandroid.html))操作\n- 第三步：点击“添加模型变体”\n- 第四步：输入最新“医生尊严”模型的URL以下载它：[https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini] (https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini)\n- 第五步：点击“添加模型”，即可开始本地聊天！无需互联网。\n\n#### Web（待完成）\n\n作为一项利用真实人类反馈的在线学习实验，我希望将模型部署为一个带有React前端的Flask API。在这种情况下，任何人都可以通过此URL与模型聊天。每次查询后，人类可以对模型的回答进行评分。这些评分随后将被用于通过强化学习进一步提升模型性能。要运行该应用，请下载[flask](https:\u002F\u002Fflask.palletsprojects.com\u002Fen\u002F2.3.x\u002F)，然后您可以执行：\n\n```bash\nflask run\n```\n\n之后访问localhost:3000即可与其互动！您也可以将其部署到[vercel](https:\u002F\u002Fvercel.com\u002Ftemplates\u002Fai)。\n\n## 致谢\n\nMeta、MedAlpaca、Apache、MLC Chat及OctoML","# Doctor-Dignity 快速上手指南\n\n> **⚠️ 重要免责声明**：Doctor-Dignity 目前仍处于开发阶段（Work in Progress）。**切勿将其提供的任何建议视为严肃的医疗指导**。盲目采信可能导致严重伤害甚至死亡。本项目旨在探索私有化医疗助手的可能性，而非替代专业医生。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**：Linux, macOS, Windows (WSL2 推荐), iOS (需 Xcode), Android\n- **硬件要求**：\n  - **训练\u002F微调**：需要 GPU（推荐 NVIDIA GPU，显存建议 16GB+）。若无本地 GPU，可使用 Google Colab Pro。\n  - **推理\u002F运行**：模型经过量化后仅约 3GB，可在大多数现代笔记本电脑、手机（iOS\u002FAndroid）上离线运行。\n- **软件依赖**：Python 3.8+, Git, Git LFS, Jupyter Notebook (用于训练)\n\n### 前置依赖安装\n建议使用国内镜像源加速 Python 包下载。以下命令将一次性安装所有核心依赖：\n\n```bash\npip install numpy torch datasets huggingface_hub transformers trl bitsandbytes sentencepiece openai tvm peft onnx -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n*注：若进行 iOS 开发，需额外安装 Xcode 和 MLC AI 相关 nightly 版本包。*\n\n## 2. 安装步骤\n\n### 方案 A：获取代码与模型权重（通用）\n\n1. **克隆项目仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FllSourcell\u002FDoctor-Dignity\n   cd Doctor-Dignity\n   ```\n\n2. **下载预编译库与模型权重**\n   *注意：原链接使用 Google Drive，国内访问可能受限。建议手动从 HuggingFace 下载模型文件并放入指定目录，或配置代理。*\n   \n   ```bash\n   mkdir -p dist\u002Fprebuilt\n   git clone https:\u002F\u002Fgithub.com\u002Fmlc-ai\u002Fbinary-mlc-llm-libs.git dist\u002Fprebuilt\u002Flib\n   \n   cd dist\u002Fprebuilt\n   git lfs install\n   \n   # 以下为原始下载命令，若失败请手动下载权重文件至当前目录\n   wget --no-check-certificate 'https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1MLy8BDhuTTcXqagzLFMA07JDzqjQYUTB\u002Fview?pli=1'\n   \n   cd ..\u002F..\n   ```\n\n### 方案 B：iOS 端快速构建 (v2)\n\n若需在 iOS 设备运行，需完成以下额外步骤：\n\n1. **初始化子模块并安装 MLC 运行时**\n   ```bash\n   git submodule update --init --recursive\n   pip install apache-tvm\n   \n   cd .\u002Fios\n   # 安装 MLC AI 夜间构建版\n   pip install --pre --force-reinstall mlc-ai-nightly mlc-chat-nightly -f https:\u002F\u002Fmlc.ai\u002Fwheels \n   .\u002Fprepare_libs.sh\n   ```\n\n2. **准备模型参数并导入 Xcode**\n   ```bash\n   cd .\u002Fios\n   # 编辑 prepare_params.sh 确保 builtin_list 包含 \"RedPajama-INCITE-Chat-3B-v1-q4f16_1\"\n   open .\u002Fprepare_params.sh \n   .\u002Fprepare_params.sh\n   ```\n   \n3. **运行**：打开生成的 Xcode 项目文件，连接真机或模拟器运行。\n\n## 3. 基本使用\n\nDoctor-Dignity 支持多种使用方式，包括本地 Python 调用、移动端 App 以及 Web 服务。\n\n### 方式一：通过 HuggingFace 直接加载（Python）\n\n最簡單的测试方式是直接使用 `transformers` 库加载已上传至 HuggingFace 的模型（需网络环境能访问 HF）。\n\n```python\nfrom transformers import AutoTokenizer, AutoModelForCausalLM\n\n# 加载分词器和模型\nmodel_name = \"llSourcell\u002Fmedllama2_7b\"\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(model_name, device_map=\"auto\")\n\n# 构造输入\nprompt = \"User: 我最近头痛且伴有发热，可能是什么原因？\\nAssistant:\"\ninputs = tokenizer(prompt, return_tensors=\"pt\").to(model.device)\n\n# 生成回复\noutputs = model.generate(**inputs, max_new_tokens=256)\nprint(tokenizer.decode(outputs[0], skip_special_tokens=True))\n```\n\n### 方式二：移动端离线聊天（iOS\u002FAndroid）\n\n1. 下载并编译对应的 MLC Chat 应用（参考官方 `mlc-llm` 仓库的 iOS\u002FAndroid 部署文档）。\n2. 在 App 中选择 **\"Add Model Variant\"**。\n3. 输入模型下载地址（推荐使用国内可访问的镜像或提前下载到本地）：\n   - 模型地址：`https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini`\n4. 点击 **\"Add Model\"**，下载完成后即可在无网络环境下进行对话。\n\n### 方式三：自定义训练 (DIY Training)\n\n若需使用自定义医疗数据微调模型，可运行提供的 Jupyter Notebook。\n\n- **云端训练**（推荐无 GPU 用户）：\n  点击链接在 Google Colab 中打开：[Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FllSourcell\u002FDoctor-Dignity\u002Fblob\u002Fmain\u002Fllama2.ipynb)\n  \n- **本地训练**：\n  ```bash\n  jupyter training.ipynb\n  ```\n  *注：完整训练流程（监督微调 + 强化学习）在 Colab Pro 上耗时约 24 小时。*","一位居住在偏远地区的全科医生，正试图在缺乏专科支持且网络不稳定的环境下，为一名患有复杂罕见症状的患者制定初步诊疗方案。\n\n### 没有 Doctor-Dignity 时\n- **隐私泄露风险高**：为了获取第二诊疗意见，医生不得不将患者敏感病历上传至云端公共 AI 服务，严重违反医疗数据保密原则。\n- **过度依赖网络连接**：在山区诊所网络信号微弱时，无法访问在线医学数据库或付费 API，导致诊断思路中断。\n- **高昂的查询成本**：频繁调用商业医疗大模型接口产生巨额费用，对于基层医疗机构而言难以长期负担。\n- **响应延迟影响效率**：等待云端服务器返回分析结果耗时较长，延误了与患者沟通的最佳时机。\n- **通用模型专业性不足**：普通大模型缺乏针对美国医师执照考试（USMLE）级别的深度医学微调，容易给出模糊甚至错误的建议。\n\n### 使用 Doctor-Dignity 后\n- **数据完全本地化**：Doctor-Dignity 仅 3GB 的大小可直接部署在医生的笔记本电脑或平板上，所有病历数据不出本地，彻底保障患者隐私。\n- **离线随时可用**：即便在无网环境下，医生也能立即调用经过医学对话数据集微调和强化学习的模型进行推理，不受网络波动影响。\n- **零边际使用成本**：作为开源免费工具，Doctor-Dignity 无需支付任何 API 调用费，让基层医生能无负担地无限次使用。\n- **即时交互反馈**：本地推理消除了网络延迟，医生输入症状后秒级获得基于 USMLE 标准的专业分析，大幅提升问诊效率。\n- **专业度显著提升**：得益于 Constitutional AI 和医学专项训练，Doctor-Dignity 能提供逻辑严密、符合临床规范的鉴别诊断建议。\n\nDoctor-Dignity 通过将顶尖医学大模型私有化和本地化，真正实现了让每一位医生都能拥有专属、安全且免费的\"AI 专家助手”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FllSourcell_Doctor-Dignity_1a9b7566.png","llSourcell","Siraj Raval","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FllSourcell_e6efb465.jpg","Senior AI\u002FML Engineer | Specializing in production-ready, trustworthy AI systems (GenAI, RAG, CV, MLOps).",null,"www.youtube.com\u002Fc\u002Fsirajraval","https:\u002F\u002Fgithub.com\u002FllSourcell",[23,27,31,35,39,43,47,50,54,57],{"name":24,"color":25,"percentage":26},"Python","#3572A5",81.2,{"name":28,"color":29,"percentage":30},"C++","#f34b7d",5.8,{"name":32,"color":33,"percentage":34},"Jupyter Notebook","#DA5B0B",4.9,{"name":36,"color":37,"percentage":38},"Swift","#F05138",4.3,{"name":40,"color":41,"percentage":42},"Kotlin","#A97BFF",2.5,{"name":44,"color":45,"percentage":46},"Objective-C++","#6866fb",0.4,{"name":48,"color":49,"percentage":46},"CMake","#DA3434",{"name":51,"color":52,"percentage":53},"Shell","#89e051",0.2,{"name":55,"color":56,"percentage":53},"Objective-C","#438eff",{"name":58,"color":59,"percentage":60},"Java","#b07219",0.1,3836,415,"2026-04-02T21:43:02","Apache-2.0",4,"Linux, macOS, Windows, iOS, Android","训练必需（推荐 NVIDIA GPU，Google Colab Pro 实例耗时 24 小时）；推理可本地运行（模型仅 3GB，支持量化后在移动设备运行）","未说明（模型文件大小约 3GB，建议内存大于模型尺寸）",{"notes":70,"python":71,"dependencies":72},"该项目基于 Llama2 7B 微调，模型经量化后仅 3GB，支持离线运行以保护隐私。训练过程需 GPU（如无本地显卡可使用 Google Colab Pro），总训练时间约 24 小时。支持 iOS、Android 及 Web 端部署，其中移动端需使用 MLC LLM 和 TVM 进行编译优化。免责声明：该模型尚在开发中，切勿将其建议用于真实医疗诊断。","未说明",[73,74,75,76,77,78,79,80,81,82],"numpy","torch","datasets","huggingface_hub","transformers","trl","bitsandbytes","sentencepiece","peft","onnx",[84],"语言模型",2,"ready","2026-03-27T02:49:30.150509","2026-04-08T14:26:42.761445",[90,95,100,104,109,114],{"id":91,"question_zh":92,"answer_zh":93,"source_url":94},24586,"运行 prepare_model_lib.py 脚本时出现 'No module named tvm' 错误如何处理？","该错误通常是因为未安装 TVM 模块。尝试使用以下命令安装夜间构建版本（注意：如果遇到连接超时，可能需要检查网络或配置代理）：\npip install --pre --force-reinstall mlc-ai-nightly mlc-chat-nightly -f https:\u002F\u002Fmlc.ai\u002Fwheels","https:\u002F\u002Fgithub.com\u002FllSourcell\u002FDoctor-Dignity\u002Fissues\u002F29",{"id":96,"question_zh":97,"answer_zh":98,"source_url":99},24587,"如何正确微调 LLaMa2 模型？","微调演示代码已集成在 llama2.ipynb 文件中，无需单独寻找 training.ipynb。请直接查看并运行该 notebook 中的微调步骤部分。","https:\u002F\u002Fgithub.com\u002FllSourcell\u002FDoctor-Dignity\u002Fissues\u002F16",{"id":101,"question_zh":102,"answer_zh":103,"source_url":99},24583,"在哪里可以找到训练代码或 training.ipynb 文件？","训练步骤实际上已经包含在 llama2.ipynb 文件中，README 文档中提到的文件名可能有误。如果在该仓库中找不到，可以尝试在 fork 的仓库中查找，例如：https:\u002F\u002Fgithub.com\u002Fcamenduru\u002FDoctorGPT\u002Fblob\u002Fmain\u002Fllama2.ipynb",{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},24584,"加载预训练模型时提示缺少 config.json 文件怎么办？","该问题可以通过下载包含 config.json 文件的最新版本模型来解决。\n对于 Linux 和 Windows 用户，请从以下地址下载：https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002Fmedllama2_7b\n对于 Android 和 iOS 用户，请从以下地址下载：https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini","https:\u002F\u002Fgithub.com\u002FllSourcell\u002FDoctor-Dignity\u002Fissues\u002F5",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},24585,"Colab 链接无法打开且缺少 llama2.ipynb 和 training.ipynb 文件如何解决？","您可以直接在 fork 的仓库中找到相关文件和代码，参考链接：https:\u002F\u002Fgithub.com\u002Fcamenduru\u002FDoctorGPT\u002Fblob\u002Fmain\u002Fllama2.ipynb","https:\u002F\u002Fgithub.com\u002FllSourcell\u002FDoctor-Dignity\u002Fissues\u002F27",{"id":115,"question_zh":116,"answer_zh":117,"source_url":108},24588,"在不同操作系统上应该下载哪个版本的模型？","请根据您的设备类型选择对应的模型下载地址：\n1. Linux 和 Windows 用户：https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002Fmedllama2_7b\n2. Android 和 iOS 移动端用户：https:\u002F\u002Fhuggingface.co\u002FllSourcell\u002FdoctorGPT_mini",[],[120,130,140,148,161,169],{"id":121,"name":122,"github_repo":123,"description_zh":124,"stars":125,"difficulty_score":85,"last_commit_at":126,"category_tags":127,"status":86},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,"2026-04-07T23:26:32",[128,129,84],"开发框架","Agent",{"id":131,"name":132,"github_repo":133,"description_zh":134,"stars":135,"difficulty_score":136,"last_commit_at":137,"category_tags":138,"status":86},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[84,139,129,128],"图像",{"id":141,"name":142,"github_repo":143,"description_zh":144,"stars":145,"difficulty_score":85,"last_commit_at":146,"category_tags":147,"status":86},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[128,84],{"id":149,"name":150,"github_repo":151,"description_zh":152,"stars":153,"difficulty_score":85,"last_commit_at":154,"category_tags":155,"status":86},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[139,156,157,158,129,159,84,128,160],"数据工具","视频","插件","其他","音频",{"id":162,"name":163,"github_repo":164,"description_zh":165,"stars":166,"difficulty_score":136,"last_commit_at":167,"category_tags":168,"status":86},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[129,139,128,84,159],{"id":170,"name":171,"github_repo":172,"description_zh":173,"stars":174,"difficulty_score":136,"last_commit_at":175,"category_tags":176,"status":86},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75097,"2026-04-07T22:51:14",[84,139,128,159]]