[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-deepmind--ithaca":3,"tool-google-deepmind--ithaca":65},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[13,37],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":10,"env_os":100,"env_gpu":100,"env_ram":100,"env_deps":101,"category_tags":104,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":105,"updated_at":106,"faqs":107,"releases":137},2140,"google-deepmind\u002Fithaca","ithaca","Restoring and attributing ancient texts using deep neural networks","Ithaca 是由 DeepMind 与牛津大学等机构联合研发的深度学习模型，专为修复、归属和断代古希腊铭文而设计。在历史研究中，大量古代石碑因岁月侵蚀而文字残缺、出土地点不明或年代存疑，传统人工考据不仅耗时且准确率有限。Ithaca 利用深度神经网络，能够自动补全受损文本，并预测铭文的原始地理位置及书写年代。\n\n实验数据显示，当历史学家借助 Ithaca 辅助研究时，其文本修复准确率从单独工作的 25% 显著提升至 72%，同时在地理归属和年代判定上也展现出极高的可靠性。这一成果证明了\"AI+ 专家”协作模式的巨大潜力。Ithaca 的架构特别注重可解释性与人机协作，不仅能提供预测结果，还能展示模型关注的文本特征，帮助学者理解决策依据。\n\n该工具非常适合古代历史学家、碑铭学研究者以及数字人文领域的开发者使用。通过提供的在线交互笔记本，用户可以直接调用训练好的模型进行推理、可视化注意力权重，从而更深入地探索古代文明。Ithaca 不仅是技术突破，更是连接人工智能与人文学科的桥梁，为重新审视人类历史关键时期提供了全新视角。","\u003Cp align=\"center\" style=\"margin-bottom:1em;\" >\n\u003Cimg alt=\"Ithaca logo\" src=\"images\u002Fithaca-logo.svg\" width=\"33%\" \u002F>\n\u003C\u002Fp>\n\n# Restoring and attributing ancient texts using deep neural networks\n\nYannis Assael\u003Csup>1,\\*\u003C\u002Fsup>, Thea Sommerschield\u003Csup>2,3,\\*\u003C\u002Fsup>, Brendan Shillingford\u003Csup>1\u003C\u002Fsup>, Mahyar Bordbar\u003Csup>1\u003C\u002Fsup>, John Pavlopoulos\u003Csup>4\u003C\u002Fsup>,\nMarita Chatzipanagiotou\u003Csup>4\u003C\u002Fsup>, Ion Androutsopoulos\u003Csup>4\u003C\u002Fsup>, Jonathan Prag\u003Csup>3\u003C\u002Fsup>, Nando de Freitas\u003Csup>1\u003C\u002Fsup>\n\n*\u003Csup>1\u003C\u002Fsup> DeepMind, United Kingdom\u003Cbr\u002F>\n\u003Csup>2\u003C\u002Fsup> Ca’ Foscari University of Venice, Italy\u003Cbr\u002F>\n\u003Csup>3\u003C\u002Fsup> University of Oxford, United Kingdom\u003Cbr\u002F>\n\u003Csup>4\u003C\u002Fsup> Athens University of Economics and Business, Greece\u003Cbr\u002F>\n\u003Csup>\\*\u003C\u002Fsup> Authors contributed equally to this work*\n\n---\n\n\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeepmind\u002Fithaca\u002Fblob\u002Fmaster\u002Fcolabs\u002Fithaca_inference.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n\nAncient History relies on disciplines such as Epigraphy, the study of inscribed\ntexts known as \"inscriptions\", for evidence of the thought, language, society\nand history of past civilizations. However, over the centuries many inscriptions\nhave been damaged to the point of illegibility, transported far from their\noriginal location, and their date of writing is steeped in uncertainty. We\npresent Ithaca, the first Deep Neural Network for the textual restoration,\ngeographical and chronological attribution of ancient Greek inscriptions. Ithaca\nis designed to assist and expand the historian’s workflow: its architecture\nfocuses on collaboration, decision support, and interpretability.\n\n\u003Cp align=\"center\" style=\"margin-top:2em; margin-bottom:2em;\" >\n\u003Cimg alt=\"Restoration of damaged inscription\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_ithaca_readme_d03bd16fe848.png\" width=\"75%\" \u002F>\u003Cbr \u002F>\n\u003Cem>Restoration of damaged inscription: this inscription (\u003Cit>IG\u003C\u002Fit> I\u003Csup>3\u003C\u002Fsup> 4B) records a decree concerning the Acropolis of Athens and dates 485\u002F4 BCE. (CC BY-SA 3.0, WikiMedia)\u003C\u002Fem>\n\u003C\u002Fp>\n\nWhile Ithaca alone achieves 62% accuracy when restoring damaged texts, as soon\nas historians use Ithaca their performance leaps from 25% to 72%, confirming\nthis synergistic research aid’s impact. Ithaca can attribute inscriptions to\ntheir original location with 71% accuracy and can date them with a distance of\nless than 30 years from ground-truth ranges, redating key texts of Classical\nAthens and contributing to topical debates in Ancient History. This work shows\nhow models like Ithaca can unlock the cooperative potential between AI and\nhistorians, transformationally impacting the way we study and write about one of\nthe most significant periods in human history.\n\n\u003Cp align=\"center\" style=\"margin-top:2em; margin-bottom:2em;\" >\n\u003Cimg alt=\"Ithaca architecture\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_ithaca_readme_a5f84b1e07ca.png\" width=\"75%\" \u002F>\u003Cbr \u002F>\n\u003Cem>Ithaca's architecture processing the phrase \"δήμο το αθηναίων\" (\"the people of Athens\"). The first 3 characters of the phrase were hidden and their restoration is proposed. In tandem, Ithaca also predicts the inscription’s region and date.\u003C\u002Fem>\n\u003C\u002Fp>\n\n## References\n\n-   [Nature article](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-022-04448-z)\n-   [DeepMind blog](https:\u002F\u002Fwww.deepmind.com\u002Fblog\u002Fpredicting-the-past-with-ithaca)\n\nWhen using any of this project's source code, please cite:\n\n```\n@article{asssome2022restoring,\n  title = {Restoring and attributing ancient texts using deep neural networks},\n  author = {Assael*, Yannis and Sommerschield*, Thea and Shillingford, Brendan and Bordbar, Mahyar and Pavlopoulos, John and Chatzipanagiotou, Marita and Androutsopoulos, Ion and Prag, Jonathan and de Freitas, Nando},\n  doi = {10.1038\u002Fs41586-022-04448-z},\n  journal = {Nature},\n  year = {2022}\n}\n```\n\n## Ithaca inference online\n\nTo aid further research in the field we created an online interactive python notebook, where researchers can query one of our trained models to get text restorations, visualise attention weights, and more.\n\n-   [Ithaca Interactive Interface](https:\u002F\u002Fithaca.deepmind.com\u002F)\n-   [Google Colab for using Ithaca for your research](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeepmind\u002Fithaca\u002Fblob\u002Fmaster\u002Fcolabs\u002Fithaca_inference.ipynb)\n\n## Ithaca inference offline\n\nAdvanced users who want to perform inference using the trained model may want\nto do so manually using the `ithaca` library directly.\n\nFirst, to install the `ithaca` library and its dependencies, run:\n```sh\npip install .\n```\n\nThen, download the model via\n```sh\ncurl --output checkpoint.pkl https:\u002F\u002Fstorage.googleapis.com\u002Fithaca-resources\u002Fmodels\u002Fcheckpoint_v1.pkl\n```\n\nAn example of using the library can be run via\n```sh\npython inference_example.py --input_file=example_input.txt\n```\nwhich will run restoration and attribution on\nthe text in `example_input.txt`.\n\nTo run it with different input text, run\n```sh\npython inference_example.py --input=\"...\"\n# or using text in a UTF-8 encoded text file:\npython inference_example.py --input_file=some_other_input_file.txt\n```\n\nThe restoration or attribution JSON can be saved to a file:\n```sh\npython inference_example.py \\\n  --input_file=example_input.txt \\\n  --attribute_json=attribute.json \\\n  --restore_json=restore.json\n```\n\nFor full help, run:\n```sh\npython inference_example.py --help\n```\n\n### Dataset generation\n\nIthaca was trained on The Packard Humanities Institute’s\n\"[Searchable Greek Inscriptions](https:\u002F\u002Finscriptions.packhum.org\u002F)\" public\ndataset. The processing workflow for generating the machine-actionable text and\nmetadata, as well as further details on the train, validation and test splits\nare available at [I.PHI dataset](https:\u002F\u002Fgithub.com\u002Fsommerschield\u002Fiphi).\n\n### Training Ithaca\nSee `train\u002FREADME.md` for instructions.\n\n\n## License\nApache License, Version 2.0\n","\u003Cp align=\"center\" style=\"margin-bottom:1em;\" >\n\u003Cimg alt=\"伊萨卡 logo\" src=\"images\u002Fithaca-logo.svg\" width=\"33%\" \u002F>\n\u003C\u002Fp>\n\n# 利用深度神经网络恢复与归属古代文本\n\n亚尼斯·阿萨埃尔\u003Csup>1,\\*\u003C\u002Fsup>、西娅·索默斯希尔德\u003Csup>2,3,\\*\u003C\u002Fsup>、布兰登·希灵福德\u003Csup>1\u003C\u002Fsup>、马亚尔·博尔德巴尔\u003Csup>1\u003C\u002Fsup>、约翰·帕夫洛普洛斯\u003Csup>4\u003C\u002Fsup>、\n玛丽塔·哈齐帕纳吉奥图\u003Csup>4\u003C\u002Fsup>、伊昂·安德鲁托普洛斯\u003Csup>4\u003C\u002Fsup>、乔纳森·普拉格\u003Csup>3\u003C\u002Fsup>、南多·德弗雷塔斯\u003Csup>1\u003C\u002Fsup>\n\n*\u003Csup>1\u003C\u002Fsup> DeepMind，英国\u003Cbr\u002F>\n\u003Csup>2\u003C\u002Fsup> 威尼斯卡福斯卡里大学，意大利\u003Cbr\u002F>\n\u003Csup>3\u003C\u002Fsup> 牛津大学，英国\u003Cbr\u002F>\n\u003Csup>4\u003C\u002Fsup> 雅典经济商业大学，希腊\u003Cbr\u002F>\n\u003Csup>\\*\u003C\u002Fsup> 作者对本工作贡献相等*\n\n---\n\n\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeepmind\u002Fithaca\u002Fblob\u002Fmaster\u002Fcolabs\u002Fithaca_inference.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"在 Colab 中打开\"\u002F>\u003C\u002Fa>\n\n古代史依赖于诸如铭文学之类的学科——即研究被称为“铭文”的刻写文本——来获取过去文明的思想、语言、社会和历史的证据。然而，几个世纪以来，许多铭文已损坏到难以辨认的程度，被运送到远离其原始位置的地方，其书写年代也充满不确定性。我们提出了伊萨卡，这是首个用于古希腊铭文文本修复、地理与年代归属的深度神经网络。伊萨卡旨在协助并扩展历史学家的工作流程：其架构专注于协作、决策支持和可解释性。\n\n\u003Cp align=\"center\" style=\"margin-top:2em; margin-bottom:2em;\" >\n\u003Cimg alt=\"受损铭文的修复\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_ithaca_readme_d03bd16fe848.png\" width=\"75%\" \u002F>\u003Cbr \u002F>\n\u003Cem>受损铭文的修复：此铭文（IG I\u003Csup>3\u003C\u002Fsup> 4B）记录了一项关于雅典卫城的法令，年代为公元前485\u002F4年。（CC BY-SA 3.0，维基媒体）\u003C\u002Fem>\n\u003C\u002Fp>\n\n尽管伊萨卡单独进行受损文本修复时准确率可达62%，但一旦历史学家使用伊萨卡，其表现便从25%跃升至72%，这证实了这一协同研究辅助工具的显著效果。伊萨卡能够以71%的准确率将铭文归于其原始地点，并能在真实范围误差小于30年的精度内确定其年代，从而重新校准古典雅典的关键文献，并推动古代史领域的热点讨论。这项工作表明，像伊萨卡这样的模型如何释放人工智能与历史学家之间的合作潜力，进而变革我们研究和书写人类历史上最重要时期之一的方式。\n\n\u003Cp align=\"center\" style=\"margin-top:2em; margin-bottom:2em;\" >\n\u003Cimg alt=\"伊萨卡架构\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_ithaca_readme_a5f84b1e07ca.png\" width=\"75%\" \u002F>\u003Cbr \u002F>\n\u003Cem>伊萨卡架构处理短语“δήμο το αθηναίων”（“雅典人民”）。该短语的前三个字符被隐藏，系统提出对其修复方案。同时，伊萨卡还预测铭文所属地区及年代。\u003C\u002Fem>\n\u003C\u002Fp>\n\n## 参考文献\n\n-   [《自然》杂志文章](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-022-04448-z)\n-   [DeepMind 博客](https:\u002F\u002Fwww.deepmind.com\u002Fblog\u002Fpredicting-the-past-with-ithaca)\n\n在使用本项目任何源代码时，请引用以下文献：\n\n```\n@article{asssome2022restoring,\n  title = {Restoring and attributing ancient texts using deep neural networks},\n  author = {Assael*, Yannis and Sommerschield*, Thea and Shillingford, Brendan and Bordbar, Mahyar and Pavlopoulos, John and Chatzipanagiotou, Marita and Androutsopoulos, Ion and Prag, Jonathan and de Freitas, Nando},\n  doi = {10.1038\u002Fs41586-022-04448-z},\n  journal = {Nature},\n  year = {2022}\n}\n```\n\n## 伊萨卡在线推理\n\n为进一步促进该领域的研究，我们创建了一个在线交互式 Python 笔记本，研究人员可在其中查询我们训练好的模型，获取文本修复结果、可视化注意力权重等。\n\n-   [伊萨卡交互界面](https:\u002F\u002Fithaca.deepmind.com\u002F)\n-   [Google Colab：用于您的研究的伊萨卡](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeepmind\u002Fithaca\u002Fblob\u002Fmaster\u002Fcolabs\u002Fithaca_inference.ipynb)\n\n## 伊萨卡离线推理\n\n希望直接使用训练好的模型进行推理的高级用户，可以手动通过 `ithaca` 库完成操作。\n\n首先，安装 `ithaca` 库及其依赖项：\n```sh\npip install .\n```\n\n然后下载模型：\n```sh\ncurl --output checkpoint.pkl https:\u002F\u002Fstorage.googleapis.com\u002Fithaca-resources\u002Fmodels\u002Fcheckpoint_v1.pkl\n```\n\n使用该库的一个示例可通过以下命令运行：\n```sh\npython inference_example.py --input_file=example_input.txt\n```\n这将对 `example_input.txt` 中的文本进行修复与归属分析。\n\n若要使用不同输入文本，可执行：\n```sh\npython inference_example.py --input=\"...\"\n# 或者使用 UTF-8 编码的文本文件：\npython inference_example.py --input_file=some_other_input_file.txt\n```\n\n修复或归属结果的 JSON 文件可保存至指定路径：\n```sh\npython inference_example.py \\\n  --input_file=example_input.txt \\\n  --attribute_json=attribute.json \\\n  --restore_json=restore.json\n```\n\n如需完整帮助，请运行：\n```sh\npython inference_example.py --help\n```\n\n### 数据集生成\n\n伊萨卡基于帕克人文研究院的公开数据集“可搜索的希腊铭文”（[Searchable Greek Inscriptions](https:\u002F\u002Finscriptions.packhum.org\u002F)）进行训练。用于生成机器可读文本与元数据的处理流程，以及训练、验证和测试集划分的详细信息，均可在 [I.PHI 数据集](https:\u002F\u002Fgithub.com\u002Fsommerschield\u002Fiphi) 中找到。\n\n### 伊萨卡的训练\n请参阅 `train\u002FREADME.md` 获取说明。\n\n## 许可证\nApache 许可证，版本 2.0","# Ithaca 快速上手指南\n\nIthaca 是由 DeepMind 开发的深度神经网络模型，旨在协助历史学家修复受损的古希腊铭文，并预测其原始地理位置和书写年代。本指南将帮助开发者快速在本地部署并使用该工具进行推理。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux 或 macOS（Windows 用户建议使用 WSL2 或 Docker）。\n*   **Python 版本**：Python 3.8 或更高版本。\n*   **依赖管理**：已安装 `pip` 和 `git`。\n*   **硬件建议**：虽然 CPU 可运行推理，但若有 NVIDIA GPU 并配置好 CUDA 环境，处理速度将显著提升。\n\n> **注意**：本项目主要依赖 Python 生态库，安装脚本会自动处理大部分依赖。国内用户若遇到 `pip` 下载缓慢问题，可临时使用清华或阿里镜像源（例如：`pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple .`）。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n首先，从 GitHub 克隆 Ithaca 仓库到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fithaca.git\ncd ithaca\n```\n\n### 2. 安装 Python 依赖库\n在项目根目录下运行以下命令安装 `ithaca` 库及其依赖：\n\n```bash\npip install .\n```\n\n### 3. 下载预训练模型\n安装完成后，需要手动下载训练好的模型权重文件（`checkpoint_v1.pkl`）：\n\n```bash\ncurl --output checkpoint.pkl https:\u002F\u002Fstorage.googleapis.com\u002Fithaca-resources\u002Fmodels\u002Fcheckpoint_v1.pkl\n```\n\n> **提示**：如果 `curl` 下载速度慢或失败，您可以直接在浏览器中访问上述链接下载文件，并将其重命名为 `checkpoint.pkl` 放置在当前目录下。\n\n## 基本使用\n\n安装并下载模型后，您可以使用提供的示例脚本对古希腊文本进行修复、地域归属预测和年代判定。\n\n### 最简单的使用示例\n\n假设您有一个包含受损铭文的文本文件 `example_input.txt`，运行以下命令即可生成修复结果和属性预测：\n\n```bash\npython inference_example.py --input_file=example_input.txt\n```\n\n### 直接输入文本进行测试\n\n如果您不想创建文件，也可以直接在命令行中输入文本字符串进行测试：\n\n```bash\npython inference_example.py --input=\"...\"\n```\n\n### 保存结果为 JSON 文件\n\n若需要将修复结果（restore）和属性预测结果（attribute）保存为 JSON 格式以便后续分析，可使用以下命令：\n\n```bash\npython inference_example.py \\\n  --input_file=example_input.txt \\\n  --attribute_json=attribute.json \\\n  --restore_json=restore.json\n```\n\n### 查看完整帮助信息\n\n如需查看所有可用的参数选项，请运行：\n\n```bash\npython inference_example.py --help\n```\n\n---\n*注：Ithaca 专为古希腊铭文设计，输入文本应为古希腊语字符。更多详细训练说明请参阅项目中的 `train\u002FREADME.md`。*","一位研究古希腊雅典城邦的历史学家正在尝试解读一块严重风化、部分文字缺失的石碑铭文，以确定其颁布年代和归属地。\n\n### 没有 ithaca 时\n- 面对铭文中大段模糊不清的字符，学者只能凭借个人经验猜测填补，主观性强且极易出错，文本复原准确率仅为 25%。\n- 确定铭文出土地点和书写年代往往需要数周的文献比对和跨学科咨询，效率低下且结论常存在数十年甚至上百年的偏差。\n- 对于关键历史事件的断代争议，缺乏量化证据支持，导致学术争论长期僵持，难以推进对古典时期历史的深入理解。\n- 研究过程高度依赖直觉，缺乏可解释的辅助工具来验证假设，使得年轻学者或非顶尖专家难以参与高难度铭文的解读工作。\n\n### 使用 ithaca 后\n- ithaca 利用深度神经网络自动补全缺失文本，将学者的复原准确率从 25% 大幅提升至 72%，并提供多种可能的修复方案供参考。\n- 该工具能即时预测铭文的地理来源（准确率 71%）并将年代误差缩小至 30 年以内，帮助学者快速锁定如公元前 485\u002F4 年等关键时间点。\n- 通过重新判定关键文本的年代，ithaca 为解决关于雅典民主制度发展的长期学术争议提供了强有力的数据支撑，推动了新观点的形成。\n- 其可视化的注意力权重机制让决策过程透明可查，学者不仅能获得结果，还能理解 AI 的判断依据，实现了人机协作的深度互补。\n\nithaca 不仅是一个文本修复工具，更是连接现代智能与古代文明的桥梁，彻底改变了历史学家研究和重写人类重要历史篇章的方式。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_ithaca_d03bd16f.png","google-deepmind","Google DeepMind","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-deepmind_06b1dd17.png","",null,"https:\u002F\u002Fwww.deepmind.com\u002F","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind",[84,88,92],{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",82.1,{"name":89,"color":90,"percentage":91},"Python","#3572A5",17.8,{"name":93,"color":94,"percentage":95},"Shell","#89e051",0.1,576,64,"2026-03-31T12:18:09","Apache-2.0","未说明",{"notes":102,"python":100,"dependencies":103},"README 中未明确列出具体的操作系统、GPU、内存、Python 版本及依赖库要求。安装方式仅为运行 'pip install .'，具体依赖需查看项目内部的 setup 文件。模型文件需手动通过 curl 下载 (checkpoint_v1.pkl)。该项目主要提供离线推理脚本 (inference_example.py) 和在线 Colab 笔记本供使用。",[100],[15,37],"2026-03-27T02:49:30.150509","2026-04-06T06:44:45.150107",[108,113,118,123,128,133],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},9855,"在 Google Colab 中导入 flax 时遇到 'AttributeError: module 'jaxlib.pocketfft' has no attribute 'pocketfft'' 错误怎么办？","这是由于 Colab 依赖项升级导致的版本不兼容。可以通过安装特定版本的 JAX 和 JAXLib 来解决。为了启用 CUDA 加速并恢复正常推理速度（约 3 分半钟），请运行以下命令：\n!pip install --upgrade jax==0.2.21 jaxlib==0.1.69+cuda111 -f https:\u002F\u002Fstorage.googleapis.com\u002Fjax-releases\u002Fjax_cuda_releases.html\n如果不使用 CUDA 版本，推理时间可能会延长至 10 分钟以上。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fithaca\u002Fissues\u002F3",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},9856,"运行时出现 'jaxlib is version 0.3.25, but this version of jax requires version >= 0.4.2' 的版本不匹配错误如何解决？","这是因为 Colab 环境更新导致 JAX 和 JAXLib 版本冲突。可以通过强制安装匹配的版本来解决。若需启用 GPU 加速，请依次运行以下命令：\n!pip install -qqq jax==0.4.2\n!pip install -qqq jaxlib==0.4.2\n!pip install -qqq \"jax[cuda11_cudnn82]\" -f https:\u002F\u002Fstorage.googleapis.com\u002Fjax-releases\u002Fjax_cuda_releases.html\n仅安装前两个命令会在 CPU 上运行，导致推理速度变慢。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fithaca\u002Fissues\u002F4",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},9857,"地图显示为空白灰色，提示 Folium Tiles Water Color 已弃用，如何修复？","Folium 团队已移除了 Stamen Water Color 地图图层。快速的修复方法是将地图初始化代码中的 tiles 参数更改为 \"openstreetmap\"。例如：\nfolium.Map(tiles=\"openstreetmap\")\n这将恢复地图的正常显示。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fithaca\u002Fissues\u002F6",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},9858,"安装 ithaca 时报错 'ERROR: No matching distribution found for jaxlib>=0.1.37' 怎么办？","这通常是由于当前 Python 环境中存在依赖冲突或缓存问题。建议尝试在一个全新的虚拟环境（virtual environment）中重新安装 ithaca，以确保依赖项能够正确解析和安装。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fithaca\u002Fissues\u002F2",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},9859,"是否有计划将 Ithaca 模型或演示部署到 Hugging Face？","项目维护者欢迎社区贡献者将代码库转换并部署到 Hugging Face。目前官方尚未直接提供托管的 Space 或模型，但鼓励有兴趣的开发者参考 Hugging Face 的指南自行添加 Space、模型或数据集，维护者表示愿意为此提供帮助。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fithaca\u002Fissues\u002F1",{"id":134,"question_zh":135,"answer_zh":136,"source_url":112},9860,"在 Colab 中运行推理速度很慢（超过 10 分钟），可能是什么原因？","推理速度慢通常是因为系统未利用 CUDA（GPU）加速，而是在 CPU 上运行。这常发生在安装了不包含 CUDA 支持的 jaxlib 版本时。请确保使用带有 CUDA 后缀的安装命令，例如：\n!pip install --upgrade jax==0.2.21 jaxlib==0.1.69+cuda111 -f https:\u002F\u002Fstorage.googleapis.com\u002Fjax-releases\u002Fjax_cuda_releases.html\n正确配置后，推理时间可缩短至 3-4 分钟左右。",[]]