[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-oramasearch--onnx-go":3,"tool-oramasearch--onnx-go":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":76,"owner_website":82,"owner_url":83,"languages":84,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":23,"env_os":103,"env_gpu":104,"env_ram":104,"env_deps":105,"category_tags":112,"github_topics":113,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":122,"updated_at":123,"faqs":124,"releases":154},2249,"oramasearch\u002Fonnx-go","onnx-go","onnx-go gives the ability to import a pre-trained neural network within Go without being linked to a framework or library.","onnx-go 是一个专为 Go 语言开发者设计的开源库，旨在让 Go 程序能够轻松导入并运行预训练的神经网络模型。它基于开放神经网络交换格式（ONNX），充当了连接主流深度学习框架与 Go 生态系统的桥梁。\n\n在机器学习领域，大多数模型训练依赖于 Python 生态，而将模型部署到高性能的 Go 后端往往面临框架绑定或环境复杂的难题。onnx-go 通过解析标准的 ONNX 二进制模型文件，将其转换为 Go 原生的计算图，从而解决了这一痛点。开发者无需掌握深厚的数据科学背景，也无需在项目中引入庞大的外部依赖，即可在 Go 代码中直接调用成熟的 AI 模型能力。\n\n该工具特别适合后端工程师、系统架构师以及希望在现有 Go 服务中集成智能功能的开发者。其核心技术亮点在于“框架无关性”，支持对接不同的计算后端（如 Gorgonia），让用户能像使用普通 Go 库一样灵活处理神经网络推理。值得注意的是，该项目近期由 Orama 团队接手维护，正处于积极复兴阶段，虽然部分算子支持仍在完善中，但为 Go 社区注入了新的活力。对于想要尝试\"Software 2.0\"且偏好类型安全、高并发特性的 G","onnx-go 是一个专为 Go 语言开发者设计的开源库，旨在让 Go 程序能够轻松导入并运行预训练的神经网络模型。它基于开放神经网络交换格式（ONNX），充当了连接主流深度学习框架与 Go 生态系统的桥梁。\n\n在机器学习领域，大多数模型训练依赖于 Python 生态，而将模型部署到高性能的 Go 后端往往面临框架绑定或环境复杂的难题。onnx-go 通过解析标准的 ONNX 二进制模型文件，将其转换为 Go 原生的计算图，从而解决了这一痛点。开发者无需掌握深厚的数据科学背景，也无需在项目中引入庞大的外部依赖，即可在 Go 代码中直接调用成熟的 AI 模型能力。\n\n该工具特别适合后端工程师、系统架构师以及希望在现有 Go 服务中集成智能功能的开发者。其核心技术亮点在于“框架无关性”，支持对接不同的计算后端（如 Gorgonia），让用户能像使用普通 Go 库一样灵活处理神经网络推理。值得注意的是，该项目近期由 Orama 团队接手维护，正处于积极复兴阶段，虽然部分算子支持仍在完善中，但为 Go 社区注入了新的活力。对于想要尝试\"Software 2.0\"且偏好类型安全、高并发特性的 Go 程序员来说，onnx-go 是一个值得关注的实用选择。","![ONNX Logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_readme_263e378e6730.png) ![Go Logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_readme_26baf6d5a92e.png)\n\n[![Mentioned in Awesome Go](https:\u002F\u002Fawesome.re\u002Fmentioned-badge.svg)](https:\u002F\u002Fgithub.com\u002Favelino\u002Fawesome-go#machine-learning) [![GoDoc](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_readme_ff803135673c.png)](https:\u002F\u002Fgodoc.org\u002Fgithub.com\u002Fowulveryck\u002Fonnx-go) [![Go Report Card](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_readme_2b4a70945b89.png)](https:\u002F\u002Fgoreportcard.com\u002Freport\u002Fgithub.com\u002Fowulveryck\u002Fonnx-go)\n[![Build Status](https:\u002F\u002Ftravis-ci.com\u002Fowulveryck\u002Fonnx-go.svg?branch=master)](https:\u002F\u002Ftravis-ci.com\u002Fowulveryck\u002Fonnx-go)\n[![CodeCov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fowulveryck\u002Fonnx-go\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fowulveryck\u002Fonnx-go)\n\nThis is a Go Interface to [Open Neural Network Exchange (ONNX)](https:\u002F\u002Fonnx.ai\u002F).\n\n# READ BEFORE USING\n\nThis project was originally created by [owulveryck](https:\u002F\u002Fgithub.com\u002Fowulveryck), and archived on May 31, 2024.\n\nAt [Orama](https:\u002F\u002Forama.com), we decided to revive the project and we'll be dedicating some substantial efforts to make it shine again!\n\nWith that being said, thank you [owulveryck](https:\u002F\u002Fgithub.com\u002Fowulveryck) for your great work and trust in us to bring this project on.\n\nWe're starting now to actively maintain it, so if you find any issues, please be patient.\n\nThanks for your understanding!\n\n## Overview \nonnx-go contains primitives to decode a onnx binary model into a computation backend, and use it like any other library in your go code.\nfor more information about onnx, please visit [onnx.ai](https:\u002F\u002Fonnx.ai).\n\nThe implementation of the [the spec of ONNX](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fonnx\u002Fblob\u002Fmaster\u002Fdocs\u002FIR.md) is partial on the import, and non-existent for the export.\n\n### Vision statement\n\n> For the Go developer who needs to add a machine learning capability to his\u002Fher code, \n> onnx-go is a package that facilitates the use of neural network models (software 2.0) \n> and unlike any other computation library, this package does not require special skills in data-science.\n\n**Warning** The API is experimental and may change.\n\n### Disclaimer\n[embedmd]:# (RELNOTES.md)\n```md\nThis is a new version of the API.\nThe tweaked version of Gorgonia have been removed. It is now compatible with the master branch of Gorgonia.\nSome operators are not yet available though.\n\nA utility has been added in order to run models from the zoo.\ncheck the `examples` subdirectory.\n```\n\n\n## Install\n\nInstall it via go get\n```\ngo get github.com\u002Fowulveryck\u002Fonnx-go\n```\n\nonnx-go is compatible with [go modules](https:\u002F\u002Fgithub.com\u002Fgolang\u002Fgo\u002Fwiki\u002FModules).\n\n\n## Example\n\nThose examples assumes that you have a pre-trained `model.onnx` file available.\nYou can download pre-trained modles from the [onnx model zoo](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fmodels).\n\n### Very simple example\n\nThis example does nothing but decoding the graph into a simple backend.\nThen you can do whatever you want with the generated graph.\n\n[embedmd]:# (example_test.go \u002F\\\u002F\\\u002F Create\u002F \u002Fmodel.UnmarshalBinary.*\u002F)\n```go\n\u002F\u002F Create a backend receiver\n\tbackend := simple.NewSimpleGraph()\n\t\u002F\u002F Create a model and set the execution backend\n\tmodel := onnx.NewModel(backend)\n\n\t\u002F\u002F read the onnx model\n\tb, _ := ioutil.ReadFile(\"model.onnx\")\n\t\u002F\u002F Decode it into the model\n\terr := model.UnmarshalBinary(b)\n```\n\n### Simple example to run a pre-trained model\n\nThis example uses [Gorgonia](https:\u002F\u002Fgithub.com\u002Fgorgonia\u002Fgorgonia) as a backend. \n\n```go\nimport \"github.com\u002Fowulveryck\u002Fonnx-go\u002Fbackend\u002Fx\u002Fgorgonnx\"\n```\n\nAt the present time, Gorgonia does not implement all the operators of ONNX. Therefore, most of the model from the model zoo will not work.\nThings will go better little by little by adding more operators to the backend.\n\nYou can find a list of tested examples and a coverage [here](https:\u002F\u002Fgithub.com\u002Fowulveryck\u002Fonnx-go\u002Fblob\u002Fmaster\u002Fbackend\u002Fx\u002Fgorgonnx\u002FONNX_COVERAGE.md).\n\n[embedmd]:# (example_gorgonnx_test.go \u002Ffunc Ex\u002F \u002F^}\u002F)\n```go\nfunc Example_gorgonia() {\n\t\u002F\u002F Create a backend receiver\n\tbackend := gorgonnx.NewGraph()\n\t\u002F\u002F Create a model and set the execution backend\n\tmodel := onnx.NewModel(backend)\n\n\t\u002F\u002F read the onnx model\n\tb, _ := ioutil.ReadFile(\"model.onnx\")\n\t\u002F\u002F Decode it into the model\n\terr := model.UnmarshalBinary(b)\n\tif err != nil {\n\t\tlog.Fatal(err)\n\t}\n\t\u002F\u002F Set the first input, the number depends of the model\n\tmodel.SetInput(0, input)\n\terr = backend.Run()\n\tif err != nil {\n\t\tlog.Fatal(err)\n\t}\n\t\u002F\u002F Check error\n\toutput, _ := model.GetOutputTensors()\n\t\u002F\u002F write the first output to stdout\n\tfmt.Println(output[0])\n}\n```\n\n### Model zoo\n\nIn the `examples` subdirectory, you will find a utility to run a model from the zoo, as well as a sample utility to analyze a picture with [Tiny YOLO v2](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolov2\u002F)\n\n## Internal\n\n### ONNX protobuf definition \n\nThe protobuf definition of onnx has is compiled into Go with the classic `protoc` tool. The definition can be found in the `internal` directory.\nThe definition is not exposed to avoid external dependencies to this repo. Indeed, the pb code can change to use a more efficient compiler such\nas `gogo protobuf` and this change should be transparent to the user of this package.\n\n### Execution backend\n\nIn order to execute the neural network, you need a backend able to execute a computation graph (_for more information on computation graphs, please read this [blog post](http:\u002F\u002Fgopherdata.io\u002Fpost\u002Fdeeplearning_in_go_part_1\u002F)_\n\nThis picture represents the mechanism:\n\n![Schema](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_readme_77cdc3ec8b1e.png)\n\nonnx-go do not provide any executable backend, but for a reference, a simple backend that builds an information graph is provided as an example (see the `simple` subpackage).\nGorgonia is the main target backend of ONNX-Go.\n\n#### Backend implementation\n\na backend is basically a Weighted directed graph that can apply on Operation on its nodes. It should fulfill this interface:\n\n[embedmd]:# (backend.go \u002Ftype Backend\u002F \u002F}\u002F)\n```go\ntype Backend interface {\n\tOperationCarrier\n\tgraph.DirectedWeightedBuilder\n}\n```\n\n[embedmd]:# (backend.go \u002Ftype OperationCarrier\u002F \u002F}\u002F)\n```go\ntype OperationCarrier interface {\n\t\u002F\u002F ApplyOperation on the graph nodes\n\t\u002F\u002F graph.Node is an array because it allows to handle multiple output\n\t\u002F\u002F for example a split operation returns n nodes...\n\tApplyOperation(Operation, ...graph.Node) error\n}\n```\n\nAn Operation is represented by its `name` and a map of attributes. For example the Convolution operator as described in the [spec of onnx](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fonnx\u002Fblob\u002Fmaster\u002Fdocs\u002FOperators.md#Conv) will be represented like this:\n\n[embedmd]:# (conv_example_test.go \u002FconvOperator\u002F \u002F}$\u002F)\n```go\nconvOperator := Operation{\n\t\tName: \"Conv\",\n\t\tAttributes: map[string]interface{}{\n\t\t\t\"auto_pad\":  \"NOTSET\",\n\t\t\t\"dilations\": []int64{1, 1},\n\t\t\t\"group\":     1,\n\t\t\t\"pads\":      []int64{1, 1},\n\t\t\t\"strides\":   []int64{1, 1},\n\t\t},\n\t}\n```\n\nBesides, operators, a node can carry a value. Values are described as [`tensor.Tensor`](https:\u002F\u002Fgodoc.org\u002Fgorgonia.org\u002Ftensor#Tensor)\nTo carry data, a *`Node`* of the graph should fulfill this interface:\n\n[embedmd]:# (node.go \u002Ftype DataCarrier\u002F \u002F}\u002F)\n```go\ntype DataCarrier interface {\n\tSetTensor(t tensor.Tensor) error\n\tGetTensor() tensor.Tensor\n}\n```\n\n#### Backend testing\n\nonnx-go provides a some utilities to test a backend. Visit the [`testbackend` package](backend\u002Ftestbackend) for more info.\n\n## Contributing\n\nContributions are welcome. A contribution guide will be eventually written. Meanwhile, you can raise an issue or send a PR.\nYou can also contact me via Twitter or on the gophers' slack (I am @owulveryck on both)\n\nThis project is intended to be a safe, welcoming space for collaboration, and\ncontributors are expected to adhere to the [Contributor Covenant](http:\u002F\u002Fcontributor-covenant.org) code of conduct.\n\n## Author\n\n[Olivier Wulveryck](https:\u002F\u002Fabout.me\u002Fowulveryck\u002Fgetstarted)\n\n## License\n\nMIT.\n","![ONNX Logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_readme_263e378e6730.png) ![Go Logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_readme_26baf6d5a92e.png)\n\n[![被 Awesome Go 提及](https:\u002F\u002Fawesome.re\u002Fmentioned-badge.svg)](https:\u002F\u002Fgithub.com\u002Favelino\u002Fawesome-go#machine-learning) [![GoDoc](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_readme_ff803135673c.png)](https:\u002F\u002Fgodoc.org\u002Fgithub.com\u002Fowulveryck\u002Fonnx-go) [![Go Report Card](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_readme_2b4a70945b89.png)](https:\u002F\u002Fgoreportcard.com\u002Freport\u002Fgithub.com\u002Fowulveryck\u002Fonnx-go)\n[![构建状态](https:\u002F\u002Ftravis-ci.com\u002Fowulveryck\u002Fonnx-go.svg?branch=master)](https:\u002F\u002Ftravis-ci.com\u002Fowulveryck\u002Fonnx-go)\n[![CodeCov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fowulveryck\u002Fonnx-go\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fowulveryck\u002Fonnx-go)\n\n这是一个用于 [Open Neural Network Exchange (ONNX)](https:\u002F\u002Fonnx.ai\u002F) 的 Go 接口。\n\n# 使用前必读\n\n该项目最初由 [owulveryck](https:\u002F\u002Fgithub.com\u002Fowulveryck) 创建，并于 2024 年 5 月 31 日归档。\n\n在 [Orama](https:\u002F\u002Forama.com)，我们决定重启该项目，并将投入大量精力使其焕发生机！\n\n在此，我们要感谢 [owulveryck](https:\u002F\u002Fgithub.com\u002Fowulveryck) 的杰出工作以及对我们的信任与支持。\n\n我们现在开始积极维护该项目，因此如果您发现任何问题，请耐心等待。\n\n感谢您的理解！\n\n## 概述\nonnx-go 包含将 ONNX 二进制模型解码为计算后端的原语，并可在您的 Go 代码中像使用其他库一样使用它。\n有关 ONNX 的更多信息，请访问 [onnx.ai](https:\u002F\u002Fonnx.ai)。\n\n目前，对 [ONNX 规范](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fonnx\u002Fblob\u002Fmaster\u002Fdocs\u002FIR.md) 的实现仅限于导入部分，而导出功能尚不存在。\n\n### 愿景声明\n\n> 对于需要在其代码中添加机器学习功能的 Go 开发人员而言，\n> onnx-go 是一个能够简化神经网络模型（软件 2.0）使用的包。\n> 与其他计算库不同，该包无需具备数据科学方面的特殊技能。\n\n**警告**：API 尚处于实验阶段，可能会发生变化。\n\n### 免责声明\n[embedmd]:# (RELNOTES.md)\n```md\n这是 API 的新版本。\n已移除经过调整的 Gorgonia 版本。现在它与 Gorgonia 的主分支兼容。\n不过，仍有一些算子尚未实现。\n\n新增了一个实用工具，用于运行模型动物园中的模型。\n请查看 `examples` 子目录。\n```\n\n\n## 安装\n\n通过 go get 安装：\n```\ngo get github.com\u002Fowulveryck\u002Fonnx-go\n```\n\nonnx-go 与 [Go 模块](https:\u002F\u002Fgithub.com\u002Fgolang\u002Fgo\u002Fwiki\u002FModules) 兼容。\n\n## 示例\n\n这些示例假设您已经有一个预先训练好的 `model.onnx` 文件。\n您可以从 [ONNX 模型动物园](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fmodels) 下载预训练模型。\n\n### 非常简单的示例\n\n此示例仅将图解码为一个简单的后端。\n之后，您可以对生成的图执行任何操作。\n\n[embedmd]:# (example_test.go \u002F\\\u002F\\\u002F Create\u002F \u002Fmodel.UnmarshalBinary.*\u002F)\n```go\n\u002F\u002F 创建一个后端接收器\nbackend := simple.NewSimpleGraph()\n\u002F\u002F 创建一个模型并设置执行后端\nmodel := onnx.NewModel(backend)\n\n\u002F\u002F 读取 ONNX 模型\nb, _ := ioutil.ReadFile(\"model.onnx\")\n\u002F\u002F 将其解码到模型中\nerr := model.UnmarshalBinary(b)\n```\n\n### 运行预训练模型的简单示例\n\n此示例使用 [Gorgonia](https:\u002F\u002Fgithub.com\u002Fgorgonia\u002Fgorgonia) 作为后端。\n\n```go\nimport \"github.com\u002Fowulveryck\u002Fonnx-go\u002Fbackend\u002Fx\u002Fgorgonnx\"\n```\n\n目前，Gorgonia 尚未实现 ONNX 的所有算子。因此，大多数来自模型动物园的模型将无法正常运行。\n随着更多算子被添加到后端，情况会逐渐改善。\n\n您可以在 [这里](https:\u002F\u002Fgithub.com\u002Fowulveryck\u002Fonnx-go\u002Fblob\u002Fmaster\u002Fbackend\u002Fx\u002Fgorgonnx\u002FONNX_COVERAGE.md) 找到已测试示例的列表及覆盖率信息。\n\n[embedmd]:# (example_gorgonnx_test.go \u002Ffunc Ex\u002F \u002F^}\u002F)\n```go\nfunc Example_gorgonia() {\n\t\u002F\u002F 创建一个后端接收器\n\tbackend := gorgonnx.NewGraph()\n\t\u002F\u002F 创建一个模型并设置执行后端\n\tmodel := onnx.NewModel(backend)\n\n\t\u002F\u002F 读取 ONNX 模型\n\tb, _ := ioutil.ReadFile(\"model.onnx\")\n\t\u002F\u002F 将其解码到模型中\n\terr := model.UnmarshalBinary(b)\n\tif err != nil {\n\t\tlog.Fatal(err)\n\t}\n\t\u002F\u002F 设置第一个输入，数量取决于模型\n\tmodel.SetInput(0, input)\n\terr = backend.Run()\n\tif err != nil {\n\t\tlog.Fatal(err)\n\t}\n\t\u002F\u002F 检查输出\n\toutput, _ := model.GetOutputTensors()\n\t\u002F\u002F 将第一个输出写入标准输出\n\tfmt.Println(output[0])\n}\n```\n\n### 模型动物园\n\n在 `examples` 子目录中，您将找到一个用于运行模型动物园中模型的实用工具，以及一个使用 [Tiny YOLO v2](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolov2\u002F) 分析图片的示例工具。\n\n## 内部\n\n### ONNX Protobuf 定义\n\nONNX 的 Protobuf 定义已使用经典的 `protoc` 工具编译为 Go 代码。该定义位于 `internal` 目录中。\n为了避免对外部依赖的引入，该定义并未公开。实际上，未来可能会改用更高效的编译器（如 `gogo protobuf`），而这种变化应对本包的用户透明。\n\n### 执行后端\n\n为了执行神经网络，你需要一个能够执行计算图的后端（_有关计算图的更多信息，请阅读这篇[博客文章](http:\u002F\u002Fgopherdata.io\u002Fpost\u002Fdeeplearning_in_go_part_1\u002F)_\n\n这张图展示了其工作机制：\n\n![Schema](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_readme_77cdc3ec8b1e.png)\n\nonnx-go 并不提供任何可执行的后端，但作为参考，它提供了一个简单的构建信息图的示例后端（参见 `simple` 子包）。Gorgonia 是 ONNX-Go 的主要目标后端。\n\n#### 后端实现\n\n后端本质上是一个加权有向图，可以在其节点上应用操作。它应该实现以下接口：\n\n[embedmd]:# (backend.go \u002Ftype Backend\u002F \u002F}\u002F)\n```go\ntype Backend interface {\n\tOperationCarrier\n\tgraph.DirectedWeightedBuilder\n}\n```\n\n[embedmd]:# (backend.go \u002Ftype OperationCarrier\u002F \u002F}\u002F)\n```go\ntype OperationCarrier interface {\n\t\u002F\u002F 在图的节点上应用操作\n\t\u002F\u002F graph.Node 是一个数组，因为它可以处理多个输出\n\t\u002F\u002F 例如，拆分操作会返回 n 个节点...\n\tApplyOperation(Operation, ...graph.Node) error\n}\n```\n\n一个操作由其 `name` 和属性映射表示。例如，按照 [ONNX 规范](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fonnx\u002Fblob\u002Fmaster\u002Fdocs\u002FOperators.md#Conv) 中的描述，卷积算子将被表示为如下形式：\n\n[embedmd]:# (conv_example_test.go \u002FconvOperator\u002F \u002F}$\u002F)\n```go\nconvOperator := Operation{\n\t\tName: \"Conv\",\n\t\tAttributes: map[string]interface{}{\n\t\t\t\"auto_pad\":  \"NOTSET\",\n\t\t\t\"dilations\": []int64{1, 1},\n\t\t\t\"group\":     1,\n\t\t\t\"pads\":      []int64{1, 1},\n\t\t\t\"strides\":   []int64{1, 1},\n\t\t},\n\t}\n```\n\n此外，除了操作之外，节点还可以携带一个值。这些值被描述为 [`tensor.Tensor`](https:\u002F\u002Fgodoc.org\u002Fgorgonia.org\u002Ftensor#Tensor) 类型。为了承载数据，图中的 *`Node`* 应该实现以下接口：\n\n[embedmd]:# (node.go \u002Ftype DataCarrier\u002F \u002F}\u002F)\n```go\ntype DataCarrier interface {\n\tSetTensor(t tensor.Tensor) error\n\tGetTensor() tensor.Tensor\n}\n```\n\n#### 后端测试\n\nonnx-go 提供了一些用于测试后端的工具。更多信息请访问 [`testbackend` 包](backend\u002Ftestbackend)。\n\n## 贡献\n\n欢迎贡献。我们最终会编写一份贡献指南。在此期间，你可以提交问题或拉取请求。你也可以通过 Twitter 或 Gophers Slack 联系我（我在两个平台上都是 @owulveryck）。\n\n本项目旨在成为一个安全、友好的协作空间，期望贡献者遵守 [Contributor Covenant](http:\u002F\u002Fcontributor-covenant.org) 行为准则。\n\n## 作者\n\n[Olivier Wulveryck](https:\u002F\u002Fabout.me\u002Fowulveryck\u002Fgetstarted)\n\n## 许可证\n\nMIT。","# onnx-go 快速上手指南\n\nonnx-go 是一个 Go 语言接口，用于将 ONNX（Open Neural Network Exchange）二进制模型解码为计算图，以便在 Go 代码中直接运行神经网络模型。它旨在让 Go 开发者无需深厚的数据科学背景即可集成机器学习能力。\n\n> **注意**：该项目目前由 Orama 团队维护并处于活跃开发中，API 仍具有实验性，可能会发生变化。\n\n## 环境准备\n\n- **操作系统**：Linux、macOS 或 Windows\n- **Go 版本**：建议使用 Go 1.13 或更高版本（支持 Go Modules）\n- **前置依赖**：\n  - 已安装的 Go 开发环境\n  - 可选后端库：如使用完整功能，需安装 [Gorgonia](https:\u002F\u002Fgithub.com\u002Fgorgonia\u002Fgorgonia)（目前主要支持的后端）\n  - 预训练的 `.onnx` 模型文件（可从 [ONNX Model Zoo](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fmodels) 下载）\n\n## 安装步骤\n\n使用 `go get` 命令安装 onnx-go：\n\n```bash\ngo get github.com\u002Fowulveryck\u002Fonnx-go\n```\n\nonnx-go 完全兼容 Go Modules。如果你在项目中使用 Go Modules，无需额外配置即可自动管理依赖。\n\n> **国内加速建议**：如果下载速度较慢，可配置国内 GOPROXY 镜像：\n> ```bash\n> export GOPROXY=https:\u002F\u002Fgoproxy.cn,direct\n> go get github.com\u002Fowulveryck\u002Fonnx-go\n> ```\n\n## 基本使用\n\n以下示例展示如何加载一个预训练的 ONNX 模型并使用简单后端进行解码。\n\n### 最简单的示例：解码模型图\n\n此示例仅将 ONNX 模型解码为简单的计算图结构，不执行实际推理。\n\n```go\n\u002F\u002F Create a backend receiver\nbackend := simple.NewSimpleGraph()\n\u002F\u002F Create a model and set the execution backend\nmodel := onnx.NewModel(backend)\n\n\u002F\u002F read the onnx model\nb, _ := ioutil.ReadFile(\"model.onnx\")\n\u002F\u002F Decode it into the model\nerr := model.UnmarshalBinary(b)\n```\n\n### 运行预训练模型（使用 Gorgonia 后端）\n\n若要实际运行模型，需使用支持运算的后端（如 Gorgonia）。\n\n```go\nimport \"github.com\u002Fowulveryck\u002Fonnx-go\u002Fbackend\u002Fx\u002Fgorgonnx\"\n```\n\n完整示例：\n\n```go\nfunc Example_gorgonia() {\n\t\u002F\u002F Create a backend receiver\n\tbackend := gorgonnx.NewGraph()\n\t\u002F\u002F Create a model and set the execution backend\n\tmodel := onnx.NewModel(backend)\n\n\t\u002F\u002F read the onnx model\n\tb, _ := ioutil.ReadFile(\"model.onnx\")\n\t\u002F\u002F Decode it into the model\n\terr := model.UnmarshalBinary(b)\n\tif err != nil {\n\t\tlog.Fatal(err)\n\t}\n\t\u002F\u002F Set the first input, the number depends of the model\n\tmodel.SetInput(0, input)\n\terr = backend.Run()\n\tif err != nil {\n\t\tlog.Fatal(err)\n\t}\n\t\u002F\u002F Check error\n\toutput, _ := model.GetOutputTensors()\n\t\u002F\u002F write the first output to stdout\n\tfmt.Println(output[0])\n}\n```\n\n> **提示**：当前 Gorgonia 尚未实现所有 ONNX 算子，部分模型可能无法运行。可查看 [算子覆盖列表](https:\u002F\u002Fgithub.com\u002Fowulveryck\u002Fonnx-go\u002Fblob\u002Fmaster\u002Fbackend\u002Fx\u002Fgorgonnx\u002FONNX_COVERAGE.md) 了解支持情况。\n\n更多示例（如使用 Tiny YOLO v2 进行图像分析）请参考项目 `examples` 目录。","某电商团队需要在高并发的 Go 语言推荐服务中集成由数据科学家使用 PyTorch 训练的商品点击率预测模型。\n\n### 没有 onnx-go 时\n- **架构割裂严重**：Go 主服务必须通过 HTTP 或 gRPC 调用独立的 Python 推理服务，增加了网络延迟和系统复杂度。\n- **部署运维困难**：生产环境需同时维护 Go 运行时和庞大的 Python 深度学习框架依赖（如 PyTorch\u002FTensorFlow），导致容器镜像体积巨大。\n- **开发门槛高**：后端工程师被迫学习数据科学专用库才能理解模型输入输出格式，难以直接调试和优化推理逻辑。\n- **资源消耗过大**：为维持 Python 解释器和重型框架运行，服务器内存占用居高不下，难以在边缘节点或低配实例上部署。\n\n### 使用 onnx-go 后\n- **原生无缝集成**：直接将导出为 ONNX 格式的预训练模型加载到 Go 代码中，实现进程内推理，消除了网络开销。\n- **轻量级部署**：移除对 Python 环境及重型框架的依赖，仅需标准 Go 二进制文件即可运行，显著减小镜像体积并简化 CI\u002FCD 流程。\n- **专注业务逻辑**：后端开发者无需掌握数据科学技能，像调用普通函数一样使用模型，快速完成特征工程与结果处理。\n- **高效资源利用**：得益于 Go 的高性能并发模型和精简的计算后端，单实例吞吐量大幅提升，轻松应对流量高峰。\n\nonnx-go 打破了算法训练与工程落地之间的语言壁垒，让 Go 开发者能以最低成本将前沿 AI 能力转化为生产力和业务价值。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Foramasearch_onnx-go_263e378e.png","oramasearch","Orama","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Foramasearch_0f95d859.png","The open-source product answer engine. Full-text, vector, and hybrid search on any JavaScript runtime! ",null,"info@orama.com","https:\u002F\u002Forama.com","https:\u002F\u002Fgithub.com\u002Foramasearch",[85,89,93,96],{"name":86,"color":87,"percentage":88},"Go","#00ADD8",100,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0,{"name":94,"color":95,"percentage":92},"Makefile","#427819",{"name":97,"color":98,"percentage":92},"PureBasic","#5a6986",882,83,"2026-04-03T10:52:52","MIT","","未说明",{"notes":106,"python":107,"dependencies":108},"这是一个 Go 语言库，非 Python 工具。目前 API 处于实验阶段，可能发生变化。ONNX 导入规范仅部分实现，导出功能尚未实现。默认不提供可执行后端，需配合如 Gorgonia 等计算图后端使用，但 Gorgonia 尚未支持所有 ONNX 算子，导致许多预训练模型无法运行。项目曾于 2024 年 5 月归档，现由 Orama 团队重新维护。","不适用",[109,110,111],"Go (支持 go modules)","gorgonia (可选，作为执行后端)","protobuf (用于内部编译 ONNX 定义)",[13],[114,115,116,117,118,119,120,121],"go","onnx","neural-network","open-source","gorgonia","software2","machine-learning","protobuf","2026-03-27T02:49:30.150509","2026-04-06T05:37:50.209665",[125,130,135,140,145,150],{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},10343,"如何在树莓派（Raspberry Pi）上修复构建错误并提升性能？","构建问题通常与 `gorgonia` 依赖有关。解决方案是在 `onnx-go` 中更新依赖：`replace github.com\u002Fchewxy\u002Fmath32 => github.com\u002Fchewxy\u002Fmath32 v1.0.1`。如果遇到 ARMv8 相关的构建错误（如 missing function body），请尝试使用 `-tags=noasm` 标签进行编译。关于性能优化，可以尝试使用 Gorgonia 的实验性 VM，需修改 `backend\u002Fx\u002Fgorgonnx\u002Fgraph.go` 文件，将 `gorgonia.NewTapeMachine` 替换为 `xvm.NewGoMachine`（需导入 `gorgonia.org\u002Fgorgonia\u002Fx\u002Fvm`）。","https:\u002F\u002Fgithub.com\u002Foramasearch\u002Fonnx-go\u002Fissues\u002F114",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},10344,"为什么在多次预测时 onnx-go 的性能比 Keras 慢很多？","性能差异可能由以下原因导致：1. Python\u002FKeras 中使用了 `batch_size` 参数进行批量预测，而 Go 代码中如果是循环单次预测会较慢；2. 输入数据生成方式不同，例如 `tensor.Random` 生成的数值若不在 0-1 之间，会导致 `Tanh` 等激活函数计算变慢。建议检查输入数据范围，并尝试优化广播机制（broadcasting）。此外，确保对比测试时双方都启用了最佳的批量处理设置。","https:\u002F\u002Fgithub.com\u002Foramasearch\u002Fonnx-go\u002Fissues\u002F67",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},10345,"安装时遇到 'undefined: proto.ProtoPackageIsVersion3' 或 'missing ReversedEdge method' 等编译错误怎么办？","这些错误通常是由于依赖版本不兼容导致的。特别是 `gorgonia` 和 `protobuf` 库的版本冲突。请确保您的 `go.mod` 文件中使用的 `gorgonia.org\u002Fgorgonia` 和 `github.com\u002Fgogo\u002Fprotobuf` (或相关 proto 包) 是与当前 `onnx-go` 版本兼容的最新版本。尝试运行 `go get -u .\u002F...` 更新所有依赖，或者检查项目是否锁定了过旧的依赖版本。如果问题依旧，可能需要手动调整 `go.mod` 中的 replace 指令以匹配正确的版本。","https:\u002F\u002Fgithub.com\u002Foramasearch\u002Fonnx-go\u002Fissues\u002F75",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},10346,"MNIST 模型在 Gorgonia 后端评估结果不正确怎么办？","这通常是由于底层 `Gorgonia` 库中的算子实现 bug 导致的（特别是 Conv 和 MaxPool）。维护者曾通过更新 `graph-builder` 分支并引入特定的 `Gorgonia` 代码修复了此问题。如果您遇到类似问题，请确保您使用的是最新版本的 `onnx-go` 及其依赖。对于开发者，可以通过生成 numpy 兼容的张量文件，在 Python 中逐个验证算子的输入输出，以定位具体是哪个算子出现了偏差。","https:\u002F\u002Fgithub.com\u002Foramasearch\u002Fonnx-go\u002Fissues\u002F4",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},10347,"onnx-go 支持分布式运行吗？","目前 `onnx-go` 核心库本身不直接提供内置的分布式运行功能。如果有分布式需求，社区建议可以探索结合其他 Go 语言分布式计算框架（如 `github.com\u002Fchrislusf\u002Fgleam`）来实现。这需要用户自行编写额外的逻辑来协调多节点间的任务分配和结果聚合。","https:\u002F\u002Fgithub.com\u002Foramasearch\u002Fonnx-go\u002Fissues\u002F147",{"id":151,"question_zh":152,"answer_zh":153,"source_url":129},10348,"在 ARM 架构（如树莓派）上编译出现 'missing function body' 错误如何解决？","这是因为某些数学库（如 `math32`）在 ARM 架构上使用了汇编优化，而您的环境可能不支持或配置有误。解决方法是在编译或测试时添加 `-tags=noasm` 标签，强制使用纯 Go 实现。例如：`go test -tags=noasm` 或 `go build -tags=noasm`。同时确保 `github.com\u002Fchewxy\u002Fmath32` 依赖已更新到兼容版本（如 v1.0.1）。",[155,159,163,168,173,178,182,187],{"id":156,"version":157,"summary_zh":80,"released_at":158},107561,"v0.5.0","2019-12-30T13:35:54",{"id":160,"version":161,"summary_zh":80,"released_at":162},107562,"v0.4.1","2019-12-30T12:17:58",{"id":164,"version":165,"summary_zh":166,"released_at":167},107563,"v0.4.0","This is a pre-release according to issue #168 ","2019-12-02T21:10:54",{"id":169,"version":170,"summary_zh":171,"released_at":172},107564,"tiny-YOLO-v2","This is a pre-release to distribute a small `cli` able to run the [Tiny YOLO v2 model](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002Fyolov2\u002F) for object detection.\r\n\r\nTo run this utility, you need to download the [ONNX model from the zoo](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fmodels\u002Ftree\u002Fmaster\u002Ftiny_yolov2).\r\n\r\nTo run this utility:\r\n\r\n```\r\n✗  .\u002Ftiny_yolov2-darwin -h\r\nUsage of .\u002Ftiny_yolov2-darwin:\r\n  -h    help\r\n  -img string\r\n        path of an input jpeg image (use - for stdin)\r\n  -model string\r\n        path to the model file (default \"model.onnx\")\r\n  -output string\r\n        path of an output png file (use - for stdout)\r\n  -s    silent mode (useful if output is -)\r\nThis application is configured via the environment. The following environment\r\nvariables can be used:\r\n\r\nKEY                          TYPE     DEFAULT    REQUIRED    DESCRIPTION\r\nYOLO_CONFIDENCE_THRESHOLD    Float    0.30       true\r\nYOLO_PROBA_THRESHOLD         Float    0.90       true\r\n```\r\n\r\nThis utility is provided for fun without further support.\r\n\r\nEnjoy!","2019-06-19T15:53:23",{"id":174,"version":175,"summary_zh":176,"released_at":177},107565,"v0.3","## About\r\n\r\nThis is a pre-release able to run the emotion fer+ model.\r\nOn top of that, it holds the premises of a new package to manipulate images and BCHW tensors (see internal\u002Fx).\r\n\r\n## Binary attachment\r\n\r\nThe attachment is a simple tool that expects the emotion fer + model as input (`model.onnx`) and a picture encoded in gray\u002Fpng and of size 64x64. (See the `Makefile` for options of ImageMagick to convert the picture to a suitable format).\r\n\r\nYou need to grab the `model.onnx` file from [here](https:\u002F\u002Fonnxzoo.blob.core.windows.net\u002Fmodels\u002Fopset_8\u002Femotion_ferplus\u002Femotion_ferplus.tar.gz)\r\n\r\n### MacOS with brew\r\nOn MacOS you can install `imagesnap` and `imagemagick` and run macos_fun.sh.\r\n\r\nOtherwise, simply download the `Makefile` and type `make install` to install everything and `make analyze1.jpg` to create a picture and analyze it.","2019-05-01T20:50:01",{"id":179,"version":180,"summary_zh":80,"released_at":181},107566,"v0.2","2019-04-26T07:21:02",{"id":183,"version":184,"summary_zh":185,"released_at":186},107567,"blog-demo-wasm","please cf [https:\u002F\u002Fblog.owulveryck.info\u002F2019\u002F04\u002F03\u002Ffrom-a-project-to-a-product-the-state-of-onnx-go.html#one-more-thing](https:\u002F\u002Fblog.owulveryck.info\u002F2019\u002F04\u002F03\u002Ffrom-a-project-to-a-product-the-state-of-onnx-go.html#one-more-thing)","2019-04-08T07:42:28",{"id":188,"version":189,"summary_zh":190,"released_at":191},107568,"v0.1-mnist-cli","To use it:\r\n`curl https:\u002F\u002Fwww.cntk.ai\u002FOnnxModels\u002Fmnist\u002Fopset_7\u002Fmnist.tar.gz | tar -C \u002Ftmp -xzvf -`\r\n`.\u002Fmnist-reader.darwin -model \u002Ftmp\u002Fmnist\u002Fmodel.onnx`\r\n\r\nthen point your browser to `http:\u002F\u002Flocalhost:8100`\r\n\r\nTo build it:\r\n``` \r\n$ git checkout v0.1-mnist-cli\r\n$ cd example\u002Fgorgonia\u002Fmnist-reader\r\n$ curl https:\u002F\u002Fwww.cntk.ai\u002FOnnxModels\u002Fmnist\u002Fopset_7\u002Fmnist.tar.gz | tar -C \u002Ftmp -xzf -\r\n$ go run main.go -model \u002Ftmp\u002Fmnist\u002Fmodel.onnx\r\n```","2019-03-22T12:11:49"]