[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-vibertthio--awesome-machine-learning-art":3,"tool-vibertthio--awesome-machine-learning-art":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":77,"owner_twitter":73,"owner_website":79,"owner_url":80,"languages":77,"stars":81,"forks":82,"last_commit_at":83,"license":77,"difficulty_score":84,"env_os":85,"env_gpu":86,"env_ram":86,"env_deps":87,"category_tags":95,"github_topics":97,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":110},4935,"vibertthio\u002Fawesome-machine-learning-art","awesome-machine-learning-art",":robot::art::guitar:A curated list of awesome projects, works, people, articles, and resource for creating art (including music) with machine learning. It's machine learning art.","awesome-machine-learning-art 是一份精心策划的开源资源清单，旨在汇聚利用机器学习创作艺术（含音乐）的优质项目、作品、行业先锋人物、深度文章及学习素材。它主要解决了创作者在探索\"AI+ 艺术”领域时面临的信息分散痛点，将原本零散的技术演示、学术研究与创意案例整合为系统化的知识导航，帮助用户快速定位高质量内容。\n\n这份清单非常适合开发者、数字艺术家、设计师以及人工智能研究人员使用。对于希望将算法融入创作的程序员，这里提供了如 Fast Style Transfer（浏览器端实时风格迁移）和 art-DCGAN（生成艺术专用模型）等可直接参考的代码库；对于寻求灵感的艺术家，则收录了从神经网路动画到交互式音乐工具等前沿案例。此外，清单还特别列出了 Gene Kogan、Mario Klingemann 等领军人物，方便用户关注行业动态。\n\n其独特亮点在于不仅涵盖视觉艺术，还深入涉及音乐生成与交互设计，并兼顾了从入门教程到硬核研究的多层次需求。无论是想尝试用代码绘画的初学者，还是致力于开发下一代创意工具的专业团队，都能从中找到有价值的指引，轻松开启机器学习的艺术探索之","awesome-machine-learning-art 是一份精心策划的开源资源清单，旨在汇聚利用机器学习创作艺术（含音乐）的优质项目、作品、行业先锋人物、深度文章及学习素材。它主要解决了创作者在探索\"AI+ 艺术”领域时面临的信息分散痛点，将原本零散的技术演示、学术研究与创意案例整合为系统化的知识导航，帮助用户快速定位高质量内容。\n\n这份清单非常适合开发者、数字艺术家、设计师以及人工智能研究人员使用。对于希望将算法融入创作的程序员，这里提供了如 Fast Style Transfer（浏览器端实时风格迁移）和 art-DCGAN（生成艺术专用模型）等可直接参考的代码库；对于寻求灵感的艺术家，则收录了从神经网路动画到交互式音乐工具等前沿案例。此外，清单还特别列出了 Gene Kogan、Mario Klingemann 等领军人物，方便用户关注行业动态。\n\n其独特亮点在于不仅涵盖视觉艺术，还深入涉及音乐生成与交互设计，并兼顾了从入门教程到硬核研究的多层次需求。无论是想尝试用代码绘画的初学者，还是致力于开发下一代创意工具的专业团队，都能从中找到有价值的指引，轻松开启机器学习的艺术探索之旅。","# Awesome Machine Learning Art [![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fawesome.re)\n\n> :robot: :art: :guitar: A curated list of awesome projects, works, people, articles, and resource for creating art (including music) with machine learning.\n\n\n## Contents\n\n- [People to Follow](#people-to-follow)\n- [Projects](#projects)\n- [Articles and Talks](#articles-and-talks)\n- [Learning Resources](#learning-resources)\n- [Libraries](#libraries)\n- [TODO](#todo)\n\n\n\n\n## People to Follow\n\n- [Tero Parviainen](https:\u002F\u002Ftwitter.com\u002Fteropa) - Software developer, music hacker, and writer. Building the design tools of the future at creative.ai.\n- [Gene Kogan](http:\u002F\u002Fgenekogan.com\u002F) - an artist and a programmer who initiated ml4a.\n- [大トロ(hardmaru)](https:\u002F\u002Ftwitter.com\u002Fhardmaru) - Research Scientist at Google Brain, Tokyo.\n- [Douglas Eck](https:\u002F\u002Ftwitter.com\u002Fdouglas_eck) - The leader of Magenta, Google Brain.\n- [Adam Roberts](https:\u002F\u002Ftwitter.com\u002Fada_rob) - Music researcher in Magenta, Google Brain.\n- [Kyle McDonald](http:\u002F\u002Fkylemcdonald.net\u002F) -  An artist working with code. He is a contributor to openFrameworks.\n- [Mario Klingemann](https:\u002F\u002Ft.co\u002FN2F22mlaUh) - Artist, Neurographer, Coder, Data Collector, Archivist, Artist in residence @googleart.\n- [Memo Akten](https:\u002F\u002Fwww.memo.tv\u002F) - Artist, researcher and philomath working with computation as medium, inspired by the intersections of science and spirituality.\n- [Robbie Barrat](https:\u002F\u002Ft.co\u002FG3lVHm5UB0) - Artist working with AI who is 19 years old and work in a research lab at stanford.\n- [Janelle Shane](https:\u002F\u002Ftwitter.com\u002FJanelleCShane) - Research Scientist in optics. Plays with neural networks.\n- [Daniel Shiffman](https:\u002F\u002Fshiffman.net\u002F) -  The greatest source of any topics on creative coding for beginners.\n- [Samim](https:\u002F\u002Ftwitter.com\u002Fsamim) - Currently working for Google. Designer & Code Magician. Machine Learning, Flora-Fauna-Human-Computer-Interaction.\n- [Luba Elliott](https:\u002F\u002Ftwitter.com\u002Felluba) - Curator, researcher, organizer of several crative AI events.\n- [Nao Tokui](https:\u002F\u002Ftwitter.com\u002Fnaotokui_en\u002F) - Runs a creative lab, Qosmo, in Tokyo. He is the creator of the \"AI DJ\" project.\n- [Sofia Crespo](https:\u002F\u002Ftwitter.com\u002Fsoficrespo91) - An artists who is playing around botany, microscopy, and neural networks.\n- [Anna Ridler](https:\u002F\u002Ftwitter.com\u002Fannaridler) - An artists who specilizes in machine learning and drawing.\n- [Rebecca Fiebrink](https:\u002F\u002Fwww.doc.gold.ac.uk\u002F~mas01rf\u002Fhomepage\u002F) - The creator of The Wekinator (an interacitve machine learning tool).\n- [Sofia Crespo](https:\u002F\u002Ftwitter.com\u002Fsoficrespo91) - An artist based in Berlin. Her works are around microscopy, memetics, botany, and neural nets.\n\n\n\n## Projects\n\n### Visual\n\n- [Learn to see](http:\u002F\u002Fwpmemo.memo.tv\u002Fportfolio\u002Flearning-to-see\u002F) - :eye: An artificial neural network making predictions on live webcam input, trying to make sense of what it sees, in context of what it’s seen before. It can see only what it already knows, just like us.\n- [art-DCGAN](https:\u002F\u002Fgithub.com\u002Frobbiebarrat\u002Fart-DCGAN) - :art: Modified implementation of DCGAN focused on generative art.\n- [Fast Style Transfer](https:\u002F\u002Fyining1023.github.io\u002Ffast_style_transfer_in_ML5\u002F#)  - ⚡ Extremely easy example for fast real-time style transfer in the browser.\n- [Dirty Data](https:\u002F\u002Fwww.memo.tv\u002Fportfolio\u002Fdirty-data\u002F) - 😈 What happens when you use ‘dirty’ data? Does the network learn anything? If so, what does it learn? Is there anything interesting we can get out of it?\n- [Everyone Dance Now](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=PCBTZh41Ris) - 💃 transfer any person into a professional dancer immediately.\n- [Fall of the House of Usher](http:\u002F\u002Fannaridler.com\u002Ffall-of-the-house-of-usher\u002F) - 🎥 12-minutes animation. Eash still is generated by a neural net (pix2pix) trained on the artist’s ink drawings.\n- [What I saw before the darkness](https:\u002F\u002Faitold.me\u002Fportfolio\u002Fi-will-not-forget\u002F) - A neural network imagines a person. Then, one by one, neurons in the network are being switched off...\n- [Drawing Orientations](https:\u002F\u002Fsougwen.com\u002Fproject\u002Fdrawingoperations-memory)\n- [neural-style-pt](https:\u002F\u002Fgithub.com\u002FProGamerGov\u002Fneural-style-pt) - A PyTorch style transfer implementation. Easy to install, runs on all operating systems, has extensive wiki guides, companion scripts, and other neural models.\n\n\n### Music\n\n- [Magenta](https:\u002F\u002Fmagenta.tensorflow.org\u002F) - An open source research project exploring the role of machine learning as a tool in the creative process.\n- [The Infinite Drum Machine](https:\u002F\u002Fexperiments.withgoogle.com\u002Fdrum-machine) - 🥁 Thousands of everyday sounds, organized using machine learning.\n- [rapping-neural-network](https:\u002F\u002Fgithub.com\u002Frobbiebarrat\u002Frapping-neural-network) - 🎤 Rap song writing recurrent neural network trained on Kanye West's entire discography.\n- [Beat Blender](https:\u002F\u002Fexperiments.withgoogle.com\u002Fai\u002Fbeat-blender\u002Fview\u002F) - 🥁 Blend beats using machine learning to create music in a fun new way.\n- [Melody Mixer](https:\u002F\u002Fexperiments.withgoogle.com\u002Fai\u002Fmelody-mixer\u002Fview\u002F) - 🎶 A fun way to explore music using machine learning.\n- [Performance RNN](https:\u002F\u002Fmagenta.tensorflow.org\u002Fdemos\u002Fperformance_rnn\u002Findex.html#1|2,0,1,0,1,1,0,1,0,1,0,1|1,1,1,1,1,1,1,1,1,1,1,1|1,1,1,1,1,1,1,1,1,1,1,1|true) - :musical_keyboard: Real-time performance by a reccurent neural network (RNN) in the browser.\n- [Neural Beatbox](https:\u002F\u002Ftwitter.com\u002Fnaotokui_en\u002Fstatus\u002F1026467328592994305) - 🎤 RNN-based rhythm geration + audio classification = fun!\n- [AI DJ](http:\u002F\u002Faidj.qosmo.jp\u002F) - 💽 A live performance featuring an Artificial Intelligence (AI) DJ playing alongside a human DJ. It won “Honorary Mentions” Award at Prix Ars Electronica 2018.\n- [Sornting](https:\u002F\u002Fvibertthio.com\u002Fsornting\u002F) - A game based on a musical machine learning algorithm which can interpolate different melodies. The player has to listen to the music to find out the right order, or \"sort\" the song.\n- [RUNN](https:\u002F\u002Fvibertthio.com\u002Frunn\u002F) -  A game based on a musical machine learning algorithm which can generate melodies. \n  The player has to finish the side-scrolling game to listen to the full song.\n- [Jazz RNN](https:\u002F\u002Fvibertthio.com\u002Fjazz-rnn\u002F) - Listen to the jazz created by an algorithm.\n\n### Text\n\n- [Generated Recipes](https:\u002F\u002Faiweirdness.com\u002Fpost\u002F140508739392\u002Fthe-neural-network-wants-you-to-let-it-cook)\n- [GPT-3 Creative Fiction](https:\u002F\u002Fwww.gwern.net\u002FGPT-3) - Creative writing by OpenAI’s GPT-3 model, demonstrating poetry, dialogue, puns, literary parodies, and storytelling.\n\n### Interactive\n\n- [The Wekinator](http:\u002F\u002Fwww.wekinator.org\u002F) - It allows anyone to use machine learning to build new musical instruments, gestural game controllers, computer vision or computer listening systems, and more. It's free and open source.\n\n### Misc\n\n- [Machine Learning for Creativity and Design 2019](https:\u002F\u002Fneurips2019creativity.github.io\u002F)\n- [Machine Learning for Creativity and Design, NeurIPS 2018 Workshop](https:\u002F\u002Fnips2018creativity.github.io\u002F) - 👨‍👩‍👧‍👦 It features 35 papers about mahcine learning art, incluing a wide range of different disciplines.\n- [Runway](https:\u002F\u002Frunwayapp.ai\u002F) - It is a toolkit that adds artificial intelligence capabilities to design and creative platforms.\n- [Autonomous Trap 001](https:\u002F\u002Fwww.vice.com\u002Fen_us\u002Farticle\u002Fqkmeyd\u002Fmeet-the-artist-using-ritual-magic-to-trap-self-driving-cars?fbclid=IwAR3oG8dWtY5krLlIoroXCwJCSq76BpVG2JGhSEWnvjwD2i0oQd9DtuYPodo) - the artist used ritual magic to trap self-driving cars.\n- [Fake New Generator](https:\u002F\u002Ftwitter.com\u002Fgenekogan\u002Fstatus\u002F1143875134052339712) - The model can generate almost meaningful text from any title.\n\n\n## Articles and Talks\n\n- [Machine learning for artists (a.k.a ml4a) (Gene Kogan)](https:\u002F\u002Fmedium.com\u002F@genekogan\u002Fmachine-learning-for-artists-e93d20fdb097) - This article compares the emerging of ML in art as the case of CV in early 2000s.\n- [Artists and Machine Intelligence](https:\u002F\u002Fmedium.com\u002Fartists-and-machine-intelligence) -  A program at Google that brings artists and engineers together to realize projects using Machine Intelligence.\n- [MusicVAE: Creating a palette for musical scores with machine learning](https:\u002F\u002Fmagenta.tensorflow.org\u002Fmusic-vae)\n- [Generating Abstract Patterns with TensorFlow](http:\u002F\u002Fblog.otoro.net\u002F2016\u002F03\u002F25\u002Fgenerating-abstract-patterns-with-tensorflow\u002F)\n- [BBC Sounds: The arts and artificial intelligence](https:\u002F\u002Fwww.bbc.co.uk\u002Fsounds\u002Fplay\u002Fm00017b1) - A painting by a GAN model is sold for  $432,500 USD in an auction (NOTE: the original code is written by [Robbie Barrat](https:\u002F\u002Ft.co\u002FG3lVHm5UB0), [The Verge](https:\u002F\u002Fwww.theverge.com\u002F2018\u002F10\u002F23\u002F18013190\u002Fai-art-portrait-auction-christies-belamy-obvious-robbie-barrat-gans)). The talk is joined by Mario Klingemann and Anna Ridler.\n- [The AI Art At Christie’s Is Not What You Think](https:\u002F\u002Fwww.artnome.com\u002Fnews\u002F2018\u002F10\u002F13\u002Fthe-ai-art-at-christies-is-not-what-you-think) - Jason Bailey interview both Huge from Obvious and Robbie Barrat to investigate further into the controversial auction of Christie.\n- [How Generative Music Works: A Perspective](https:\u002F\u002Fteropa.info\u002Floop\u002F#\u002Ftitle) - It's a website describing generative music interactively.\n\n\n\n## Learning Resources\n\n### Beginners\n\n- [TensorFlow.js - Intelligence and Learning (The Coding Train)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Qt3ZABW5lD0&list=PLRqwX-V7Uu6YIeVA3dNxbR9PYj4wV31oQ)\n- [Machine Learning with TensorFlow, ml5.js, and Spell (The Coding Train)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=ggBOAPtFjYU&list=PLRqwX-V7Uu6Y6kSfxOjq5zk4gkDK8q_n1)\n- [Beginners Guide to Machine Learning in JavaScript (The Coding Train)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=jmznx0Q1fP0&list=PLRqwX-V7Uu6YPSwT06y_AEYTqIwbeam3y)\n\n### Medium\n\n- [Learning Machines](https:\u002F\u002Fwww.patrickhebron.com\u002Flearning-machines\u002F) - Taught by Patrick Hebron at NYU\u002FITP, Fall 2017.\n- [Machine Learning for Musicians and Artists (Rebecca Fiebrink)](https:\u002F\u002Fwww.kadenze.com\u002Fcourses\u002Fmachine-learning-for-musicians-and-artists\u002Finfo)\n- [ml4a (Machine Learning for Artists)](https:\u002F\u002Fml4a.github.io\u002F)\n- [The Neural Aesthetic @ ITP-NYU, Fall 2018](http:\u002F\u002Fml4a.github.io\u002Fclasses\u002Fitp-F18\u002F#lectures) - An amazing course by Gene Kogna. It's full of open mateirals about the machine learning art.\n\n### Adanced\n\n- [Neural Style Transfer: Creating Art with Deep Learning using tf.keras and eager execution](https:\u002F\u002Fmedium.com\u002Ftensorflow\u002Fneural-style-transfer-creating-art-with-deep-learning-using-tf-keras-and-eager-execution-7d541ac31398)\n- [Creative Applications of Deep Learning with TensorFlow (Parag Mital)](https:\u002F\u002Fwww.kadenze.com\u002Fcourses\u002Fcreative-applications-of-deep-learning-with-tensorflow\u002Finfo)\n- [cs231n](http:\u002F\u002Fcs231n.github.io\u002F) - The notes accompany the Stanford Computer Science class CS231n (Convolutional Neural Networks for Visual Recognition).\n\n\n\n\n## Libraries\n\n- [tensorflow.js](https:\u002F\u002Fjs.tensorflow.org\u002F) - :zap: A JavaScript library for training and deploying ML models in the browser and on Node.js.\n- [ml5.js](https:\u002F\u002Fml5js.org\u002F) - :robot: 🖌  It aims to make machine learning approachable for a broad audience of artists, creative coders, and students.\n- [p5.js](https:\u002F\u002Fgithub.com\u002Fprocessing\u002Fp5.js) - :art: :guitar:  p5.js is a client-side JS platform that empowers artists, designers, students, and anyone to learn to code and express themselves creatively on the web.\n\n\n\n\n## TODO\n\n- [awesome-lint](https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome-lint)\n- add profile picture of this repo\n- add \"For Non-Programmers\" section\n\n\n\n\n## Contribute\n\nContributions welcome! Read the [contribution guidelines](contributing.md) first.\n\n\n\n\n## License\n\nThe content of this project itself is licensed under the [Creative Commons Attribution 3.0 license](http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F3.0\u002Fus\u002Fdeed.en_US).\n","# 令人惊叹的机器学习艺术 [![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fawesome.re)\n\n> :robot: :art: :guitar: 一个精心整理的列表，汇集了利用机器学习创作艺术（包括音乐）的优秀项目、作品、人物、文章和资源。\n\n\n## 目录\n\n- [值得关注的人](#people-to-follow)\n- [项目](#projects)\n- [文章与演讲](#articles-and-talks)\n- [学习资源](#learning-resources)\n- [库](#libraries)\n- [待办事项](#todo)\n\n\n\n\n## 值得关注的人\n\n- [Tero Parviainen](https:\u002F\u002Ftwitter.com\u002Fteropa) - 软件开发者、音乐黑客及作家。目前在 creative.ai 致力于打造未来的设计工具。\n- [Gene Kogan](http:\u002F\u002Fgenekogan.com\u002F) - 一位艺术家兼程序员，ml4a 的发起人。\n- [大トロ(hardmaru)](https:\u002F\u002Ftwitter.com\u002Fhardmaru) - 谷歌大脑东京研究科学家。\n- [Douglas Eck](https:\u002F\u002Ftwitter.com\u002Fdouglas_eck) - 谷歌大脑 Magenta 团队负责人。\n- [Adam Roberts](https:\u002F\u002Ftwitter.com\u002Fada_rob) - 谷歌大脑 Magenta 团队的音乐研究员。\n- [Kyle McDonald](http:\u002F\u002Fkylemcdonald.net\u002F) - 一位以代码为媒介的艺术家，同时也是 openFrameworks 的贡献者。\n- [Mario Klingemann](https:\u002F\u002Ft.co\u002FN2F22mlaUh) - 艺术家、神经绘图师、程序员、数据收集者、档案管理员，现为谷歌艺术实验室驻地艺术家。\n- [Memo Akten](https:\u002F\u002Fwww.memo.tv\u002F) - 一位以计算作为媒介的艺术家、研究者和博学者，其创作灵感源自科学与灵性的交汇。\n- [Robbie Barrat](https:\u002F\u002Ft.co\u002FG3lVHm5UB0) - 一位年仅19岁的AI艺术创作者，在斯坦福大学的研究实验室工作。\n- [Janelle Shane](https:\u002F\u002Ftwitter.com\u002FJanelleCShane) - 光学领域的研究科学家，热衷于玩转神经网络。\n- [Daniel Shiffman](https:\u002F\u002Fshiffman.net\u002F) - 对于初学者而言，他是关于创意编程各类主题的最佳学习资源提供者。\n- [Samim](https:\u002F\u002Ftwitter.com\u002Fsamim) - 现供职于谷歌，设计师兼代码魔术师。专注于机器学习、动植物群、人机交互等领域。\n- [Luba Elliott](https:\u002F\u002Ftwitter.com\u002Felluba) - 策展人、研究者，曾组织过多场创意AI相关活动。\n- [Nao Tokui](https:\u002F\u002Ftwitter.com\u002Fnaotokui_en\u002F) - 在东京运营创意实验室 Qosmo，并且是“AI DJ”项目的创始人。\n- [Sofia Crespo](https:\u002F\u002Ftwitter.com\u002Fsoficrespo91) - 一位探索植物学、显微镜学以及神经网络的艺术家。\n- [Anna Ridler](https:\u002F\u002Ftwitter.com\u002Fannaridler) - 一位专攻机器学习与绘画的艺术家。\n- [Rebecca Fiebrink](https:\u002F\u002Fwww.doc.gold.ac.uk\u002F~mas01rf\u002Fhomepage\u002F) - The Wekinator（一款交互式机器学习工具）的创造者。\n- [Sofia Crespo](https:\u002F\u002Ftwitter.com\u002Fsoficrespo91) - 一位居住在柏林的艺术家。她的作品围绕显微镜学、模因学、植物学和神经网络展开。\n\n\n\n## 项目\n\n### 视觉\n\n- [学会观看](http:\u002F\u002Fwpmemo.memo.tv\u002Fportfolio\u002Flearning-to-see\u002F) - :eye: 一个人工神经网络对实时摄像头输入进行预测，试图结合过往经验理解所见内容。它只能看到自己已知的事物，正如我们一样。\n- [art-DCGAN](https:\u002F\u002Fgithub.com\u002Frobbiebarrat\u002Fart-DCGAN) - :art: 针对生成艺术优化的 DCGAN 改进实现。\n- [快速风格迁移](https:\u002F\u002Fyining1023.github.io\u002Ffast_style_transfer_in_ML5\u002F#)  - ⚡ 极其简单的示例，可在浏览器中实现快速实时风格迁移。\n- [脏数据](https:\u002F\u002Fwww.memo.tv\u002Fportfolio\u002Fdirty-data\u002F) - 😈 当使用“脏”数据时会发生什么？网络能否从中学习到任何东西？如果可以，它会学到什么呢？我们又能从中获得哪些有趣的信息？\n- [人人即舞者](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=PCBTZh41Ris) - 💃 可以将任何人瞬间转化为专业舞者。\n- [厄舍府的倒塌](http:\u002F\u002Fannaridler.com\u002Ffall-of-the-house-of-usher\u002F) - 🎥 12分钟的动画。每一帧均由基于艺术家墨水画训练的神经网络（pix2pix）生成。\n- [黑暗降临前我所见](https:\u002F\u002Faitold.me\u002Fportfolio\u002Fi-will-not-forget\u002F) - 一个神经网络正在想象一个人。随后，网络中的神经元被逐一关闭……\n- [素描方向](https:\u002F\u002Fsougwen.com\u002Fproject\u002Fdrawingoperations-memory)\n- [neural-style-pt](https:\u002F\u002Fgithub.com\u002FProGamerGov\u002Fneural-style-pt) - 一个基于 PyTorch 的风格迁移实现。安装简便，支持所有操作系统，配有详尽的维基指南、配套脚本及其他神经网络模型。\n\n\n### 音乐\n\n- [Magenta](https:\u002F\u002Fmagenta.tensorflow.org\u002F) - 一个开源研究项目，旨在探索机器学习在创作过程中的作用。\n- [无限鼓机](https:\u002F\u002Fexperiments.withgoogle.com\u002Fdrum-machine) - 🥁 数以千计的日常声音，通过机器学习进行分类整理。\n- [说唱神经网络](https:\u002F\u002Fgithub.com\u002Frobbiebarrat\u002Frapping-neural-network) - 🎤 基于坎耶·韦斯特完整唱片目录训练的循环神经网络，用于创作说唱歌曲。\n- [节拍搅拌器](https:\u002F\u002Fexperiments.withgoogle.com\u002Fai\u002Fbeat-blender\u002Fview\u002F) - 🥁 利用机器学习混合节拍，以一种有趣的新方式创作音乐。\n- [旋律混音器](https:\u002F\u002Fexperiments.withgoogle.com\u002Fai\u002Fmelody-mixer\u002Fview\u002F) - 🎶 一种利用机器学习探索音乐的有趣方式。\n- [表演 RNN](https:\u002F\u002Fmagenta.tensorflow.org\u002Fdemos\u002Fperformance_rnn\u002Findex.html#1|2,0,1,0,1,1,0,1,0,1,0,1|1,1,1,1,1,1,1,1,1,1,1,1|1,1,1,1,1,1,1,1,1,1,1,1|true) - :musical_keyboard: 浏览器中由循环神经网络（RNN）实时演奏的音乐。\n- [神经节拍盒](https:\u002F\u002Ftwitter.com\u002Fnaotokui_en\u002Fstatus\u002F1026467328592994305) - 🎤 基于 RNN 的节奏生成 + 音频分类 = 乐趣！\n- [AI DJ](http:\u002F\u002Faidj.qosmo.jp\u002F) - 💽 一场现场演出，由人工智能DJ与人类DJ共同表演。该项目荣获2018年 Prix Ars Electronica “荣誉提及”奖。\n- [排序](https:\u002F\u002Fvibertthio.com\u002Fsornting\u002F) - 一款基于音乐机器学习算法的游戏，该算法能够插值不同的旋律。玩家需要聆听音乐来找出正确的顺序，即“排序”这首曲子。\n- [RUNN](https:\u002F\u002Fvibertthio.com\u002Frunn\u002F) - 一款基于音乐机器学习算法的游戏，该算法能够生成旋律。\n  玩家必须完成这款横版滚动游戏才能听到整首歌曲。\n- [爵士 RNN](https:\u002F\u002Fvibertthio.com\u002Fjazz-rnn\u002F) - 欣赏由算法创作的爵士乐。\n\n### 文本\n\n- [自动生成的食谱](https:\u002F\u002Faiweirdness.com\u002Fpost\u002F140508739392\u002Fthe-neural-network-wants-you-to-let-it-cook)\n- [GPT-3 创意小说](https:\u002F\u002Fwww.gwern.net\u002FGPT-3) - OpenAI 的 GPT-3 模型创作的创意文学作品，展示了诗歌、对话、双关语、文学戏仿和故事叙述等内容。\n\n### 互动\n\n- [The Wekinator](http:\u002F\u002Fwww.wekinator.org\u002F) - 它让任何人都能利用机器学习构建新的乐器、手势游戏控制器、计算机视觉或听觉系统等。完全免费且开源。\n\n### 杂项\n\n- [2019年创意与设计中的机器学习](https:\u002F\u002Fneurips2019creativity.github.io\u002F)\n- [2018年NeurIPS创意与设计机器学习研讨会](https:\u002F\u002Fnips2018creativity.github.io\u002F) - 👨‍👩‍👧‍👦 该研讨会收录了35篇关于机器学习艺术的论文，涵盖了广泛的不同学科。\n- [Runway](https:\u002F\u002Frunwayapp.ai\u002F) - 这是一个为设计和创意平台添加人工智能功能的工具包。\n- [自动驾驶陷阱001](https:\u002F\u002Fwww.vice.com\u002Fen_us\u002Farticle\u002Fqkmeyd\u002Fmeet-the-artist-using-ritual-magic-to-trap-self-driving-cars?fbclid=IwAR3oG8dWtY5krLlIoroXCwJCSq76BpVG2JGhSEWnvjwD2i0oQd9DtuYPodo) - 艺术家使用仪式魔法来“困住”自动驾驶汽车。\n- [假新闻生成器](https:\u002F\u002Ftwitter.com\u002Fgenekogan\u002Fstatus\u002F1143875134052339712) - 该模型可以从任何标题生成几乎有意义的文本。\n\n\n## 文章与演讲\n\n- [艺术家的机器学习（即ml4a）（Gene Kogan）](https:\u002F\u002Fmedium.com\u002F@genekogan\u002Fmachine-learning-for-artists-e93d20fdb097) - 本文将艺术领域中机器学习的兴起比作2000年代初计算机视觉的发展。\n- [艺术家与机器智能](https:\u002F\u002Fmedium.com\u002Fartists-and-machine-intelligence) - 谷歌的一个项目，旨在将艺术家和工程师聚集在一起，利用机器智能实现各种创意项目。\n- [MusicVAE：用机器学习创建乐谱调色板](https:\u002F\u002Fmagenta.tensorflow.org\u002Fmusic-vae)\n- [使用TensorFlow生成抽象图案](http:\u002F\u002Fblog.otoro.net\u002F2016\u002F03\u002F25\u002Fgenerating-abstract-patterns-with-tensorflow\u002F)\n- [BBC Sounds：艺术与人工智能](https:\u002F\u002Fwww.bbc.co.uk\u002Fsounds\u002Fplay\u002Fm00017b1) - 一幅由GAN模型创作的画作在拍卖会上以432,500美元的价格售出（注：原始代码由[Robbie Barrat](https:\u002F\u002Ft.co\u002FG3lVHm5UB0)编写，[The Verge](https:\u002F\u002Fwww.theverge.com\u002F2018\u002F10\u002F23\u002F18013190\u002Fai-art-portrait-auction-christies-belamy-obvious-robbie-barrat-gans)对此进行了报道）。本次讨论会邀请了Mario Klingemann和Anna Ridler参与。\n- [佳士得拍卖的AI艺术并非你想象的那样](https:\u002F\u002Fwww.artnome.com\u002Fnews\u002F2018\u002F10\u002F13\u002Fthe-ai-art-at-christies-is-not-what-you-think) - Jason Bailey采访了Obvious团队的Huge和Robbie Barrat，进一步探讨佳士得那场备受争议的拍卖事件。\n- [生成音乐的工作原理：一种视角](https:\u002F\u002Fteropa.info\u002Floop\u002F#\u002Ftitle) - 这是一个交互式网站，用于描述生成音乐的概念。\n\n\n\n## 学习资源\n\n### 初学者\n\n- [TensorFlow.js - 智能与学习（The Coding Train）](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Qt3ZABW5lD0&list=PLRqwX-V7Uu6YIeVA3dNxbR9PYj4wV31oQ)\n- [使用TensorFlow、ml5.js和Spell进行机器学习（The Coding Train）](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=ggBOAPtFjYU&list=PLRqwX-V7Uu6Y6kSfxOjq5zk4gkDK8q_n1)\n- [JavaScript机器学习入门指南（The Coding Train）](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=jmznx0Q1fP0&list=PLRqwX-V7Uu6YPSwT06y_AEYTqIwbeam3y)\n\n### 中级\n\n- [学习机器](https:\u002F\u002Fwww.patrickhebron.com\u002Flearning-machines\u002F) - 由Patrick Hebron于2017年秋季在NYU\u002FITP教授。\n- [面向音乐家和艺术家的机器学习（Rebecca Fiebrink）](https:\u002F\u002Fwww.kadenze.com\u002Fcourses\u002Fmachine-learning-for-musicians-and-artists\u002Finfo)\n- [ml4a（艺术家的机器学习）](https:\u002F\u002Fml4a.github.io\u002F)\n- [ITP-NYU的神经美学课程，2018年秋季](http:\u002F\u002Fml4a.github.io\u002Fclasses\u002Fitp-F18\u002F#lectures) - 由Gene Kogna主讲的一门精彩课程。课程资料完全开放，内容丰富，专注于机器学习艺术。\n\n### 高级\n\n- [神经风格迁移：使用tf.keras和急切执行模式通过深度学习创作艺术](https:\u002F\u002Fmedium.com\u002Ftensorflow\u002Fneural-style-transfer-creating-art-with-deep-learning-using-tf-keras-and-eager-execution-7d541ac31398)\n- [TensorFlow深度学习的创意应用（Parag Mital）](https:\u002F\u002Fwww.kadenze.com\u002Fcourses\u002Fcreative-applications-of-deep-learning-with-tensorflow\u002Finfo)\n- [cs231n](http:\u002F\u002Fcs231n.github.io\u002F) - 这是斯坦福大学计算机科学课程CS231n（用于视觉识别的卷积神经网络）的配套笔记。\n\n\n\n\n## 库\n\n- [tensorflow.js](https:\u002F\u002Fjs.tensorflow.org\u002F) - :zap: 一个用于在浏览器和Node.js上训练及部署机器学习模型的JavaScript库。\n- [ml5.js](https:\u002F\u002Fml5js.org\u002F) - :robot: 🖌  旨在让广大艺术家、创意程序员和学生更容易接触机器学习。\n- [p5.js](https:\u002F\u002Fgithub.com\u002Fprocessing\u002Fp5.js) - :art: :guitar:  p5.js是一个客户端JS平台，帮助艺术家、设计师、学生以及任何想学习编程并在网络上进行创造性表达的人实现这一目标。\n\n\n\n\n## 待办事项\n\n- [awesome-lint](https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome-lint)\n- 添加本仓库的头像\n- 增加“面向非程序员”章节\n\n\n\n\n## 贡献\n\n欢迎贡献！请先阅读[贡献指南](contributing.md)。\n\n\n\n\n## 许可证\n\n本项目的具体内容采用[知识共享署名3.0许可协议](http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F3.0\u002Fus\u002Fdeed.en_US)授权。","# Awesome Machine Learning Art 快速上手指南\n\n`awesome-machine-learning-art` 并非一个单一的可安装软件库，而是一个精选的资源列表（Awesome List），汇集了用于创作机器学习艺术（包括视觉、音乐、文本等）的项目、人物、文章和学习资源。\n\n本指南将指导你如何搭建基础环境，并利用列表中推荐的核心工具（如 `ml5.js` 和 `TensorFlow.js`）快速开始你的第一个 AI 艺术创作。\n\n## 环境准备\n\n由于该列表涵盖多种语言（Python, JavaScript 等），最轻量且适合初学者的入门路径是基于浏览器的 **JavaScript** 生态（对应列表中的 `Libraries` 部分）。\n\n### 系统要求\n- **操作系统**: Windows, macOS, 或 Linux\n- **浏览器**: 推荐使用最新版的 Chrome, Firefox 或 Edge（需支持 WebGL）\n- **代码编辑器**: VS Code (推荐) 或任意文本编辑器\n\n### 前置依赖\n无需安装复杂的本地环境（如 Python, CUDA, Node.js 即可运行基础示例），只需具备以下条件：\n1. 稳定的网络连接（用于加载 CDN 资源）\n2. 基础的 HTML\u002FJavaScript 知识\n\n> **国内加速建议**：如果访问 Google 相关资源（如 TensorFlow.js CDN）较慢，建议使用国内镜像源或本地下载库文件。\n> - TensorFlow.js 国内镜像参考：`https:\u002F\u002Fcdn.jsdelivr.net\u002Fnpm\u002F@tensorflow\u002Ftfjs`\n> - ml5.js 国内镜像参考：`https:\u002F\u002Fcdn.jsdelivr.net\u002Fnpm\u002Fml5`\n\n## 安装步骤\n\n由于这是资源集合，没有统一的“安装命令”。我们将通过引入核心库 `ml5.js`（它封装了 TensorFlow.js，专为艺术家和创意编码者设计）来开始。\n\n### 方法一：直接使用 CDN（推荐初学者）\n\n在你的 HTML 文件中直接通过 `\u003Cscript>` 标签引入库。这是最快的方式。\n\n```html\n\u003C!DOCTYPE html>\n\u003Chtml lang=\"zh-CN\">\n\u003Chead>\n  \u003Cmeta charset=\"UTF-8\">\n  \u003Ctitle>ML Art Quick Start\u003C\u002Ftitle>\n  \u003C!-- 引入 p5.js (创意编码框架) -->\n  \u003Cscript src=\"https:\u002F\u002Fcdnjs.cloudflare.com\u002Fajax\u002Flibs\u002Fp5.js\u002F1.4.0\u002Fp5.js\">\u003C\u002Fscript>\n  \u003C!-- 引入 ml5.js (机器学习库) -->\n  \u003Cscript src=\"https:\u002F\u002Funpkg.com\u002Fml5@latest\u002Fdist\u002Fml5.min.js\">\u003C\u002Fscript>\n\u003C\u002Fhead>\n\u003Cbody>\n  \u003Ch1>我的第一个 AI 艺术项目\u003C\u002Fh1>\n  \u003Cscript src=\"sketch.js\">\u003C\u002Fscript>\n\u003C\u002Fbody>\n\u003C\u002Fhtml>\n```\n\n### 方法二：使用 npm 安装（适合进阶开发者）\n\n如果你习惯使用 Node.js 开发环境：\n\n```bash\n# 初始化项目\nnpm init -y\n\n# 安装核心依赖\nnpm install ml5 p5\n```\n\n## 基本使用\n\n以下示例展示了如何使用 `ml5.js` 加载一个预训练的图像分类模型（MobileNet），并在网页上实时识别摄像头画面内容。这对应了列表中 \"Projects -> Visual\" 类别的入门实践。\n\n### 1. 创建 `sketch.js` 文件\n\n将以下代码保存为 `sketch.js`，并确保它与上面的 HTML 文件在同一目录下。\n\n```javascript\nlet classifier;\nlet video;\nlet label = '加载中...';\n\nfunction setup() {\n  createCanvas(640, 480);\n  \n  \u002F\u002F 调用摄像头\n  video = createCapture(VIDEO);\n  video.size(640, 480);\n  video.hide();\n\n  \u002F\u002F 加载预训练的 MobileNet 模型\n  classifier = ml5.imageClassifier('MobileNet', modelReady);\n}\n\nfunction modelReady() {\n  console.log('模型已就绪');\n  \u002F\u002F 开始对视频流进行分类\n  classifyVideo();\n}\n\nfunction classifyVideo() {\n  classifier.classify(video, gotResult);\n}\n\nfunction gotResult(error, results) {\n  if (error) {\n    console.error(error);\n    return;\n  }\n  \u002F\u002F 获取置信度最高的结果\n  label = results[0].label;\n  \u002F\u002F 继续循环分类\n  classifyVideo();\n}\n\nfunction draw() {\n  background(0);\n  \u002F\u002F 绘制视频画面\n  image(video, 0, 0);\n  \n  \u002F\u002F 绘制识别结果\n  fill(255);\n  textSize(32);\n  text(label, 10, height - 10);\n}\n```\n\n### 2. 运行项目\n\n- **简单方式**：直接使用 VS Code 的 \"Live Server\" 插件打开 HTML 文件，或在终端运行 `python -m http.server` 然后访问 `http:\u002F\u002Flocalhost:8000`。\n  > 注意：由于浏览器安全策略，调用摄像头通常需要在 `localhost` 或 `https` 环境下运行，直接双击打开 HTML 文件可能无法启动摄像头。\n\n### 3. 探索更多资源\n\n完成上述示例后，你可以回到 `awesome-machine-learning-art` 列表探索更多内容：\n- **音乐生成**: 查看 `Magenta` 或 `Beat Blender` 项目。\n- **风格迁移**: 尝试 `Fast Style Transfer`。\n- **深度学习课程**: 参考 `Learning Resources` 中的 \"The Coding Train\" 系列教程。\n\n通过这个简单的起点，你已经迈出了利用机器学习进行艺术创作的第一步。","一位独立数字艺术家计划创作一部融合个人手绘风格与实时摄像头互动的生成式动画短片，但在技术选型和资源整合上陷入困境。\n\n### 没有 awesome-machine-learning-art 时\n- **资源分散难检索**：需要在 GitHub、Twitter 和个人博客间反复跳转，难以系统性找到如 `art-DCGAN` 或 `pix2pix` 等专注于艺术生成的特定项目。\n- **专家网络缺失**：不了解 Gene Kogan、Mario Klingemann 等领军人物及其开源作品，错失学习“神经绘图”等前沿创作手法的机会。\n- **试错成本高昂**：缺乏类似 \"Learn to see\" 或 \"Fast Style Transfer\" 的成熟案例参考，需从零摸索如何将神经网络应用于实时视频流，导致开发周期延长。\n- **理论实践脱节**：找不到将机器学习理论与具体艺术创作（如音乐生成、风格迁移）结合的深度文章和教程，创意难以落地。\n\n### 使用 awesome-machine-learning-art 后\n- **一站式资源聚合**：直接获取 curated 列表，快速定位到 `Fall of the House of Usher` 等利用神经网络生成逐帧动画的成功案例，明确技术路径。\n- **跟随行业先驱**：通过 \"People to Follow\" 板块关注 Tero Parviainen 和 Sofia Crespo 等专家，即时掌握最新创作工具与灵感来源。\n- **复用成熟方案**：基于列表中提供的浏览器端实时风格迁移示例，迅速搭建起摄像头互动原型，将原本数周的算法调试缩短至几天。\n- **深度学习和交流**：利用 \"Articles and Talks\" 及 \"Learning Resources\" 深入理解数据清洗对艺术生成的影响，避免重蹈 \"Dirty Data\" 项目的覆辙。\n\nawesome-machine-learning-art 通过整合全球顶尖的 ML 艺术项目与专家网络，将艺术家从繁琐的技术搜寻中解放出来，使其能专注于创意本身的实现与突破。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvibertthio_awesome-machine-learning-art_81e615d5.png","vibertthio","Vibert Thio","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fvibertthio_cac2069e.jpg","I make music easier to play @suno-ai, ex @bytedance @magenta",null,"Boston, United States","vibertthio.com","https:\u002F\u002Fgithub.com\u002Fvibertthio",715,56,"2026-04-04T14:17:21",1,"","未说明",{"notes":88,"python":86,"dependencies":89},"该仓库是一个资源列表（Awesome List），本身不是一个可运行的单一软件工具，因此没有统一的系统运行环境需求。列表中收录的项目涵盖视觉、音乐、文本等多个领域，各自依赖不同的技术栈（如 TensorFlow, PyTorch, JavaScript 等）。部分项目（如 Fast Style Transfer）可在浏览器中运行，而其他项目（如 art-DCGAN, neural-style-pt）则需要在本地安装相应的深度学习框架。具体环境配置需参考列表中各个独立项目的文档。",[90,91,92,93,94],"tensorflow.js","ml5.js","p5.js","PyTorch (针对 neural-style-pt)","TensorFlow (针对 Magenta)",[14,96],"音频",[98,99,100,101,102,103,104,105,106],"awesome","creative-coding","machine-learning","art","artificial-intelligence","music","machine-learning-art","awesome-list","awesome-lists","2026-03-27T02:49:30.150509","2026-04-11T16:57:44.388355",[],[]]