[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-sebastian-hofstaetter--teaching":3,"tool-sebastian-hofstaetter--teaching":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":81,"owner_twitter":82,"owner_website":81,"owner_url":83,"languages":84,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":101,"env_os":102,"env_gpu":103,"env_ram":103,"env_deps":104,"category_tags":107,"github_topics":108,"view_count":23,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":117,"updated_at":118,"faqs":119,"releases":149},2511,"sebastian-hofstaetter\u002Fteaching","teaching","Open-Source Information Retrieval Courses @ TU Wien","teaching 是维也纳技术大学（TU Wien）开源的一套信息检索（Information Retrieval, IR）课程资料库，主要面向硕士阶段的“高级信息检索”课程。它并非传统意义上的软件工具，而是一套完整、系统且高质量的教育资源集合，旨在帮助学习者深入理解搜索引擎背后的科学原理与技术演进。\n\n在数字化时代，我们每天都被海量非结构化数据包围，如何高效地从自由文本中获取有价值信息成为关键挑战。teaching 正是为了解决这一领域知识门槛高、前沿技术更新快的问题而生。它不仅涵盖了索引构建、排序检索、评估指标（如 MRR、MAP、NDCG）等经典 IR 基础理论，更紧跟学术前沿，重点讲解了自 2019 年以来以 BERT 为代表的预训练语言模型如何引发信息检索领域的范式转移，以及这些技术如何显著提升搜索结果的质量。\n\n这套资源非常适合计算机专业的学生、从事搜索算法研发的工程师、人工智能研究人员以及对信息检索技术有浓厚兴趣的开发者使用。其独特亮点在于内容兼具深度与趣味性，曾荣获 TU Wien 2021 年最佳远程学习奖。资料库提供了完整的视频讲座录音、幻灯片课件以及文字转录稿，并","teaching 是维也纳技术大学（TU Wien）开源的一套信息检索（Information Retrieval, IR）课程资料库，主要面向硕士阶段的“高级信息检索”课程。它并非传统意义上的软件工具，而是一套完整、系统且高质量的教育资源集合，旨在帮助学习者深入理解搜索引擎背后的科学原理与技术演进。\n\n在数字化时代，我们每天都被海量非结构化数据包围，如何高效地从自由文本中获取有价值信息成为关键挑战。teaching 正是为了解决这一领域知识门槛高、前沿技术更新快的问题而生。它不仅涵盖了索引构建、排序检索、评估指标（如 MRR、MAP、NDCG）等经典 IR 基础理论，更紧跟学术前沿，重点讲解了自 2019 年以来以 BERT 为代表的预训练语言模型如何引发信息检索领域的范式转移，以及这些技术如何显著提升搜索结果的质量。\n\n这套资源非常适合计算机专业的学生、从事搜索算法研发的工程师、人工智能研究人员以及对信息检索技术有浓厚兴趣的开发者使用。其独特亮点在于内容兼具深度与趣味性，曾荣获 TU Wien 2021 年最佳远程学习奖。资料库提供了完整的视频讲座录音、幻灯片课件以及文字转录稿，并开放 GitHub 讨论区供用户交流答疑。通过这种开源协作的方式，teaching 不仅降低了学习高级信息检索技术的难度，也为社区提供了一个持续更新、共同完善的知识平台，是通往下一代搜索引擎技术的重要学习路径。","# Hi there 👋 Welcome to my teaching materials!\n\nI'm working on Information Retrieval at the Vienna University of Technology (TU Wien), mainly focusing on the [award-wining](https:\u002F\u002Ftwitter.com\u002Fs_hofstaetter\u002Fstatus\u002F1446193420222050309) master-level Advanced Information Retrieval course. I try to create engaging, fun, and informative lectures and exercises &ndash; both in-person and online!\n\n*Please feel free to open up an issue or a pull request if you want to add something, find a mistake, or think something should be explained better!*\n\n### Contents\n\n- [Advanced Information Retrieval 2021 & 2022](#air-2022)\n\n- [Our content creation workflow](#workflow)\n\n----\n\n\u003Ca id=\"air-2022\">\u003C\u002Fa>\n## Advanced Information Retrieval 2021 & 2022\n\n**🏆 Won the Best Distance Learning Award 2021 @ TU Wien**\n\nInformation Retrieval is the science behind search technology. Certainly, the most visible instances are the large Web Search engines, the likes of Google and Bing, but information retrieval appears everywhere we have to deal with unstructured data (e.g. free text).\n\n**A paradigm shift.** Taking off in 2019 the Information Retrieval research field began an enormous paradigm shift towards utilizing BERT-based language models in various forms to great effect with huge leaps in quality improvements for search results using large-scale training data. This course aims to showcase a slice of these advances in state-of-the-art IR research towards the next generation of search engines. \n\n----\n\n**New in 2022:** Use GitHub Discussions to ask questions about the lecture!\n\n----\n\n![Syllabus](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsebastian-hofstaetter_teaching_readme_21806243b65c.png)\n*The AIR syllabus overview*\n\n### Lectures\n\nIn the following we provide links to recordings, slides, and closed captions for our lectures. Here is a complete playlist [on YouTube](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLSg1mducmHTPZPDoal4m59pPxxsceXF-y).\n\n| Topic                  | Description                                                                     | Recordings  | Slides  | Text  |\n| -------------          | -------------                                                                   |-------------                 | -----       | -----         |\n| **0:**&nbsp;Introduction 2022        | Infos on requirements, topics, organization                                     | [YouTube](https:\u002F\u002Fyoutu.be\u002FRBgyq7nYc3M) | [PDF](advanced-information-retrieval\u002FLecture&#32;0&#32;-&#32;Course&#32;Introduction.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture&#32;0&#32;-&#32;Closed&#32;Captions.md)            |\n| **1:**&nbsp;Crash&nbsp;Course&nbsp;IR&nbsp;Fundamentals     | We explore two fundamental building blocks of IR: indexing and ranked retrieval | [YouTube](https:\u002F\u002Fyoutu.be\u002FZC94KSDd4DM) | [PDF](advanced-information-retrieval\u002FLecture%201%20-%20Crash%20Course%20-%20Fundamentals.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture&#32;1&#32;-&#32;Closed&#32;Captions.md)\n| **2:**&nbsp;Crash&nbsp;Course&nbsp;IR&nbsp;Evaluation     | We explore how we evaluate ranked retrieval results and common IR metrics (MRR, MAP, NDCG) | [YouTube](https:\u002F\u002Fyoutu.be\u002FEiDltQZ713I) | [PDF](advanced-information-retrieval\u002FLecture%202%20-%20Crash%20Course%20-%20Evaluation.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture&#32;2&#32;-&#32;Closed&#32;Captions.md)\n| **3:**&nbsp;Crash&nbsp;Course&nbsp;IR&nbsp;Test&nbsp;Collections     | We get to know existing IR test collections, look at how to create your own, and survey potential biases & their effect in the data | [YouTube](https:\u002F\u002Fyoutu.be\u002FpRRveh3D0pI) | [PDF](advanced-information-retrieval\u002FLecture%203%20-%20Crash%20Course%20-%20Test%20Collections.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture%203%20-%20Closed%20Captions.md)\n| **4:**&nbsp;Word&nbsp;Representation&nbsp;Learning     | We take a look at word representations and basic word embeddings including a usage example in Information Retrieval| [YouTube](https:\u002F\u002Fyoutu.be\u002Ff3nM6DKVwug) | [PDF](advanced-information-retrieval\u002FLecture%204%20-%20Word%20Representation%20Learning.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture%204%20-%20Closed%20Captions.md)\n| **5:**&nbsp;Sequence&nbsp;Modelling     | We look at CNNs and RNNs for sequence modelling, including the basics of the attention mechanism. | [YouTube](https:\u002F\u002Fyoutu.be\u002F7Bfj_UuJh38) | [PDF](advanced-information-retrieval\u002FLecture%205%20-%20Sequence%20modelling%20in%20NLP.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture%205%20-%20Closed%20Captions.md)\n| **6:**&nbsp;Transformer&nbsp;&&nbsp;BERT     | We study the Transformer architecture; pre-training with BERT, the HuggingFace ecosystem where the community can share models; and overview Extractive Question Answering (QA). | [YouTube](https:\u002F\u002Fyoutu.be\u002FMt7UJNKxscA) | [PDF](advanced-information-retrieval\u002FLecture%206%20-%20Transformer%20and%20BERT%20Pre-training.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture%206%20-%20Closed%20Captions.md)\n| **7:**&nbsp;Introduction&nbsp;to Neural&nbsp;Re&#8209;Ranking     | We look at the workflow (including training and evaluation) of neural re-ranking models and some basic neural re-ranking architectures. | [YouTube](https:\u002F\u002Fyoutu.be\u002FGSixIsI1eZE) | [PDF](advanced-information-retrieval\u002FLecture%207%20-%20Introduction%20to%20Neural%20Re-Ranking.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture%207%20-%20Closed%20Captions.md)\n| **8:**&nbsp;Transformer&nbsp;Contextualized Re&#8209;Ranking     | We learn how to use Transformers (and the pre-trained BERT model) for neural re-ranking - for the best possible results and more efficient approaches, where we tradeoff quality for performance. | [YouTube](https:\u002F\u002Fyoutu.be\u002FFle-jKzV-Rk) | [PDF](advanced-information-retrieval\u002FLecture%208%20-%20Transformer%20Contextualized%20Re-Ranking.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture%208%20-%20Closed%20Captions.md)\n| **9:**&nbsp;Domain&nbsp;Specific&nbsp;Applications *Guest&nbsp;lecture&nbsp;by&nbsp;@sophiaalthammer*    | We learn how about different task settings, challenges, and solutions in domains other than web search. | [YouTube](https:\u002F\u002Fyoutu.be\u002FrHXTpHIiq6U) | [PDF](advanced-information-retrieval\u002FLecture%209%20-%20Domain%20Specific%20Applications.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture%209%20-%20Closed%20Captions.md)\n| **10:**&nbsp;Dense&nbsp;Retrieval ❤&nbsp;Knowledge&nbsp;Distillation | We learn about the (potential) future of search: dense retrieval. We study the setup, specific models, and how to train DR models. Then we look at how knowledge distillation greatly improves the training of DR models and topic aware sampling to get state-of-the-art results. | [YouTube](https:\u002F\u002Fyoutu.be\u002FEJ_7Gx6amt8) | [PDF](advanced-information-retrieval\u002FLecture%2010%20-%20Dense%20Retrieval%20and%20Knowledge%20Distillation.pdf)            | [Transcript](advanced-information-retrieval\u002FLecture%2010%20-%20Closed%20Captions.md)\n\n### Neural IR & Extractive QA Exercise\n\nIn this exercise your group is implementing neural network re-ranking models, using pre-trained extractive QA models, and analyze their behavior with respect to our FiRA data.\n\n📃 [To the 2021 assignment](advanced-information-retrieval\u002Fneural-ir-exercise-2021\u002FAssignment.md)\n\n📃 [To the 2022 assignment](advanced-information-retrieval\u002Fneural-ir-exercise-2022\u002FAssignment.md)\n\n----\n\n\u003Ca id=\"workflow\">\u003C\u002Fa>\n## Our Time-Optimized Content Creation Workflow for Remote Teaching\n\nOur workflow creates an engaging remote learning experience for a university course, while minimizing the post-production time of the educators. We make use of ubiquitous and commonly free services and platforms, so that our workflow is inclusive for all educators and provides polished experiences for students. Our learning materials provide for each lecture: 1) a recorded video, uploaded on YouTube, with exact slide timestamp indices, which enables an enhanced navigation UI; and 2) a high-quality flow-text automated transcript of the narration with proper punctuation and capitalization, improved with a student participation workflow on GitHub. We automate the transformation and post-production between raw narrated slides and our published materials with custom tools.\n\n![Workflow Overview](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsebastian-hofstaetter_teaching_readme_3fc7b674109f.png)\n\nHead over to our [workflow folder](workflow) for more information and our custom python-based transformation tools. Or check out our full paper for an in-depth evaluation of our methods published at the SIGCSE Technical Symposium 2022: \n\n*A Time-Optimized Content Creation Workflow for Remote Teaching*  Sebastian Hofstätter, Sophia Althammer, Mete Sertkan and Allan Hanbury https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.05601\n","# 你好 👋 欢迎来到我的教学资料！\n\n我在维也纳工业大学（TU Wien）从事信息检索研究，主要负责[获奖](https:\u002F\u002Ftwitter.com\u002Fs_hofstaetter\u002Fstatus\u002F1446193420222050309)的硕士级高级信息检索课程。我致力于制作引人入胜、有趣且内容丰富的讲座和练习——无论是线下还是线上！\n\n*如果您想添加内容、发现错误，或者认为某些部分需要更清晰地解释，请随时提交问题或拉取请求！*\n\n### 目录\n\n- [高级信息检索 2021 & 2022](#air-2022)\n\n- [我们的内容创作工作流程](#workflow)\n\n----\n\n\u003Ca id=\"air-2022\">\u003C\u002Fa>\n## 高级信息检索 2021 & 2022\n\n**🏆 荣获 2021 年 TU Wien 最佳远程教学奖**\n\n信息检索是搜索技术背后的科学基础。最直观的例子莫过于谷歌、必应等大型网络搜索引擎，但事实上，只要我们处理非结构化数据（例如自由文本），就会用到信息检索技术。\n\n**范式转变。** 自 2019 年起，信息检索研究领域经历了一场巨大的范式转变：研究人员开始广泛利用基于 BERT 的语言模型，并结合大规模训练数据，在搜索结果的质量上取得了显著提升。本课程旨在展示当前先进信息检索研究中的一些成果，帮助大家了解下一代搜索引擎的发展方向。\n\n----\n\n**2022 年新增：** 使用 GitHub Discussions 提问关于课程的问题吧！\n\n----\n\n![教学大纲](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsebastian-hofstaetter_teaching_readme_21806243b65c.png)\n*高级信息检索课程教学大纲概览*\n\n### 讲座\n\n在下文中，我们提供了讲座的录像、幻灯片和字幕链接。完整的播放列表请见 [YouTube](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLSg1mducmHTPZPDoal4m59pPxxsceXF-y)。\n\n| 主题                  | 描述                                                                     | 录像  | 幻灯片  | 文本  |\n| -------------          | -------------                                                                   |-------------                 | -----       | -----         |\n| **0:**&nbsp;导论 2022        | 课程要求、主题及组织安排相关信息                                     | [YouTube](https:\u002F\u002Fyoutu.be\u002FRBgyq7nYc3M) | [PDF](advanced-information-retrieval\u002FLecture&#32;0&#32;-&#32;Course&#32;Introduction.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture&#32;0&#32;-&#32;Closed&#32;Captions.md)            |\n| **1:**&nbsp;信息检索基础速成课     | 我们探讨信息检索的两个基本构建模块：索引和排序检索 | [YouTube](https:\u002F\u002Fyoutu.be\u002FZC94KSDd4DM) | [PDF](advanced-information-retrieval\u002FLecture%201%20-%20Crash%20Course%20-%20Fundamentals.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture&#32;1&#32;-&#32;Closed&#32;Captions.md)\n| **2:**&nbsp;信息检索评估速成课     | 我们探讨如何评估排序检索结果以及常见的信息检索指标（MRR、MAP、NDCG） | [YouTube](https:\u002F\u002Fyoutu.be\u002FEiDltQZ713I) | [PDF](advanced-information-retrieval\u002FLecture%202%20-%20Crash%20Course%20-%20Evaluation.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture&#32;2&#32;-&#32;Closed&#32;Captions.md)\n| **3:**&nbsp;信息检索测试集速成课     | 我们了解现有的信息检索测试集，学习如何创建自己的测试集，并探讨数据中可能存在的偏差及其影响 | [YouTube](https:\u002F\u002Fyoutu.be\u002FpRRveh3D0pI) | [PDF](advanced-information-retrieval\u002FLecture%203%20-%20Crash%20Course%20-%20Test%20Collections.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture%203%20-%20Closed%20Captions.md)\n| **4:**&nbsp;词表示学习     | 我们介绍词表示方法和基础的词嵌入技术，并结合信息检索中的应用实例进行说明 | [YouTube](https:\u002F\u002Fyoutu.be\u002Ff3nM6DKVwug) | [PDF](advanced-information-retrieval\u002FLecture%204%20-%20Word%20Representation%20Learning.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture%204%20-%20Closed%20Captions.md)\n| **5:**&nbsp;序列建模     | 我们讨论用于序列建模的卷积神经网络和循环神经网络，包括注意力机制的基础知识。 | [YouTube](https:\u002F\u002Fyoutu.be\u002F7Bfj_UuJh38) | [PDF](advanced-information-retrieval\u002FLecture%205%20-%20Sequence%20modelling%20in%20NLP.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture%205%20-%20Closed%20Captions.md)\n| **6:**&nbsp;Transformer与BERT     | 我们研究Transformer架构；使用BERT进行预训练，以及HuggingFace生态系统的模型共享机制；并概述抽取式问答（QA）。 | [YouTube](https:\u002F\u002Fyoutu.be\u002FMt7UJNKxscA) | [PDF](advanced-information-retrieval\u002FLecture%206%20-%20Transformer%20and%20BERT%20Pre-training.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture%206%20-%20Closed%20Captions.md)\n| **7:**&nbsp;神经重排序简介     | 我们介绍神经重排序模型的工作流程（包括训练和评估）以及一些基础的神经重排序架构。 | [YouTube](https:\u002F\u002Fyoutu.be\u002FGSixIsI1eZE) | [PDF](advanced-information-retrieval\u002FLecture%207%20-%20Introduction%20to%20Neural%20Re-Ranking.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture%207%20-%20Closed%20Captions.md)\n| **8:**&nbsp;基于Transformer的上下文感知重排序     | 我们学习如何利用Transformer（以及预训练的BERT模型）进行神经重排序——以获得最佳效果，同时通过权衡质量与性能来提升效率。 | [YouTube](https:\u002F\u002Fyoutu.be\u002FFle-jKzV-Rk) | [PDF](advanced-information-retrieval\u002FLecture%208%20-%20Transformer%20Contextualized%20Re-Ranking.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture%208%20-%20Closed%20Captions.md)\n| **9:**&nbsp;领域特定应用 *由@sophiaalthammer主讲*    | 我们探讨除网页搜索之外的其他领域的不同任务场景、挑战及解决方案。 | [YouTube](https:\u002F\u002Fyoutu.be\u002FrHXTpHIiq6U) | [PDF](advanced-information-retrieval\u002FLecture%209%20-%20Domain%20Specific%20Applications.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture%209%20-%20Closed%20Captions.md)\n| **10:**&nbsp;密集检索 ❤&nbsp;知识蒸馏 | 我们探讨搜索技术的未来方向：密集检索。我们将研究其系统架构、具体模型以及如何训练密集检索模型。随后，我们将介绍知识蒸馏如何显著提升密集检索模型的训练效率，以及如何通过主题感知采样获得最先进的效果。 | [YouTube](https:\u002F\u002Fyoutu.be\u002FEJ_7Gx6amt8) | [PDF](advanced-information-retrieval\u002FLecture%2010%20-%20Dense%20Retrieval%20and%20Knowledge%20Distillation.pdf)            | [文字稿](advanced-information-retrieval\u002FLecture%2010%20-%20Closed%20Captions.md)\n\n### 神经信息检索与抽取式问答练习\n\n在本次练习中，你们的小组将实现基于神经网络的重排序模型，使用预训练的抽取式问答模型，并针对我们的FiRA数据分析其行为。\n\n📃 [2021年作业](advanced-information-retrieval\u002Fneural-ir-exercise-2021\u002FAssignment.md)\n\n📃 [2022年作业](advanced-information-retrieval\u002Fneural-ir-exercise-2022\u002FAssignment.md)\n\n----\n\n\u003Ca id=\"workflow\">\u003C\u002Fa>\n\n## 面向远程教学的时间优化型内容创作工作流\n\n我们的工作流旨在为大学课程打造引人入胜的远程学习体验，同时最大限度地缩短教师的后期制作时间。我们充分利用普及且通常免费的服务与平台，确保该工作流对所有教师都具有包容性，并为学生提供高质量的学习体验。针对每堂课，我们的学习材料包括：1）录制好的视频，上传至YouTube，并附上精确的幻灯片时间戳索引，从而实现更便捷的导航界面；以及2）高质量、自动化的流畅文本转录稿，配有规范的标点符号和大小写，并通过GitHub上的学生参与流程进一步优化。我们借助自定义工具，实现了从原始旁白幻灯片到最终发布材料之间的自动化转换与后期制作。\n\n![工作流概览](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsebastian-hofstaetter_teaching_readme_3fc7b674109f.png)\n\n如需了解更多信息及我们的基于Python的自定义转换工具，请访问我们的[工作流文件夹](workflow)。您也可以查阅我们在2022年SIGCSE技术研讨会上发表的完整论文，其中对我们方法进行了深入评估：\n\n*面向远程教学的时间优化型内容创作工作流*  Sebastian Hofstätter, Sophia Althammer, Mete Sertkan 和 Allan Hanbury https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.05601","# Teaching 快速上手指南\n\n**注意**：`teaching` 并非一个可安装的软件库或开发工具，而是维也纳技术大学（TU Wien）高级信息检索（Advanced Information Retrieval, AIR）课程的**开源教学资料仓库**。本指南旨在帮助开发者高效获取和利用这些学习资源。\n\n## 环境准备\n\n由于本项目主要为文档、视频链接和幻灯片，无需复杂的编译环境。建议准备以下环境以获得最佳学习体验：\n\n*   **操作系统**：Windows \u002F macOS \u002F Linux 均可\n*   **基础依赖**：\n    *   Web 浏览器（推荐 Chrome 或 Edge，用于观看 YouTube 视频和查看 PDF）\n    *   Git（用于克隆仓库获取本地副本）\n    *   Python 3.x（可选，仅当你希望运行仓库中提供的“内容创建工作流”自动化脚本时需要）\n*   **网络要求**：\n    *   需要能够访问 **YouTube** 以观看课程录像。\n    *   需要能够访问 **GitHub** 以查看讨论区（Discussions）和提交 Issue。\n\n## 安装步骤（获取资料）\n\n你可以通过 Git 克隆仓库到本地，以便离线查看幻灯片和文本转录稿。\n\n1.  **克隆仓库**\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fsebastian-hofstaetter\u002Fteaching.git\n    cd teaching\n    ```\n\n2.  **浏览目录结构**\n\n    核心课程内容位于 `advanced-information-retrieval\u002F` 目录下：\n\n    ```bash\n    ls advanced-information-retrieval\u002F\n    ```\n\n    *注：若需使用其自动化的内容生成工作流工具，请进入 `workflow\u002F` 目录并安装相关 Python 依赖（具体参考该目录下的说明）。*\n\n## 基本使用\n\n本仓库的核心价值在于其结构化的课程资源。以下是最高效的使用路径：\n\n### 1. 在线学习（推荐）\n\n直接访问课程主页或 YouTube 播放列表，按照课程大纲顺序学习。\n\n*   **YouTube 播放列表**: [Advanced Information Retrieval Playlist](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLSg1mducmHTPZPDoal4m59pPxxsceXF-y)\n*   **课程大纲与资源索引**: 查看 README 中的 \"Lectures\" 表格，每一讲都包含：\n    *   **Recordings**: YouTube 视频链接\n    *   **Slides**: PDF 课件下载链接\n    *   **Text**: 封闭字幕\u002F转录文本（Markdown 格式）\n\n### 2. 核心学习路径示例\n\n建议按以下顺序阅读本地文件或点击链接学习：\n\n1.  **基础入门**:\n    *   阅读 [Lecture 0: Introduction](advanced-information-retrieval\u002FLecture%200%20-%20Course%20Introduction.pdf) 了解课程要求。\n    *   观看 [Lecture 1: IR Fundamentals](https:\u002F\u002Fyoutu.be\u002FZC94KSDd4DM) 学习索引和排序检索基础。\n\n2.  **进阶模型**:\n    *   学习 [Lecture 6: Transformer & BERT](https:\u002F\u002Fyoutu.be\u002FMt7UJNKxscA) 理解预训练语言模型。\n    *   学习 [Lecture 10: Dense Retrieval](https:\u002F\u002Fyoutu.be\u002FEJ_7Gx6amt8) 掌握最新的稠密检索技术。\n\n3.  **实践练习**:\n    *   查看 `advanced-information-retrieval\u002Fneural-ir-exercise-2022\u002FAssignment.md` 获取神经网络重排序模型的编程作业说明。\n\n### 3. 参与互动\n\n*   **提问与讨论**: 使用 GitHub 的 **Discussions** 功能询问关于讲座内容的问题。\n*   **贡献内容**: 如果发现错误或希望改进解释，欢迎提交 Issue 或 Pull Request。","某高校计算机系讲师正准备开设一门面向硕士生的“高级信息检索”课程，旨在帮助学生掌握从传统搜索算法到基于 BERT 的大模型搜索技术的范式转变，但面临课程内容更新快、教学资源分散的挑战。\n\n### 没有 teaching 时\n- **知识体系滞后**：信息检索领域正经历向预训练语言模型（如 BERT）的巨大范式转移，讲师需独自梳理海量最新论文，难以快速构建涵盖前沿技术（如大规模训练数据下的质量跃升）的系统化教案。\n- **评估标准模糊**：在讲解 MRR、MAP、NDCG 等核心评价指标时，缺乏统一的测试数据集和标准化的评估案例，导致学生难以直观理解不同指标对排序结果的具体影响。\n- **教学资源碎片化**：视频录像、幻灯片讲义和文字转录稿分散在不同平台，学生复习时需多处跳转，且缺乏配套的交互式练习，学习体验割裂，参与度低。\n- **实践环节薄弱**：缺少关于如何创建无偏见的测试集合（Test Collections）的实操指导，学生在处理非结构化数据（如自由文本）时，容易忽略数据偏差对搜索效果的负面影响。\n\n### 使用 teaching 后\n- **前沿内容现成可用**：直接复用 TU Wien 获奖课程中关于 BERT 模型在 IR 中应用的成熟模块，快速将“下一代搜索引擎”的前沿研究融入教学，确保课程内容与技术发展同步。\n- **标准化评估演示**：利用课程提供的经典评估案例和测试集合构建方法，清晰展示各类指标的计算逻辑与适用场景，帮助学生建立严谨的实验评估思维。\n- **一站式学习体验**：整合 YouTube 视频录播、PDF 幻灯片及封闭字幕文本，提供结构化的学习路径；通过 GitHub Discussions 建立互动社区，即时解答疑问，提升在线学习效率。\n- **强化实战能力**：借助关于词表示学习和测试集创建的详细习题，引导学生动手实践，深入理解数据偏差及其对检索效果的影响，提升处理真实世界非结构化数据的能力。\n\nteaching 通过提供系统化、前沿且经过验证的教学资源，极大降低了高级信息检索课程的建设门槛，提升了教学质量与学生的学习成效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsebastian-hofstaetter_teaching_e4362fcf.png","sebastian-hofstaetter","Sebastian Hofstätter","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsebastian-hofstaetter_902b37a8.jpg","Multimodal Agents @cohere-ai;\r\n\r\nPhD in efficient neural information retrieval from TU Vienna","Cohere",null,"s_hofstaetter","https:\u002F\u002Fgithub.com\u002Fsebastian-hofstaetter",[85,89,93],{"name":86,"color":87,"percentage":88},"Python","#3572A5",78.8,{"name":90,"color":91,"percentage":92},"Jupyter Notebook","#DA5B0B",16.7,{"name":94,"color":95,"percentage":96},"C#","#178600",4.5,701,94,"2026-03-24T10:56:58","GPL-3.0",1,"","未说明",{"notes":105,"python":103,"dependencies":106},"该仓库主要为维也纳理工大学（TU Wien）高级信息检索课程的教学材料（包括讲座视频、幻灯片、转录文本及作业说明），并非一个可直接运行的独立软件工具。README 中提到的 'custom python-based transformation tools'（基于 Python 的自定义转换工具）位于 workflow 文件夹中，但 README 正文未提供其具体的环境配置、依赖库或硬件需求详情。内容涉及 BERT、Transformer 等模型的理论教学与练习，若需运行相关练习代码，需参考具体的作业链接（Assignment.md），但当前文档未包含这些技术细节。",[],[13,54],[109,110,67,111,112,113,114,115,116],"information-retrieval","education","search-engine","neural-ir","deep-learning","course","dpr","remote-teaching","2026-03-27T02:49:30.150509","2026-04-06T08:46:26.712211",[120,125,130,135,140,145],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},11580,"如何引用这些讲座内容？","如果您需要引用，请使用以下论文：\n\nA Time-Optimized Content Creation Workflow for Remote Teaching\n作者：Sebastian Hofstätter, Sophia Althammer, Mete Sertkan and Allan Hanbury\n链接：https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.05601","https:\u002F\u002Fgithub.com\u002Fsebastian-hofstaetter\u002Fteaching\u002Fissues\u002F147",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},11581,"是否提供讲座的 PowerPoint (PPT) 源文件？","不提供。由于制作流程的原因，PowerPoint 文件中嵌入了所有音频，导致文件体积非常大且不便分享，因此不公开发布。建议直接使用提供的 PDF 文件。","https:\u002F\u002Fgithub.com\u002Fsebastian-hofstaetter\u002Fteaching\u002Fissues\u002F41",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},11582,"我发现 YouTube 视频中的字幕有错误或缺失，该如何贡献修正？","您可以前往仓库中对应的讲座字幕 Markdown 文件（例如 Lecture X - Closed Captions.md）进行修正并提交 Pull Request。维护者在合并 PR 后，会将修正后的内容同步更新到 YouTube 的字幕中。在开始工作前，建议在相关的 Issue 下留言以避免重复劳动。","https:\u002F\u002Fgithub.com\u002Fsebastian-hofstaetter\u002Fteaching\u002Fissues\u002F44",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},11583,"如何参与修复特定讲座（如 Lecture 2, 3, 4 等）的字幕错误？","每个讲座都有对应的协调 Issue（例如 \"AIR'21 - Lecture X Fix closed captions\"）。如果您想修复错误，请先在该 Issue 下简短留言声明您要处理，以防止其他人同时工作。然后您可以编辑对应的 Closed Captions 文件并提交 Pull Request。","https:\u002F\u002Fgithub.com\u002Fsebastian-hofstaetter\u002Fteaching\u002Fissues\u002F15",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},11584,"为什么某些讲座的字幕中缺少标题或存在拼写错误？","这通常是因为自动生成或初始转录过程中的遗漏。社区成员可以通过检查幻灯片内容来补充缺失的标题，并修正拼写错误（如 \"wamt\" 应为 \"want\"）。发现此类问题后，可以直接在对应的字幕协调 Issue 中报告或直接提交修正 PR。","https:\u002F\u002Fgithub.com\u002Fsebastian-hofstaetter\u002Fteaching\u002Fissues\u002F18",{"id":146,"question_zh":147,"answer_zh":148,"source_url":129},11585,"如果我想基于这些材料进行教学研究（如从 PPT 生成视频），能否获取无音频的 PPT 样本？","目前无法提供。因为现有的 PPT 文件均嵌入了音频，导致文件过大。维护者建议直接使用现有的 PDF 讲义进行研究或实验，而不提供原始的 PPT 文件。",[]]