Skip to content

Latest commit

 

History

History
378 lines (283 loc) · 21.3 KB

File metadata and controls

378 lines (283 loc) · 21.3 KB

分类整理

  1. 综合教程与课程(理论+实践)

    1. 《动手学大模型应用开发》: Datawhale的开源教程,覆盖大模型基础、开发与应用,适合初学者系统学习。

    2. 《面向开发者的 LLM 入门教程》: 吴恩达大模型系列课程中文版,Datawhale翻译整理,适合开发者入门。

    3. 《开源大模型食用指南》: 针对中国宝宝量身打造的基于Linux环境快速微调(全参数/Lora)、部署国内外开源大模型(LLM)/多模态大模型(MLLM)教程。

    4. 《动手学大模型Dive into LLMs》: 系列编程实践教程(含PPT、实验手册和视频),由上海交通大学《人工智能安全技术》课程拓展而来,主题包括数学推理、GUI Agent、大模型对齐等。

    5. 《从零开始的大语言模型原理与实践教程》: Datawhale出品,从原理到实践的系统教程。

    6. 《AI-Guide-and-Demos》: 一份入门AI/LLM大模型的逐步指南,包含教程和演示代码,带你从API走进本地大模型部署和微调,代码文件提供Kaggle或Colab在线版本。

    7. Large Language Models (LLMs) with Colab notebooks: 提供Colab笔记本,边学边练,适合动手实践。

    8. LLM-Action: 聚焦大模型实战项目,适合进阶开发者。

  2. 视频资源(B站/YTB)

    1. B站:五里墩茶社木羽Cheney漆妮妮TechBeat人工智能社区等,内容涵盖大模型基础、算法解析和项目实战,适合初学者和爱好者。

    2. YouTube:AI AnytimeAI超元域IBM Technology,提供英文内容,适合了解国际前沿动态。

    3. Unify Reading Paper Group:论文解读,适合深入研究大模型理论。

  3. 博客与文章(深入理论与实践)

    1. Huggingface Blog:提供大模型工具、框架和案例,适合开发者参考。

    2. Lil’Log (OponAI):OpenAI研究员博客,深入解析大模型技术,适合进阶学习。

    3. 科学空间(苏剑林):中文AI博客,理论与代码结合,适合国内开发者。

    4. Chip Huyenmlabonne:英文博客,分享大模型开发经验与趋势。

  4. Prompt工程与可视化

    1. Prompt Engineering Guide:Prompt设计的最佳实践,适合优化大模型交互。

    2. LLM Visualization:大模型结构可视化,助力理解Transformer等核心概念。

    3. 100+ LLM/RL 算法原理图 ⭐ 强烈推荐!:《大模型算法:强化学习、微调与对齐》作者余昌叶的100+张原创算法原理图,涵盖Transformer架构、注意力机制、SFT微调、LoRA/QLoRA、DPO/PPO/GRPO、RLHF全流程、逻辑推理优化等。通过可视化图解深入理解算法的数学推导和实现细节,算法岗必看!配套书籍:《大模型算法:强化学习、微调与对齐》

    4. Interactive Transformer Explainer:交互式可视化工具,帮助理解Transformer内部工作机制。

  5. 大模型微调入门与实战

    1. 大模型微调系列教程(Datawhale): 从基础到实战的微调教程,适合初学者入门。

    2. 大模型微调实战进阶: 进阶微调技术详解。

    3. 大模型微调最佳实践: 生产环境微调经验分享。

    4. 大模型微调技巧与优化: 微调技巧与性能优化方法。

  6. 进阶与实战工具

    1. How Much VRAM:帮助评估大模型训练的显存需求,适合硬件选型。

    2. Implementation of all RAG techniques:RAG(检索增强生成)技术实现,适合开发知识密集型应用。

    3. W&B articles:Weights & Biases的文章,分享模型训练与调优技巧。

  7. 理论书籍与资源

    1. Theoretical Machine Learning: A Handbook for Everyone:机器学习理论手册,适合打牢基础。

学习建议

补充资源

  • DeepLearning.AI:提供大模型与AI开发的免费/付费课程,Andrew Ng团队出品。

  • Fast.ai:实用深度学习课程,适合快速上手。

  • GitHub Awesome-LLM:大模型资源合集,包含论文、工具和数据集。

全面总结:大模型学习资源

1. 大学课程

斯坦福大学

  • CS25: Transformers United V5 (2025)

    • 内容:探讨Transformer最新突破,邀请Google DeepMind的Denny Zhou、OpenAI的Karina Nguyen、Hongyu Ren及Meta的Andrew Brown等讲者。
    • 形式:免费开放,现场旁听或Zoom直播(每周二太平洋夏令时间15:00-16:20,北京时间周三06:00-07:20),视频上传至YouTube。
    • 资源https://web.stanford.edu/class/cs25/, 第一期视频:https://www.youtube.com/watch?v=JKbtWimlzAE
    • 评价:前沿性强,适合跟踪最新研究动态,适合中高级学习者。
  • CS25: Transformers United (往期)

    • V2 - Geoffrey Hinton: Representing Part-Whole Hierarchies:提出GLOM模型,增强Transformer视觉任务表现,探讨自注意力机制瓶颈。
    • V2 - Andrej Karpathy: Introduction to Transformers:系统讲解自注意力、多头注意力及Vision Transformer。
    • V3 - Douwe Kiela: Retrieval Augmented Language Models:深入RAG技术,分析其解决幻觉和时效性问题的潜力。
    • V4 - Jason Wei & Hyung Won Chung:探讨LLM直观理解、扩展律及Transformer多模态潜力。
      • 评价:内容深入,适合中高级学习者复习LLM理论。
  • CS224N: Natural Language Processing with Deep Learning

  • CS324: Large Language Models

卡内基梅隆大学

  • 11-711 ANLP: Advanced Natural Language Processing
    • 内容:涵盖语言模型、序列建模、Transformer、提示与微调,提供课件下载。
    • 链接https://phontron.com/class/anlp2024/lectures/
    • 评价:内容全面,适合中高级学习者复习NLP核心技术。

其他大学

2. 在线课程与教程

DeepLearning.AI

OpenAI

Hugging Face

微软

其他

3. 开源资源与教程

4. 专题资源

5. 社区与中文资源


入门与复习必看课程

入门必看

  1. Andrej Karpathy - Neural Networks: Zero to Hero
  2. DeepLearning.AI - Generative AI for Everyone
  3. Hugging Face - NLP Course
  4. 斯坦福 CS25 V2 - Andrej Karpathy: Introduction to Transformers

复习必看

  1. 斯坦福 CS25 V2 - Geoffrey Hinton: Representing Part-Whole Hierarchies
  2. 斯坦福 CS25 V3 - Douwe Kiela: Retrieval Augmented Language Models
  3. 清华大学NLP公开课(刘知远团队)
  4. DeepLearning.AI - Knowledge Graphs for RAG

学习路径建议

入门路径(1-2个月)

  1. 概念入门:学习《Generative AI for Everyone》(1周),快速了解大模型全貌。
  2. Transformer基础:观看《Andrej Karpathy - Introduction to Transformers》(1天),掌握自注意力机制。
  3. 实践上手:通过《Hugging Face - NLP Course》训练简单模型(2-3周)。
  4. 深入代码:完成《Andrej Karpathy - Build nanoGPT》,从头实现GPT(2-3周)。

复习路径(1个月)

  1. 理论梳理:重温《Geoffrey Hinton - Representing Part-Whole Hierarchies》(1天),理解Transformer局限性。
  2. RAG巩固:学习《Douwe Kiela - Retrieval Augmented Language Models》和《Knowledge Graphs for RAG》(1-2周)。
  3. 中文视角:复习《清华大学NLP公开课》,梳理本地化应用(1周)。
  4. 前沿跟踪:关注CS25 V5最新讲座(https://web.stanford.edu/class/cs25/),了解2025年进展。

其他建议

  • 实践驱动:利用nanoGPT、LLMs From Scratch等项目进行开发实践。
  • 社区参与:加入OpenAI Academy或Hugging Face社区,与专家交流。
  • 持续学习:定期关注DeepLearning.AI、斯坦福CS25等平台更新。