LogoCookLLM文档
LogoCookLLM文档
首页CookLLM

原理精讲

词元化
Tokenization 基础BPE 算法详解GPT 系列 TokenizerBPE 训练工程化
模型架构
Attention 机制详解
Engram
GPU 编程基础
GPU 架构基础张量布局Triton 入门:向量加法
FlashAttention
Flash Attention 原理详解从朴素实现到 Auto-TuningBlock Pointer 与多维支持Causal Masking 优化Grouped Query Attention反向传播实现

动手训练

CookLLM

深入学习大语言模型的核心技术与实战应用

👋 课程介绍

欢迎来到 CookLLM!这是一个专注于大语言模型(LLM)技术的系统化课程,带你从原理到实践,真正理解 LLM。

为什么做 CookLLM?

我曾是一名CV算法工程师。CV算法的本质就是在不断解决 corner case / bad case,从性能和速度两个维度优化。在成熟的业务中,折腾一年指标提升 1% 已经算不错了。从技术演进来看,这个领域已经进入了存量精耕的阶段。

而大模型代表的是通用能力。它在未来必然会卷进一个又一个领域,只是时间问题。我不想在“存量”里雕花,我要去“增量”里造浪。

在这浪潮里,我不想做旁观者,我想做一个亲历者。

所以我开始自学大模型技术。但很快发现,这条路并不好走:

  • 资料零散 - 知识点散落在各种博客、论文、视频里,没有系统的学习路径
  • 论文难懂 - 数学公式看得头大,看完还是不知道怎么实现
  • 内容参差不齐 - 有些教程本身就有错误,浪费大量时间

我花了很多时间踩坑、整理、实践,逐渐形成了自己的学习体系。

CookLLM 就是我把这套体系整理出来,分享给和我一样想深入理解 LLM 的人。

这门课能给你什么?

  • 不只是调 API - 深入理解每个算法背后的原理
  • 代码可运行 - 每个知识点都有配套代码,clone 下来就能跑
  • 知识成体系 - 从基础到进阶,循序渐进
  • 中文原创 - 针对中文开发者,不是翻译

课程结构

原理精讲

深入理解 LLM 核心算法:词元化、Attention、GPU 编程、Flash Attention

动手训练

从零构建并训练一个小型语言模型:Tokenizer、Dataset、Model、Training

更多课程内容正在 cooking 中... 查看我们的 路线图 了解即将推出的内容!

适用人群

  • 想转型 AI 的开发者 - 有编程基础,想进入大模型领域
  • 想深入理解原理的算法工程师 - 不满足于调 API,想知道底层是怎么实现的
  • 想从零构建模型的学习者 - 想亲手训练一个模型,而不只是用别人的

会员专享

作为付费会员,你将获得:

  • ✅ 全部课程章节的完整访问权限
  • ✅ 高级技术深度解析
  • ✅ 完整的代码实现和项目模板
  • ✅ 持续更新的最新技术内容

获取帮助

  • 📕 在 小红书 上关注我们
  • 💬 加入我们的 Discord 社区
  • 🤗 访问我们的 Hugging Face 获取数据集和模型
  • 📧 通过 support@cookllm.com 联系支持团队

Tokenization

深入理解 LLM 的词元化机制,从 BPE 算法到 GPT 系列实现

目录

👋 课程介绍
为什么做 CookLLM?
这门课能给你什么?
课程结构
适用人群
会员专享
获取帮助