LogoCookLLM文档
LogoCookLLM文档
首页CookLLM

原理精讲

词元化
Tokenization 基础BPE 算法详解GPT 系列 TokenizerBPE 训练工程化
模型架构
Attention 机制详解
Engram
GPU 编程基础
GPU 架构基础张量布局Triton 入门:向量加法
FlashAttention
Flash Attention 原理详解从朴素实现到 Auto-TuningBlock Pointer 与多维支持Causal Masking 优化Grouped Query Attention反向传播实现

动手训练

基础知识词元化

BPE 算法详解

会员专享

深入 Byte Pair Encoding 原理,手动实现训练、编码和解码

配套代码

登录以继续阅读

这是一篇付费内容,请登录您的账户以访问完整内容。

Tokenization 基础

为什么需要 Tokenization?从字符级到子词级,理解 Unicode 和 UTF-8 编码

GPT 系列 Tokenizer

GPT-2/GPT-4 的 Tokenization 方案,Regex 预处理与 tiktoken 库

目录

BPE 算法的核心思想
BPE 算法步骤
第 1 轮:找到最频繁的字节对
第 2 轮:继续合并
迭代过程
实现 BPE:核心函数
1. 统计字节对频率
2. 合并字节对
3. 训练 BPE
编码和解码
编码:文本 → Tokens
解码:Tokens → 文本
完整示例
BPE 的优势
总结