LogoCookLLM文档
LogoCookLLM文档
首页CookLLM

原理精讲

词元化
Tokenization 基础BPE 算法详解GPT 系列 TokenizerBPE 训练工程化
模型架构
Attention 机制详解
Engram
GPU 编程基础
GPU 架构基础张量布局Triton 入门:向量加法
FlashAttention
Flash Attention 原理详解从朴素实现到 Auto-TuningBlock Pointer 与多维支持Causal Masking 优化Grouped Query Attention反向传播实现

动手训练

基础知识词元化

GPT 系列 Tokenizer

会员专享

GPT-2/GPT-4 的 Tokenization 方案,Regex 预处理与 tiktoken 库

配套代码

登录以继续阅读

这是一篇付费内容,请登录您的账户以访问完整内容。

BPE 算法详解

深入 Byte Pair Encoding 原理,手动实现训练、编码和解码

BPE 训练工程化

从玩具数据到真实语料:内存优化、并行预分词、增量更新与时间-空间权衡

目录

GPT-2 的 Tokenization 方案
朴素 BPE 的问题
Regex 预处理的解决方案
工作流程
交互式演示:BPE 训练流程
GPT-4 的改进
词汇表大小对比
使用 tiktoken 库
安装和基本使用
对比不同 Tokenizer
查看 Token 的字节表示
特殊 Token
常见特殊 Token
处理特殊 Token
Token 计数与成本估算
总结