LogoCookLLM文档
LogoCookLLM文档
首页CookLLM

原理精讲

词元化
Tokenization 基础BPE 算法详解GPT 系列 TokenizerBPE 训练工程化
模型架构
Attention 机制详解
Engram
Engram 原理详解从零实现 Engram与 Transformer 集成
GPU 编程基础
GPU 架构基础张量布局Triton 入门:向量加法
FlashAttention
Flash Attention 原理详解从朴素实现到 Auto-TuningBlock Pointer 与多维支持Causal Masking 优化Grouped Query Attention反向传播实现

动手训练

基础知识模型架构Engram

Engram 原理详解

会员专享

从 Attention 的局限性出发,理解 N-gram 哈希编码与门控融合机制

配套代码
👨‍🍳

内容正在烹饪中...

我们正在为您精心准备高质量内容,敬请期待!

Engram

深入理解 DeepSeek 的 N-gram 记忆模块

从零实现 Engram

逐步构建压缩分词、多头嵌入、门控融合等核心组件

目录

Attention 的局限性
全局 vs 局部依赖
人类的短期记忆类比
N-gram 哈希原理
朴素方法:直接枚举
解决方案:哈希函数
XOR 混合公式
具体例子
Layer-Specific 哈希
直觉理解
实现方式
门控融合机制
为什么需要门控?
门控公式
Sqrt-Sign 激活函数
最终输出
总结