Learn Llm
Learn Llm
February 17, 2025
pre-training
https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1
100000 symbols(tokens) raw text —>tokenization —> token
tokenization
https://tiktokenizer.vercel.app/?model=cl100k_base
statistic token simulator
- 这就是所谓的 prediction
- 参数 各个 token 的权重
- 模型有大量的知识,存储在上亿的参数之中。这些参数可以视为对超大规模的知识进行的一种有损压缩。超大规模知识的模糊记忆。
- 按照统计规律给出所谓的答案
- 模型需要中间结果
- 概率、统计
- in-context learning
post-training
对话集结构 —> 一维 token 序列
instruct-gpt
强化学习 reinforcement learning 监督学习 supervised earning supervised-fine-tuning
References
Last updated on