← 返回

必读论文

了解这些论文,你就能理解 LLM 的发展脉络和核心技术。

奠基之作

1. Attention Is All You Need (2017)

阅读论文 →

如果只读一篇论文,选这篇。理解了 Transformer,就理解了一切。

规模化的证明

2. Language Models are Few-Shot Learners - GPT-3 (2020)

阅读论文 →

对齐与安全

3. Training Language Models to Follow Instructions - InstructGPT (2022)

阅读论文 →

4. Constitutional AI: Harmlessness from AI Feedback (2023)

阅读论文 →

开源模型

5. LLaMA: Open and Efficient Foundation Language Models (2023)

阅读论文 →

6. Llama 2: Open Foundation and Fine-Tuned Chat Models (2023)

阅读论文 →

高效架构

7. Mixtral of Experts (2023)

阅读论文 →

8. Mixture-of-Experts Meets Instruction Tuning (2024)

阅读论文 →

长上下文

9. Effective Long-Context Scaling (2024)

阅读论文 →

微调方法

10. LoRA: Low-Rank Adaptation of Large Language Models (2021)

阅读论文 →

11. QLoRA: Efficient Finetuning of Quantized LLMs (2023)

阅读论文 →

阅读建议

进阶阅读

论文资源