LLaMA开源语言模型技术进展全解析

21 阅读1分钟

LLaMA第三周技术进展

就在三周前,某机构发布了名为LLaMA的新型开源语言模型。它甚至还不是完全开源的——仅开源了代码,权重尚未广泛发布。(至少官方渠道如此)

尽管如此,围绕它已经构建了大量项目。

这很像Stable Diffusion最初几周的情况。正如Simon Willison本周早些时候阐述的那样,与Stable Diffusion类似,LLaMA易于在自有硬件上运行,规模足够大且实用,并且开源程度足以进行修改。

以下是本周部分技术进展:

  • llama.cpp – Georgi Geranov实现的LLaMA C/C++移植版本
  • 斯坦福Alpaca – 经过指令微调的LLaMA变体
  • 树莓派运行LLaMA – Artem Andreenko实现的树莓派部署方案
  • Pixel 5运行LLaMA – Georgi Gerganov实现的手机端部署
  • 单命令运行LLaMA和Alpaca – npx dalai llama一键部署工具
  • alpaca.cpp – Kevin Kwok基于llama.cpp的Alpaca实现
  • Cog和某平台运行LLaMA – 模型部署方案
  • 即时加载LLaMA模型 – Justine Tunney的优化方案
  • Rust语言实现 – setzer22的Rust版本LLaMA
  • 本地训练和运行斯坦福Alpaca – 自主训练方案
  • Alpaca-LoRA – Eric J. Wang提出的低秩指令微调方法
  • 荷马·辛普森风格微调 – 个性化风格训练技术
  • Llamero – Marcel Pociot开发的图形界面测试工具

开源语言模型显然正处于快速发展阶段。我们期待看到下周的进一步技术突破。