#每天一个知识点# TinyLlama-1.1B模型,由新加坡科技设计大学研究团队开发,具有11亿参数,针对边缘设备优化。在3万亿token上预训练,基于Llama 2架构,提供出色的性能。这种轻量级模型展现了在计算资源受限环境下的巨大应用潜力。TinyLlama在多项任务中表现优异,超越同等大小的现有模型,如OPT-1.3B和Pythia1.4B,充分显示了小型模型的强大性能。Huggingface模型下载:
huggingface.co AI快站模型免费加速下载:
aifasthub.com
展开
7
32
![[灵光一现]](http://lf-web-assets.juejin.cn/obj/juejin-web/xitu_juejin_web/img/jj_emoji_25.51e6984.png)