#每天一个知识点# TinyLlama-1.1B模型,由新加坡科技设计大学研究团队开发,具有11亿参数,针对边缘设备优化。在3万亿token上预训练,基于Llama 2架构,提供出色的性能。这种轻量级模型展现了在计算资源受限环境下的巨大应用潜力。TinyLlama在多项任务中表现优异,超越同等大小的现有模型,如OPT-1.3B和Pythia1.4B,充分显示了小型模型的强大性能。Huggingface模型下载:huggingface.co AI快站模型免费加速下载:aifasthub.com
展开
努力犯错玩AI于2024-02-03 10:24发布的图片
努力犯错玩AI于2024-02-03 10:24发布的图片
努力犯错玩AI于2024-02-03 10:24发布的图片
努力犯错玩AI于2024-02-03 10:24发布的图片
7