最近公司在推广自己的大模型平台,我也就顺势研究了一番,包括RAG、精调、开源、多模态内容。
2024阿里云云栖大会 有50%篇幅着重介绍大模型,我也受益匪浅。
发现 ollama 能很容易本地部署大模型,也能轻易运行通义的开源版本 qwen2.5.
下面是步骤:
- 下载ollama ollama.com/download
- 命令行加载大模型 github.com/ollama/olla…
- 或者加载千问 github.com/QwenLM/Qwen…
- 这时候可以命令行直接问,或者restapi来请求接口
这里是千问的文档,讲的很好 qwen.readthedocs.io/zh-cn/lates…
关于我
国 wei (Eric) Github