最近智谱AI的CodeGeeX团队在WAIC大会上开源了CodeGeeX4-ALL-9B,9B的规模竟然超越了参数量大几倍的通用模型?!
直接ollama体验一把
我是mac, 所以下边就都按mac来介绍, 官方插件贴心的提供了本地模式的使用指南, 感兴趣的小伙伴可以自己动手试试!
第一步: 作为一个小白,先装一下 Ollama
运行Ollama,在terminal里面输入ollama -v, 有版本号说明成功,最好安装一个最新版本的
第二步: 把大象放...
!!!注意!!! 按照官方的帮助文档我们需要配置一下跨域
在Terminal里面输入 export OLLAMA_ORIGINS="*", 来修改环境变量。
直接运行 ollama run codegeex4, 开始进入漫长的等待
当我们看到以下提示时说明运行成功了
打个招呼
第三步: 用VSCode的CodeGeeX插件体验一下
Ollama的http server启动后,我们就可以使用已有的Restful API:http://localhost:11434/v1/chat/completions
在离线模式里面填上以下两项就可以愉快的玩耍了
搞定!
补全还要调prompt,之后有机会再试试!