9B? 128K? 代码模型? 让我康康怎么个事儿

648 阅读1分钟

最近智谱AI的CodeGeeX团队在WAIC大会上开源了CodeGeeX4-ALL-9B,9B的规模竟然超越了参数量大几倍的通用模型?!

image.png

2022_0608_55b4d56dg00rd5m1b00bnd2006o006og00450045.gif

直接ollama体验一把

我是mac, 所以下边就都按mac来介绍, 官方插件贴心的提供了本地模式的使用指南, 感兴趣的小伙伴可以自己动手试试!

第一步: 作为一个小白,先装一下  Ollama  

运行Ollama,在terminal里面输入ollama -v, 有版本号说明成功,最好安装一个最新版本的

image.png

第二步: 把大象放...

!!!注意!!! 按照官方的帮助文档我们需要配置一下跨域

在Terminal里面输入 export OLLAMA_ORIGINS="*", 来修改环境变量。

直接运行 ollama run codegeex4, 开始进入漫长的等待

images.jpeg

当我们看到以下提示时说明运行成功了 image.png

打个招呼 image.png

第三步: 用VSCode的CodeGeeX插件体验一下 Ollama的http server启动后,我们就可以使用已有的Restful API:http://localhost:11434/v1/chat/completions

在离线模式里面填上以下两项就可以愉快的玩耍了

image.png

搞定!

20240710-194143.gif

飞书20240710-193952.gif

补全还要调prompt,之后有机会再试试!