最近在逛NVIDIA官网的时候无意中发现NVIDIA官网集成了一个代码版的AI模型——Code Llama。从这个名称可以看出它是基于Llama 2语言模型。从介绍中也能看出来,它是专门用Llama 2训练来写代码的。
Llama 2大语言模型
Llama 2是前段时间Meta(之前的Facebook)开源的大语言模型,我们可以在Meta的官网找到这个模型,他提供了三种参数,分别是70亿、130亿和700亿。如果想拥有一个属于自己的ChatGPT的话可以去官网下载语言模型然后训练部署到本地,至于下载哪个可以根据自己的电脑的配置选择。
Code Llama
官网地址【catalog.ngc.nvidia.com/orgs/nvidia…】
说回正题,Code Llama就是NVIDIA基于这个模型来训练的一个代码AI,我自己试了一下感觉他的代码能力还是很强的,不论是准确度还是生成的速度都达到了ChatGPT3.5的水平。下面是它的界面。
我们可以在左侧调整模型的参数:
Temperature:控制模型输出的随机性,值越小输出结果越稳定越保守。值越大输出结果越“跳跃”,思维越发散,但是得到的结果可能不是很准确。
Top P:top_p控制了选择下一个单词时要考虑的概率质量。例如,如果top_p设置为0.9,则生成过程会考虑模型赋予的单词累积概率为前90%的单词,并从中随机选择下一个单词。也就是说,即使某个单词的概率非常低,但只要它位于这前90%的累积概率内,它仍然有可能被选择。
Max output tokens:控制一次输出的token数量,也可以理解成一次输出的最大字数,是一种模型的自我保护机制。
经过论了我几次测试,模型支持中文输入,可以直接访问!