前段时间给大家介绍过一款由微软发布的最新小型大语言模型Phi-2,参数只有2.7亿(作为参考GPT-3.5有20亿参数)。在大模型领域,未来的发展,一条线是继续不断增加模型参数来增强模型能力,据说开发出ChatGPT的OpenAI尝试将1000万颗显卡连在一起,以此训练GPT-5、GPT-6,到时候会训练出来啥能力的人工智能,连OpenAI的老板都说无法预测。
大模型的另一条发展线是小尺寸的大语言模型,比如微软发布的Phi-2、阿里发布的Qwen-1.8B。这些小尺寸的大模型参数虽然少,但在性能评测上,超过了很多7亿甚至13亿参数的大模型,而且因为尺寸小,大家以后有可能以更小的显存运行更强的大模型,搞不好一台家用电脑甚至手机上就能本地跑大模型了。今天带来Phi-2的懒人包,3G小显存和CPU均可跑~
微软Phi-2简介
Phi-2 是一个具有2.7 亿参数的大模型。它使用与Phi-1.5相同的数据源进行训练,并使用由各种 NLP 合成文本和过滤网站组成的新数据源进行了增强(为了安全起见)和教育价值)。当根据测试常识、语言理解和逻辑推理的基准进行评估时,Phi-2 在参数少于 130 亿的模型中展示了近乎最先进的性能。
离线懒人包来了
老规矩,大家自行在本地部署比较麻烦,已经为大家制作好了一款离线整合包了,下载到本地解压即用,下载解压到本地。
①双击“一键启动-Phi-2.exe”。
②双击一键启动程序后,会打开一个命令提示窗口,项目会自动运行。加载成功后,请自行复制以下网址在浏览器打开“ http://127.0.0.1:7860/”,记得点点关注不迷路哦,后续还有更多酷炫的AI项目分享~
③打开链接后,可以看到项目主界面:
使用非常简单:
- 输入提示词:在“输入”区域,直接输入提示词
- 发送:点击“提交”按钮
等待片刻,即可得到微软Phi-2给你的回复了,回复速度比较快,而且亲测用CPU也可以跑,不过感觉对中文支持一般般。
注意事项:
①该项建议英伟达显卡运行,速度较快;用CPU也能玩,速度较慢
②请确保安装路径不包含中文,不然可能会引起奇怪的适配问题
今天就聊到这了,我是Glen,感谢你看我的文章,欢迎大家继续支持我,请点赞、收藏、分享三连走一波吧~
关注公众号Glen,回复【Phi-2】,免费获得本文资源~