Huggingface使用指南 | 豆包MarsCode AI刷题

190 阅读4分钟
  • 功能介绍

  • flux快速部署,虚拟试穿,comfyui拟平替生图模型-OmniGen

  • llama一键调用

huggingface带你学习体验它里面最新最前沿最火ai应用

功能介绍

开源模型搜索

选一个你中意的进来之后一般都是会有说明的,按着说明来就好了

然后就是超级无敌好用的sapces,一键使用别人的模型,有什么需求直接搜索

虽然但是只支持英文搜索

免费试用别人已经发布的模型应用

他有免费的算力额度(我刚开始还不知道,框框一顿用,然后让我订阅pro

试一个虚拟换衣服的,确实可以,但是他这个算力是哪提供的,不要钱的?

这么夸张的动作都可以

huggingface.co/spaces/Kwai…

试一个最近比较火的,北京智能研究院出的一个生图模型OmniGen

huggingface.co/spaces/Shit…

马斯克上火星,特朗普刚选上,我能不能在四年内上火星还都要仰仗老马呢(doge)

flux应用

做一个flux生图的应用

直接搜索flux然后随便进一个 去看他给你写好的运行代码view code

复制对应的代码,到我们最熟悉的代码编辑器IDE-cursor

新建一个我们自己的huggingface令牌

新建一个python文件

复制代码和令牌过去

我直接就是一个运行

报错了,额,我一直都不知道,到底怎样让IDE走代理,直接梯子开全局?

哦,开全局就有了

在文件里自己观察一下哪里是prompt,就是代码里面有一句你能看懂的人话,那个就是prompt

再试试,直接来一个前端页面出来,我想要用那种秋葉大佬SD风格的前端,和huggingface差不多的那种

就是这个SD的感觉

最后是一个小白调用huggingface的微调llama大模型的艰辛历程(有点长非技术人员自动忽略)

调用开源大模型

用它强大的transform仓

先试试官方的

先提交一个llama的使用申请,我是用了魔法的,地址填的是和魔法节点对应的国家

创建自己的api

翻译一下,就大致都知道这些模型还有api类型都有什么用了,记得勾选能够访问你的申请的公开封闭模型的access

在命令行设置自己的key

huggingface-cli login

输入自己的apikey

他不会显示出来,所以直接复制粘贴就行,会问你要不要设置git,输入n就行,我第一次输入Y确认就失败了

第一次下载是要缓存的,而且是真的会占电脑内存

说我少了pytorch库,那就下一个

说我少了一些处理dll文件的包,让我下一个 Microsoft Visual C++ Redistributable,那就下一个

成功了(llama官方不支持中文他的回复是英文的),我的c盘也要爆炸了,一下子用了我快15g(后面有清理一下这些缓存)

再试试别人微调好的

huggingface.co/FlagAlpha/L…

这个作者已经贴心的放好代码了(一整个爱住)

不是哥们,等会,我没内存了,我知道你可以运行了,你先别运行(同样的逻辑就不运行了)

破案+1,我试了一下另一个对话llama

我刚才的那个是3.2的补齐大模型,不是对话模型

这回用3.1的试一下

无敌了告诉我要pro才能访问这个,我终于知道这个怎么付费运行了。

但我还是没看懂这么个付费形式才能获取这个访问权限

好好好,是每一个llama的模型都要申请一下权限

申请完了还是告诉我要pro,不清楚,有厉害的佬可以评论区指导一下

都不如直接用SPACE空间别人直接发布的方便

总结下来还

本文最关键的就是troch库的下载和huggingface的使用上

如果硬要对比的话,都要下载和缓存模型文件,其实没差多少

如果你本身有c++相关的环境那还是transformers库好一些

简洁程度和用户体验上还是ollama程序更简洁和符合用户使用习惯一些

(下篇文章就说,不急不急,已经写完了200%了食用指南|Ollama的本地调用|豆包MarsCode AI刷题

我到现在已经下载了快5、6个llama模型了,无敌了