-
功能介绍
-
flux快速部署,虚拟试穿,comfyui拟平替生图模型-OmniGen
-
llama一键调用
huggingface带你学习体验它里面最新最前沿最火ai应用
功能介绍
开源模型搜索
选一个你中意的进来之后一般都是会有说明的,按着说明来就好了
然后就是超级无敌好用的sapces,一键使用别人的模型,有什么需求直接搜索
虽然但是只支持英文搜索
免费试用别人已经发布的模型应用
他有免费的算力额度(我刚开始还不知道,框框一顿用,然后让我订阅pro
试一个虚拟换衣服的,确实可以,但是他这个算力是哪提供的,不要钱的?
这么夸张的动作都可以
试一个最近比较火的,北京智能研究院出的一个生图模型OmniGen
马斯克上火星,特朗普刚选上,我能不能在四年内上火星还都要仰仗老马呢(doge)
flux应用
做一个flux生图的应用
直接搜索flux然后随便进一个 去看他给你写好的运行代码view code
复制对应的代码,到我们最熟悉的代码编辑器IDE-cursor
新建一个我们自己的huggingface令牌
新建一个python文件
复制代码和令牌过去
我直接就是一个运行
报错了,额,我一直都不知道,到底怎样让IDE走代理,直接梯子开全局?
哦,开全局就有了
在文件里自己观察一下哪里是prompt,就是代码里面有一句你能看懂的人话,那个就是prompt
再试试,直接来一个前端页面出来,我想要用那种秋葉大佬SD风格的前端,和huggingface差不多的那种
就是这个SD的感觉
最后是一个小白调用huggingface的微调llama大模型的艰辛历程(有点长非技术人员自动忽略)
调用开源大模型
用它强大的transform仓
先试试官方的
先提交一个llama的使用申请,我是用了魔法的,地址填的是和魔法节点对应的国家
创建自己的api
翻译一下,就大致都知道这些模型还有api类型都有什么用了,记得勾选能够访问你的申请的公开封闭模型的access
在命令行设置自己的key
huggingface-cli login
输入自己的apikey
他不会显示出来,所以直接复制粘贴就行,会问你要不要设置git,输入n就行,我第一次输入Y确认就失败了
第一次下载是要缓存的,而且是真的会占电脑内存
说我少了pytorch库,那就下一个
说我少了一些处理dll文件的包,让我下一个 Microsoft Visual C++ Redistributable,那就下一个
成功了(llama官方不支持中文他的回复是英文的),我的c盘也要爆炸了,一下子用了我快15g(后面有清理一下这些缓存)
再试试别人微调好的
这个作者已经贴心的放好代码了(一整个爱住)
不是哥们,等会,我没内存了,我知道你可以运行了,你先别运行(同样的逻辑就不运行了)
破案+1,我试了一下另一个对话llama
我刚才的那个是3.2的补齐大模型,不是对话模型
这回用3.1的试一下
无敌了告诉我要pro才能访问这个,我终于知道这个怎么付费运行了。
但我还是没看懂这么个付费形式才能获取这个访问权限
好好好,是每一个llama的模型都要申请一下权限
申请完了还是告诉我要pro,不清楚,有厉害的佬可以评论区指导一下
都不如直接用SPACE空间别人直接发布的方便
总结下来还
本文最关键的就是troch库的下载和huggingface的使用上
如果硬要对比的话,都要下载和缓存模型文件,其实没差多少
如果你本身有c++相关的环境那还是transformers库好一些
简洁程度和用户体验上还是ollama程序更简洁和符合用户使用习惯一些
(下篇文章就说,不急不急,已经写完了200%了食用指南|Ollama的本地调用|豆包MarsCode AI刷题)
我到现在已经下载了快5、6个llama模型了,无敌了