最近玩了各种AI

335 阅读4分钟

最近chatGPT又火起来了。

我上次注册时还是2022年12月2号,那时注册还是挺方便的。现在貌似门槛高了。

随着各个科技巨头相继宣布推出服务,a股chatGPT相关概念股火了一把。

之前可能是因为大家还停留在siri,小爱音响等产品的印象,ai也就那么回事。

其实体验过chatGPT才会感叹,这也许是自己心目中的ai。

目前我认为能够称得上ai的大概有以下几个产品:

  • 对话相关,比如chatGPT,史上最强
  • 写代码插件,比如github copilot
  • ai画图相关,比如stable diffusion
  • 写作相关,比如notion ai

问题来了,网上有些开源模型,自己能不能搞搞,在网上搜了一下,好像还真玩不起,所用的成本就是中小公司,研究机构,大学也难以承受。

下面是我摘抄的:

大模型,尤其是LLM(大语言模型)的出现,让这个配合良好的系统首次出现了一丝裂纹,比以往更大的规模,更复杂的结构,更精细的参数设置,使这种模型变得不可思议。大模型,顾名思义,就是参数特别特别多的模型,一个参数,是一个数字,在计算机里,一个数字会占用4个字节,那么1000万个参数,会占用4000万字节,这大约是38M,听上去还好,相当于一个小视频,但参数如果增加到比方说60亿,那就会占用22G的空间,可以说,这样的数据量对当时的计算机来说,是相当可观的,而且由于参数是会被计算,随时变化的,所以放在硬盘甚至内存里都不够快,需要放到GPU的显存里,60亿个参数,需要显存22G以上的GPU才能运算,这已经有点贵了,更不用说更大规模的参数了。 而我们熟知的 GPT3,是 1750 亿参数,光是凑够能够把这些参数全部放下的显卡,已经非常昂贵了,而且如果还要进行训练,即让这1750亿参数进行很多变化,来找到更好的组合,则对应的算力成本可以称得上是天文数字,这让这些大模型变得更加昂贵,也更加不可思议。

所以说即使模型开源,也没资金将其运行起来。

自己玩不动,那就玩别人的。

普通的对话么得意思,找了一个有意思的,利用聊天AI指导AI绘画,哈哈有意思,有点像用魔法制造魔法。

自己也跟着操作了一番

大概步骤是:

1、先教chatGPT一些关于绘画的知识,等它学会了。

2、自己描述画,让chatGPT生成prompt

3、复制prompt到stable diffusion去生成图片

www.pil0txia.com/post/2022-1…

这篇文章告诉你如何利用聊天AI指导AI绘画并迭代弥补瑕疵

在就是这个notion ai了,今天看到有jy关于notion ai的文章,突然想起前几天收到过关于notion的邮件,哦,很意外年前申请的notion ai通过了。

最近notion ai已经正式上线,它能够帮助我们更好地利用notion,比如可以快速搜索,快速添加内容等等。它可以根据搜索词提示内容,还可以智能检查你的文档,比如拼写检查、格式检查等。同时,它还支持聊天式问答,给出文档内容摘要等服务。另外,它还支持多种语言,能够让你轻松地在不同语言之间转换,可以说是很有用的工具。

上面这段话就是,notion ai的continue writing生成的。

今天是周五,打工人的心情,然后ask AI

12.png

还可以继续try again。

make longer这个功能非常适合凑字数。一句话的事他能给你写的天花乱坠。真是懂爷。

让AI来个总结吧

34.png

对于写作,我是小白,但notion ai能帮助根据标题生成大纲,根据内容完成总结,在notion里写作如丝般润滑,真666。