首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ai其他
订阅
zucchiniy
更多收藏集
微信扫码分享
微信
新浪微博
QQ
22篇文章 · 0订阅
给 Dify 接入 SD 实现 AI 绘画自由
Dify 中也支持接入 Stable Diffusion AI 绘画、DALLE 2 和 3 绘画,不过在国内使用 DALLE 绘图比较麻烦,这里结合上一篇文章实现在 dify 中接入 Sd
基于ReAct机制的AI Agent
当前,在各个大厂纷纷卷LLM的情况下,各自都借助自己的LLM推出了自己的AI Agent,比如字节的Coze,百度的千帆等,还有开源的Dify。 你是否想知道其中的原理?是否想过自己如何实现一套AI
再战Transformer!原作者带队的Mamba 2来了,新架构训练效率大幅提升
自 2017 年被提出以来,Transformer 已经成为 AI 大模型的主流架构,一直稳居语言建模方面 C 位。
Mac专属大模型框架来了!两行代码部署,能聊本地数据,还支持中文
翻版 Chat with RTX Mac 用户,终于不用羡慕 N 卡玩家有专属大模型 Chat with RTX 了! 大神推出的新框架,让苹果电脑也跑起了本地大模型,而且只要两行代码就能完成部署。
我利用Coze的多Agent模式设计了一款由AI驱动的《谁是卧底》游戏(这应该是目前Coze平台上最复杂的一个Bot)
《卧底》就是把Workflow、Agent、Multiagent Flow这三者结合起来的一种最佳实践,事实证明利用好这三者,就可以设计出具备相当复杂度的Bot。
Transformer王者归来!无需修改任何模块,时序预测全面领先
最近,来自清华大学和蚂蚁集团的研究人员重新审视 Transformer 结构在时序分析中的应用,提出一个全新的反转视角——无需修改任何模块,即可实现 Transformer 在时序预测任务上的全面领先
评估检索增强生成(RAG):TRULENS + MILVUS
了解如何构建各种配置和参数的 RAG,包括索引类型、嵌入模型、top k 和 chunk 大小参数。大型语言模型(LLM)的日益普及,推动了向量搜索技术的兴起...
BERT模型入门系列(二): Attention模型实现
概述:在上一篇文章《BERT模型入门系列:Attention机制入门》里面,用了机器翻译的例子把Encoder-Decoder模型、以及Attention模型的基本原理进行了讲解,这篇配合上一篇文章的
《NLP情感分析》(七)——Transformer情感分析
使用Transformer进行情感分析 在本notebook中,我们将使用在 Attention is all you need 论文中首次引入的Transformer模型。
基于Transformer实现电影评论星级分类任务
Transformer模型概述 Transformer是一种用于序列到序列学习的神经网络架构,专门用于处理输入和输出序列之间的依赖关系。该模型被广泛应用于机器翻译、音频转录、语言生成等多个自然语言处理