一 、引言
人工智能(AI)技术正以前所未有的速度不断演进和拓展应用领域。AI 工作流作为一种创新的技术架构,借助智能体(Agent)与大型语言模型(LLM)的协同运作,正逐渐改变着我们处理复杂任务的方式。从 AIGC(人工智能生成内容)迈向 AGI(通用人工智能)的征程中,AI 工作流扮演着极为关键的角色,尤其在面向企业(to B)的应用开发方面,展现出巨大的潜力。
二、智能体(Agent):AI 交互的桥梁
从 AIGC 到 AGI 进程中的智能体演变
随着 AI 技术从 AIGC 时代逐步向 AGI 时代迈进,智能体的功能和复杂性也在不断提升。在 AIGC 阶段,智能体主要聚焦于利用 LLM 生成各种类型的内容,如文章撰写、图像创作等。然而,在迈向 AGI 的道路上,智能体需要具备更广泛的认知能力、更强的环境适应能力以及多模态信息的融合处理能力
三、To B 的 Agent 开发
(一)企业需求与 Agent 开发的契合点
在企业数字化转型的浪潮中,to B 的 Agent 开发成为了提升企业竞争力和创新能力的重要手段。企业在运营过程中面临着诸多复杂的任务和流程,如客户关系管理、供应链优化、生产流程自动化等。智能体可以针对这些特定的业务场景进行定制开发,实现任务的自动化和智能化处理。例如,在客户关系管理方面,智能体可以自动分析客户的行为数据、偏好信息,预测客户的需求和潜在流失风险,从而帮助企业制定精准的营销策略和个性化的客户服务方案,提高客户满意度和忠诚度。
以下是一个简单的用于企业销售数据分析的 Agent 开发代码示例:
# 导入必要的数据分析库
import pandas as pd
import numpy as np
from sklearn.linear_model import LinearRegression
# 读取企业销售数据
sales_data = pd.read_csv('enterprise_sales_data.csv')
# 提取特征变量(如时间、产品类别、市场区域等)和目标变量(销售额)
X = sales_data[['time', 'product_category','market_region']]
y = sales_data['sales_amount']
# 训练线性回归模型
model = LinearRegression()
model.fit(X, y)
# 定义预测函数
def predict_sales(time, product_category, market_region):
input_data = np.array([[time, product_category, market_region]])
prediction = model.predict(input_data)
return prediction[0]
# 示例用法
predicted_sales = predict_sales('Q4', 'Electronics', 'North America')
print(f"预测在第四季度,电子产品在北美市场的销售额为: {predicted_sales}")
在上述代码中,我们首先读取企业销售数据,然后通过线性回归模型对销售额与时间、产品类别、市场区域等因素之间的关系进行建模,最后定义了一个预测函数,企业可以根据不同的参数组合来预测销售情况,这为企业的销售策略制定提供了数据支持和决策依据。
四、Coze:低代码 Agent 开发平台的创新实践
(一)Coze 平台概述
Coze 作为一款基于大模型(如豆包)的低代码 Agent 开发平台,为开发者提供了便捷、高效的开发环境。它通过可视化的界面设计和丰富的组件库,大大降低了 Agent 开发的门槛,使非专业编程人员也能够参与到智能体的开发过程中。
(二)Coze 工作流的运作机制
在 Coze 平台中,工作流是实现复杂任务处理的核心机制。当面对复杂任务时,传统的基于单个 prompt 的方式已难以满足需求,而工作流则能够将任务进行精细化的拆分和管理,就如同企业生产流水线一样,每个环节都能得到精准的把控。
创建智能体
- 通过这个地址进入coze页面并登录 www.coze.cn
- 点击左上角的"+"创建智能体
- 智能体名称设置为:朋友圈社牛神器
创建工作流
-
点击工作流旁边的“+”添加工作流,再点击创建工作流
-
输入节点:
-
输入节点是工作流的起始点,负责接收各种来源的输入信息。它可以接收用户的文本输入、上传的文件(如图片、文档等)、传感器数据等多种类型的信息。例如,在一个图像识别与分类的智能应用中,输入节点接收用户上传的图片数据,并将其传递给后续的处理节点。
-
以下是一个简单的 Coze 输入节点配置示例代码片段:
-
// 定义输入节点配置
const inputNode = {
type: "imageUpload", // 表示接收图片上传类型的输入
name: "imageInput",
onReceive: function(data) {
// 当接收到数据时的处理逻辑,这里可以简单地将数据传递给下一个节点
return data;
}
};
2. LLM(prompt)节点:
* LLM 节点是工作流中的核心处理节点之一,它将输入节点传来的数据结合预设的 prompt 发送给底层的大型语言模型进行处理。例如,在一个智能文档摘要生成应用中,LLM 节点接收到输入的文档文本,结合 “生成文档摘要” 的 prompt,利用 LLM 生成文档的摘要内容。
* 示例代码片段:
// 定义 LLM 节点配置
const llmNode = {
model: "your_llm_model_name",
prompt: "请根据以下文档生成摘要:[文档内容]",
input: "inputDataFromPreviousNode", // 从输入节点或其他前置节点获取的数据
onProcess: function(data) {
const response = await callLLM(llmNode);
return response;
}
};
-
多模态 LLM(图片)节点:
-
多模态 LLM 节点专门用于处理多模态信息中的图片数据。它可以对图片进行识别、分析、描述等操作。例如,在一个电商商品图片处理应用中,多模态 LLM 节点可以识别图片中的商品种类、提取商品的关键特征,并生成相应的商品描述信息,以便用于商品的上架和推广。
-
示例:
-
// 定义多模态 LLM 节点配置(图片处理)
const multiModalLLMNode = {
model: "your_multi_modal_llm_model_name",
task: "imageRecognitionAndDescription",
input: "imageDataFromInputNode",
onProcess: function(data) {
const response = await callMultiModalLLM(multiModalLLMNode);
return response;
}
};
-
输出节点:
-
输出节点负责对前面各个节点处理后的结果进行整合和组织,并将最终结果呈现给用户或传递给其他系统。例如,在一个智能报告生成系统中,输出节点将 LLM 生成的文本内容、多模态 LLM 处理图片得到的图表信息等进行排版和整合,生成一份完整的报告文档并输出。
-
伪代码示例:
-
// 定义输出节点配置
const outputNode = {
type: "documentGeneration",
name: "reportOutput",
input: ["textDataFromLLMNode", "imageDescriptionFromMultiModalLLMNode"],
onGenerate: function(data) {
const finalReport = generateReport(data);
return finalReport;
}
};
五.发布智能体
在右边的预览与调试框内输入,然后能输出文案与图片就说明这个智能体已经可以发布
(三)Coze 工作流在实际应用中的优势
Coze 工作流在实际应用中具有诸多显著优势。首先,其低代码开发特性极大地缩短了开发周期,降低了开发成本。企业可以快速将自身的业务需求转化为智能体应用,提高市场响应速度。其次,可视化的工作流设计使得整个任务处理流程清晰透明,便于开发人员进行调试、优化和维护。再者,Coze 平台能够方便地整合多种数据源和不同类型的 LLM 服务,实现多模态信息的无缝对接和协同处理,从而能够开发出功能更强大、应用场景更广泛的智能体应用。
五、结论
AI 工作流作为 AI 技术发展的重要成果,通过智能体与 LLM 的协同以及像 Coze 这样的低代码开发平台的支持,正在重塑各个领域的任务处理模式和业务流程。无论是在企业的智能化转型、特定领域的应用创新还是在迈向 AGI 的长远目标中,AI 工作流都发挥着不可或缺的作用。掌握其开发技术和应用场景,我们能够更好地利用这一强大的技术工具,开发出更加智能、高效、创新的应用程序