设置Klaviyo到Redshift的集成:2种简单方法
Klaviyo是目前最好的与Shopify驱动的网店无缝整合的软件。它有许多电子邮件自动化和客户数据库管理功能,可以帮助你保持和吸引失去的客户。该平台使用简单,是机构的理想选择。
AWS Redshift 是亚马逊网络服务的一项数据仓库服务。它通常用于大规模数据存储和分析,以及大型数据库迁移。
这篇文章解释了两种不同的方法来设置 Klaviyo到Redshift的整合,只需几个简单的步骤。除此之外,它还简要介绍了Klaviyo和Redshift。
什么是Klaviyo?
Klaviyo是一个强大的营销平台,使电子商务店主能够给他们的客户提供更个性化的体验。Klaviyo在去年就协助世界各地的品牌创造了超过37亿美元的收入。建立更深入、更有价值的客户关系从未如此简单,这就是为什么Klaviyo每天都在吸引 67个新品牌。
Klaviyo电子邮件营销 经常与Shopify等平台一起使用,以协助企业主创建一个整体的营销生态系统。我们稍后会详细介绍。
你也可以用Klaviyo发送大量的短信广告,并利用强大的自动化功能对每条信息进行个性化处理。内容管理是直接的和自动化的。Klaviyo使您能够创建多渠道的客户体验,并从一个单一的平台管理它们。
为了提高覆盖率和参与度,将电子邮件纳入成熟的营销活动中。无论是一次性的促销活动,还是经常性的通讯,或者是自动化的流程,Klaviyo都能让您简单地设置和安排一切。
Klaviyo的主要特点
- 200多个集成。我们预先建立的集成将您所有软件的历史和实时客户数据汇集到一个地方,包括各种流行的电子商务平台的一键集成。其中一个流行的集成是Klaviyo到Redshift。
- 实时的、营销人员友好的细分。对购买的产品、网站浏览行为、订单价值等进行快速、简单、细化的细分--所有这些都可以直接放入您的客户沟通中。
- 实时的客户档案。通过我们的活动反馈,您可以看到您的客户所做的一切,以及我们的数据科学预测他们会做什么--跨越您所有的平台和渠道(电子邮件、短信、网页等)。
- 灵活的数据存储和保留。在我们灵活的NoSQL数据平台中,包含了您对数据存储、保留、数量、字段和年龄的一切需要。
Klaviyo的主要优点
Klaviyo的主要特点包括。
- 易于使用。Klaviyo的设计从一开始就很容易使用。该解决方案包括一个所见即所得的编辑器,使其能够简单地创建醒目的电子邮件。
- 强大的细分功能。Klaviyo是一个强大的营销平台,使细分变得轻而易举。你可以使用行为和交易数据,用这个软件精确地定位你的营销活动。
- 一键式整合。更好的是,Klaviyo的设计是为了摒弃传统的营销工具,如电子表格。该软件与您现有的工具协同工作,允许您从 ZOHO、Magento、Salesforce、Shopify和其他来源提取数据。更好的是,Klaviyo有一个 开放的API,你可以用它来建立自定义的集成,以帮助你改善你的营销。
- 强大的,自定义的网络跟踪系统。Klaviyo也有其网络跟踪系统。该系统保持跟踪您的潜在客户的浏览习惯。这使得它很容易锁定符合特定要求的客户。
什么是亚马逊Redshift?
AWS Redshift 是亚马逊网络服务的数据仓库解决方案。亚马逊Redshift是一个完全管理的PB级云数据仓库产品,用于存储和分析大型数据集。
亚马逊Redshift的主要优势之一是其处理大量数据的能力--能够处理高达exabytes的非结构化和结构化数据。大规模的数据迁移也可以通过该服务完成。Redshift是AWS的数据仓库解决方案。像其他数据仓库一样,Redshift用于 在线分析处理(OLAP) 工作负载。
使用Redshift,你可以从大量的数据中收集相关的洞察力。AWS提供了一个简单的界面来自动创建集群,消除了管理基础设施的需要。
要了解更多关于AWS Redshift的信息,请 关注这里的官方文档。
亚马逊Redshift的主要特点
- Redshift允许用户编写查询,并将数据导出到Data Lake。
- Redshift可以在 ANSI SQL的帮助下,直接无缝查询CSV、Avro、Parquet、JSON和ORC等文件。
- Redshift对机器学习有特殊支持,开发者可以使用SQL创建、训练和部署Amazon Sagemaker模型。
- Redshift有一个高级查询加速器(AQUA),执行查询的速度比其他云数据仓库快10倍。
- Redshift有一个PB级的可扩展架构,它可以根据需要快速扩展。
- Redshift可以在Redshift集群中安全共享数据。
亚马逊Redshift的主要优点
- 速度:随着MPP技术的使用,输出大量数据的速度是空前的。AWS提供的服务成本是其他云服务提供商无法比拟的。
- 数据加密。 亚马逊为你的Redshift操作的所有部分提供数据加密。用户可以决定哪些流程需要加密,哪些不需要。数据加密提供了一个额外的安全层。
- 熟悉情况。 Redshift是基于PostgreSQL的。所有的SQL查询都可以用它。此外,你可以选择你熟悉的SQL、ETL(提取、转换、加载)和商业智能(BI) 工具。你没有义务使用亚马逊提供的工具。
- 智能优化。如果你的数据集很大,有几种方法可以用相同的参数查询数据。不同的命令有不同的数据使用水平。
- 同步扩展。AWS Redshift会自动扩大规模,以支持并发工作负载的增长。
- 查询量。MPP技术在这方面大放异彩。你可以在任何时候向你的数据集发送成千上万的查询。尽管如此,Redshift的速度也从未减慢。
- AWS整合。Redshift与其他AWS工具合作良好。你可以根据你的需求和最佳配置,在所有服务之间设置集成。
- Redshift API。Redshift有一个强大的API,有大量的文档。它可以用来发送查询并使用API工具获得结果。API也可以在Python程序中使用,以方便编码。
- 安全性。云安全由亚马逊处理,而云中的应用安全必须由用户提供。亚马逊提供访问控制、数据加密和虚拟私有云以提供额外的安全水平。
- 机器学习。机 器学习的概念被Redshift用来预测和分析查询。除了MPP之外,这使得Redshift的性能比市场上任何其他解决方案都要快。
- 轻松部署。R edshift集群可以在几分钟内从世界任何地方部署。在几分钟内,你就能拥有一个强大的数据仓库解决方案,而价格只是竞争对手的一小部分。
- 稳定的备份。亚 马逊会定期自动备份你的数据。它可以在发生错误、故障或损坏时用于恢复。备份分布在不同的地方。这消除了你的网站上混乱的风险。
- 合作伙伴生态系统。 AWS是最早启动云数据仓库市场的云服务提供商之一。许多客户依靠亚马逊的基础设施。
探索这些方法来连接Klaviyo和Redshift
Klaviyo拥有强大的工具,包括网站跟踪、细分、360度客户档案、拖放式电子邮件设计、自定义活动字段、一键集成和基于ROI的报告。亚马逊Redshift提供快如闪电的性能和可扩展的数据处理解决方案。
Redshift还提供一些数据分析工具,以及合规性功能,以及人工智能和机器学习应用。整合后,将数据从Klaviyo转移到Redshift可以解决企业的一些最大数据问题。在这篇文章中,将讨论实现这一目标的两种方法。
方法1:使用Hevo Data将Klaviyo整合到Redshift
Hevo Data,一个自动数据管道,为你提供了一个无忧无虑的解决方案,在几分钟内通过一个易于使用的无代码界面将 Klaviyo连接到Redshift。Hevo是完全管理的,完全自动地将数据从Klaviyo加载到Redshift,并丰富数据,将其转化为可分析的形式,而无需编写一行代码。
方法2:使用自定义代码将数据从Klaviyo转移到Redshift
这种方法实施起来会很费时,而且有些繁琐。用户将不得不编写自定义代码来启用两个进程,将数据从Klaviyo流向Redshift。这种方法适合于有技术背景的用户。
设置Klaviyo到Redshift的集成
方法1:使用Hevo Data来整合Klaviyo到Redshift
Hevo提供了一个自动化的无代码数据管道,帮助你将Klaviyo转移到Redshift。Hevo是完全管理的,完全自动化的过程,不仅从你的 100多个数据源(包括40多个免费的数据源)加载数据,而且还丰富了数据,并将其转化为可分析的形式,而无需编写一行代码。它的容错架构确保数据以安全、一致的方式处理,并实现零数据丢失。
使用Hevo Data,你可以通过以下2个步骤将Klaviyo连接到Redshift。
-
第1步:按照下面的步骤,将Klaviyo配置为管道中的源。
- 步骤1.1:在资产调色板中,选择PIPELINES。
- 步骤1.2:在 管道列表 视图中,点击**+CREATE。**
- 步骤1.3:在选择 源类型页面选择Klaviyo。
- 第1.4步:在配置你的Klaviyo来源页面中设置以下内容。
- 管线名称。给你的管道一个独特的名字。
- 私人API密钥。你的Klaviyo账户的私人API密钥。
- 历史同步时间。摄取历史数据所需的时间。
-
第1.5步:TEST & CONTINUE是要点击的按钮。
-
第1.6步:设置目的地并配置数据摄取。
-
第2步:要将亚马逊Redshift设置为Hevo中的目标,请按照以下步骤进行。
- 第2.1步。在 资产调色板中,选择DESTINATIONS。
- 步骤2.2。在目的地列表 视图中,点击**+CREATE**。
- 步骤2.3:在添加目的地页面中选择 Amazon Redshift 。
- 第2.4步:在配置你的Amazon Redshift目的地页面设置以下参数。
- 目的地名称。为你的目的地取一个独特的名字。
- 数据库集群标识符。Amazon Redshift主机的IP地址或DNS。
- 数据库端口:您的Amazon Redshift服务器监听连接的端口。默认值:5439
- 数据库用户:在Redshift数据库中具有非管理角色的用户。
- 数据库密码:该用户的密码。
- 数据库名称。将加载数据的目标数据库的名称。
- 数据库模式。目的地数据库模式的名称。默认值:公共。
-
步骤2.5:点击测试连接,测试与亚马逊Redshift仓库的连接。
-
步骤2.6:一旦测试成功,点击SAVE DESTINATION。
以下是尝试Hevo的更多理由。
- 顺畅的模式管理。Hevo消除了繁琐的模式管理任务,自动检测传入数据的模式,并将其映射到所需数据仓库的模式中。
- 卓越的数据转换。一流的本地支持,让复杂的数据转换触手可及。代码和无代码的灵活性是为所有人设计的。
- 快速设置。Hevo具有自动化功能,可以在最短的时间内完成设置。此外,凭借其简单和互动的用户界面,它对新客户的工作和执行操作是非常容易的。
- 可扩展性。随着数据源的数量和你的数据量的增长,Hevo可以横向扩展,每分钟处理数百万条记录,而且延迟非常小。
- 实时支持。Hevo团队通过聊天,电子邮件和支持电话24小时为客户提供特殊支持。
方法2:使用自定义代码将数据从Klaviyo转移到Redshift
这个方法解释了如何从Klaviyo获取数据并将Klaviyo迁移到Redshift。
从Klaviyo获取数据
- 开发人员可以使用Klaviyo的REST APIs访问关于指标、配置文件、列表、活动和模板的数据。你可以通过在每个API中使用两到七个可选参数来细化返回的信息。例如,一个简单的调用Klaviyo Metrics API来检索数据,看起来是这样的。
GET https://a.klaviyo.com/api/v1/metrics
- 作为一个响应,GET 请求返回一个JSON对象,包含指定数据集的所有字段。对于任何给定的记录,所有的字段可能都不可用。JSON可能如下所示。
{
"end": 1,
"object": "$list",
"page_size": 50,
"start": 0,
"total": 2,
"data": [
{
"updated": "2017-11-03 17:28:09",
"name": "Active on Site",
"created": "2017-11-03 17:28:09",
"object": "metric",
"id": "3vtCwa",
"integration": {
"category": "API",
"object": "integration",
"id": "4qYGmQ",
"name": "API"
}
},
{
"updated": "2017-11-03 20:54:40",
"name": "Added integration",
"created": "2017-11-03 20:54:40",
"object": "metric",
"id": "8qYK7L",
"integration": {
"category": "API",
"object": "integration",
"id": "4qYGmQ",
"name": "API"
}
]
}
将数据加载到Redshift
你可以使用 Redshift 的CREATE TABLE语句来定义一个表,一旦你确定了你要插入的列,该表将接收所有的数据。
创建表命令
在Redshift中创建表与你在其他数据库中创建表的方式类似。表约束、列约束和属性,如列属性和表属性,都在创建表的语法中定义。
语法
CREATE [ [LOCAL ] { TEMPORARY | TEMP } ] TABLE
[ IF NOT EXISTS ] table_name
( { column_name data_type [column_attributes] [ column_constraints ]
| table_constraints
| LIKE parent_table [ { INCLUDING | EXCLUDING } DEFAULTS ] }
[, ... ] )
[ BACKUP { YES | NO } ]
[table_attribute]
where column_attributes are:
[ DEFAULT default_expr ]
[ IDENTITY ( seed, step ) ]
[ GENERATED BY DEFAULT AS IDENTITY ( seed, step ) ]
[ ENCODE encoding ]
[ DISTKEY ]
[ SORTKEY ]
[ COLLATE CASE_SENSITIVE | COLLATE CASE_INSENSITIVE ]
and column_constraints are:
[ { NOT NULL | NULL } ]
[ { UNIQUE | PRIMARY KEY } ]
[ REFERENCES reftable [ ( refcolumn ) ] ]
and table_constraints are:
[ UNIQUE ( column_name [, ... ] ) ]
[ PRIMARY KEY ( column_name [, ... ] ) ]
[ FOREIGN KEY (column_name [, ... ] ) REFERENCES reftable [ ( refcolumn ) ]
and table_attributes are:
[ DISTSTYLE { AUTO | EVEN | KEY | ALL } ]
[ DISTKEY ( column_name ) ]
[ [COMPOUND | INTERLEAVED ] SORTKEY ( column_name [,...]) | [ SORTKEY AUTO ] ]
[ ENCODE AUTO ]
在你创建了一个表之后,你可能想通过使用INSERT语句来逐行添加数据,将你的数据迁移到 Redshift。对于逐行插入数据,Redshift并不是为它设计的。如果你有大量的数据需要插入,请将其保存到Amazon S3 ,然后用 COPY命令将其加载到Redshift。
插入命令
在Redshift的 INSERT语句中,可以用查询来代替**"值"** 。如果查询的结果与表的列结构兼容,Redshift会执行查询并插入所有查询结果的行。
语法
INSERT INTO table_name [ ( column [, ...] ) ]
{DEFAULT VALUES |
VALUES ( { expression | DEFAULT } [, ...] )
[, ( { expression | DEFAULT } [, ...] )
[, ...] ] |
query }
复制命令
一个COPY操作只需要三个参数就可以执行:表名、数据源和数据访问授权。
Amazon Redshift扩展了 COPY命令的功能,允许您从多个数据源加载各种格式的数据,控制数据访问,管理数据转换和管理加载操作。
语法
COPY table-name
[ column-list ]
FROM data_source
authorization
[ [ FORMAT ] [ AS ] data_format ]
[ parameter [ argument ] [, ... ] ]
保持Klaviyo数据的最新状态
- 每当你的记录被更新时,重复你所有的数据并不是一个好主意。这将是一个痛苦的缓慢和资源密集的过程。
- 相反,确定关键字段,你的脚本可以用它来记录数据的进展,并在搜索更新的数据时返回到它。最好是使用自动递增的字段,如更新于或创建于。
- 一旦你添加了这个功能,你可以把你的脚本设置为一个 Cron Job或一个连续的循环,以获得在Klaviyo出现的新数据。
- 而且,就像任何代码一样,一旦你写好了,你必须维护它。如果Klaviyo改变了它的API,或者API发送 了一个你的代码无法识别的数据类型的字段,你可能需要改变这个脚本。如果你的用户需要稍微不同的信息,你无疑将不得不这样做。
总结
本文讲述了设置Klaviyo与Redshift集成的不同方式。它还介绍了Klaviyo和Redshift的概况。