自2014年以来,Homelane已经为来自全国19个城市的客户提供了个性化的端到端家庭装修服务。"它开始于使发现与客户的预算、风格偏好和财产类型相关的主题、设计和内部选项。我们正在使用人工智能/ML构建产品,为客户提供超级个性化的设计方案,基于许多变量反馈到我们的算法中,以确定什么最适合特定的案例/项目,"HomeLane的首席技术官Puneet Gupta说。
在接受《印度分析》杂志的独家采访时,Puneet Gupta谈到了该公司如何将道德规范嵌入其平台。
AIM:HomeLane是如何利用人工智能的?
Puneet Gupta:在HomeLane,我们与客户的互动窗口跨越了几个月。这为我们提供了一个观察和学习消费者行为的绝佳视角,包括偏好和期望。我们利用这些知识来优化我们转换漏斗的入口点。
此外,我们实施供应链和交付的多供应商和多合作伙伴生态系统的系统为我们提供了精心策划的指标,帮助我们了解订单履行过程中的每个部分。这些数据和指标被用于更明智的商业决策,并帮助我们投资于正确的举措,提高客户满意度和运营效率。
AIM:请告诉我们HomeLane的人工智能治理框架
Puneet Gupta:在HomeLane,我们有一个专有的统一数据平台,整理各种系统的数据,并以易于解释的格式进行汇总。这有助于捕捉不同人口统计学的消费者偏好,并为我们的客户提供个性化的体验。
我们的产品/系统在预定的时间间隔内实施与数据平台同步的安全实时管道。在使用数据进行任何工作时,客户的数据隐私是最重要的,HomeLane在这方面有一个零容忍的政策。例如,想象一下,客户走进展厅,并被提供室内趋势(主题、风格、色调),根据观察到的消费者行为,激光聚焦以匹配他们的喜好,这有助于更快地转化他们。
我们不断努力,使我们的流程和系统越来越安全,这样我们就不会损害这一核心原则。我们定期进行安全审计,并采取预防和纠正措施,努力实现持续改进。
AIM:是什么解释了围绕人工智能道德、责任和公平的日益增长的对话?为什么它很重要?
Puneet Gupta:确保数据安全和隐私 是一个领导层和组织的KRA,可以走很长的路。我们有一些组织为了战略或金钱利益而另眼相看的例子。但是,今天的客户对隐私和数据安全非常敏感,为了短期利益而忽视这些,很有可能长期失去信誉和客户群。"有了巨大的权力,就有了巨大的责任",当务之急是不要在更广泛的趋势基础上影响消费者的偏好,不要成为操纵的对象。在HomeLane,透明度是关键。
AIM:你们是如何减轻人工智能算法中的偏见的?
Puneet Gupta:在多余的属性上训练算法,并管理大量的训练数据,并不总是最有效的。因此,关键是要确定与你的问题陈述最相关的偏见。我们的方法是逐步增加决策因素,从一些比较明显的/启发式的因素开始,增加更多的属性来改善。
AIM:HomeLane是如何保护用户数据的?
Puneet Gupta:在我们将任何消费者的数据处理为行为学习时,我们有数据屏蔽过程。我们在组织内部定义了明确的抽象标准,确保我们不折不扣地遵守数据隐私政策。我们寻求客户对关键决策的批准,在定价和财务交易方面保持100%的透明度,并提供直接与领导团队联系的途径,以提出关切或升级任何问题。