AI客户体验,演示通过但运营停滞……“信任差距”成为变数

robot
摘要生成中

各企业正大力投资于基于人工智能(AI)的客户体验强化,但不少案例显示,这些投入实际难以推进到服务上线阶段。尽管华丽的试运行和概念验证往往能够成功,但在异常情况以及法务、安全审查环节却裹足不前,这种所谓的“信任差距”被指为根本原因。

LivePerson的首席产品技术官克里斯·米纳(Chris Mina)近日在谷歌云Next大会上表示:“企业即使做出了出色的概念验证和工作流程,到了实际操作阶段却常常停滞不前。它们往往只确认了成功的场景,一遇到预料之外的案例就中止了导入。”

“成功的演示”与“实际运营”之间的鸿沟

据克里斯·米纳称,目前许多企业都认同导入AI客户体验的必要性。消费者也期待利用AI提供快速、个性化的客户服务。问题在于企业内部决策结构。安全部门、法务组织、AI治理委员会等担忧实际运营风险,导致项目往往无法进入主要阶段。

在此过程中,企业必须证明AI即使在“正常路径”下运行良好,也能在面对敏感咨询、复杂客户投诉或涉及监管问题时稳定应对。这意味着仅靠简单的演示成果很难通过内部审批。

LivePerson尝试通过合成测试确保信任

LivePerson提出了“Syntrix”作为解决此问题的方案。该平台旨在利用合成用户和生成的测试用例,在实际部署前模拟数千个客户场景进行仿真。对于企业而言,这使其能够在将新的AI代理或活动推向市场前,检查各种变量和异常情况,并将结果积累为数据。

克里斯·米纳解释说:“当企业被安全、法务或AI委员会阻碍时,必须能够拿出数据,证明‘我们已经测试了所有这些场景’。关键不是模糊的信心,而是基于依据和证据的信任。”

这一方法在当前AI客户体验市场中愈发重要。因为企业虽想加快AI导入速度,但在实际一线还需同时管理错误回复、个人信息处理以及品牌形象受损的可能性。可见,AI客户体验的竞争力最终并非取决于技术本身,而在于“能够安全运营的确信”。

构建实时监控的“守护者代理”

LivePerson在测试之外,也在加强实时运营管理功能。公司方面表示,通过“守护者代理”(Guardian Agent),可以监控包括人工客服和聊天机器人在内的全部实时对话,覆盖率100%。这种方式能持续判断每次交互是否正常进行,或者是否需要额外介入或升级处理。

这可以被视为一种机制,旨在降低AI客户体验系统在实际客户应对过程中引发意外问题的可能性。特别是对于运营大规模客服中心的企业而言,逐一核查所有对话十分困难,因此这类实时编排功能的需求日益增大。

完成迁移至谷歌云……如今课题是“执行”

LivePerson近日也完成了历时数年的谷歌云迁移工作。据介绍,此举卸下了积压20多年的本地部署技术债务,为客户利用谷歌的Gemini模型及超大规模云基础设施奠定了基础。

基础设施转换既已完成,剩下的课题便是如何让AI客户体验切实落地于实际服务一线。克里斯·米纳表示:“这股潮流无法阻挡。市场上已有承诺,消费者也满怀期待,因此帮助品牌安全、稳定地兑现这些承诺至关重要。”

最终,此番言论表明,企业AI市场正超越单纯的技术导入竞争,迈入确保“可验证的信任”与“运营稳定性”的阶段。虽然消费者期望日渐高涨,但企业AI客户体验的导入率仍停留在个位数水平,其背景正在于此。

TP AI 注意事项 本文基于TokenPost.ai语言模型对文章进行了摘要。可能遗漏正文主要内容或与事实存在出入。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论