判决层:为什么人工智能在领导者变得更聪明之前还不算聪明

吉列尔莫·德尔加多·阿帕里西奥是Nisum的全球人工智能领导者。


发现顶尖金融科技新闻和活动!

订阅FinTech Weekly的新闻通讯

由JP摩根、Coinbase、黑石、Klarna等高管阅读


金融科技中的人工智能涵盖了一系列用例,从欺诈检测和算法交易到动态信用评分和个性化产品推荐。然而,金融行为监管局的一份报告发现,在使用人工智能的公司中,只有34%知道它是如何工作的。

问题不仅仅是缺乏认知。更深层次的是对数据分析的力量和范围的严重误解,这是人工智能所衍生的学科。生成性人工智能工具的大规模采用将这一话题带到了高管层。但许多选择如何实施人工智能的人并不理解其背后的微积分、统计学和高级算法的基本原理。

以本福德法则为例,这是一种简单的统计原理,通过发现数字中的模式来标记欺诈。人工智能基于同样的数学,只是扩展到同时处理数百万笔交易。去掉炒作,其基础仍然是统计和算法。

这就是为什么高管层的人工智能素养至关重要。无法区分分析何时结束的领导者面临着过度信任自己不理解的系统或因恐惧而未能充分利用这些系统的风险。历史表明,当决策者误解技术时,会发生什么事情:监管机构曾试图禁止国际IP电话,但最终看到技术超越了规则。相同的动态正在人工智能中上演。你不能阻止或盲目采用它;你需要判断、上下文和负责引导它的能力。

金融科技领导者必须填补这些空白,以负责任和有效地使用人工智能。这意味着要理解分析何时结束以及人工智能何时开始,建立引导这些系统的技能,并运用合理的判断来决定何时以及如何信任它们的输出。

人工智能的局限性、盲点和幻觉

分析过去和现在的数据,以解释发生了什么和为什么。人工智能从这一基础上发展,利用高级分析来预测接下来会发生什么,并越来越多地自动决定或采取行动。

凭借其卓越的数据处理能力,金融科技领导者之所以会将人工智能视为他们的“灵丹妙药”是显而易见的。但它无法解决每一个问题。人类在模式识别方面仍然具有天生的优势,尤其是在数据不完整或“肮脏”的情况下。人工智能在解释人类能够迅速掌握的上下文细微差别时可能会遇到困难。

然而,认为不完美的数据使人工智能毫无用处是一个错误。分析模型可以处理不完整的数据。但知道何时部署人工智能以及何时依赖人类判断来填补空白才是真正的挑战。如果没有这种细致的监督,人工智能可能会引入重大风险。

其中一个问题是偏见。当金融科技企业在旧数据集上训练人工智能时,它们往往会继承随之而来的包袱。例如,客户的名字可能无意中作为性别的代理,或者姓氏可能暗示种族线索,从而以某种方式倾斜信用评分,这种方式是任何监管机构都不会签字的。这些偏见在数学中容易隐藏,通常需要人工监督来发现和纠正。

当人工智能模型面临未经过训练的情况时,这可能会导致模型漂移。市场波动、监管变化、客户行为的演变和宏观经济变化都可能在没有人类监控和重新校准的情况下影响模型的有效性。

当金融科技公司使用不允许变量之间关系可见的黑箱时,重新校准算法的难度急剧上升。在这些条件下,他们失去了将该知识转移给管理层决策者的可能性。此外,错误和偏见在不透明的模型中仍然隐藏,削弱了信任和合规性。

金融科技领导者需要知道的事情

德勤的一项调查发现,80%的受访者表示他们的董事会对人工智能几乎没有经验。但高管们不能把人工智能当作“技术团队的问题”。人工智能的问责权在于领导层,这意味着金融科技领导者需要提升技能。

跨分析流利度

在推出人工智能之前,金融科技领导者需要能够切换思维——查看数字、商业案例、运营和伦理——并看这些因素如何重叠并塑造人工智能的结果。他们需要理解模型的统计准确性如何与信用风险敞口相关联。并意识到,看似财务上可靠的变量(如还款历史)可能通过与受保护类别(如年龄或种族)的相关性引入社会或监管风险。

这种人工智能流利度来自于与合规官一起分析法规、与产品经理讨论用户体验,以及与数据科学家一起审查模型结果,以发现漂移或偏见的迹象。

在金融科技中,100%风险规避是不可能的,但通过跨分析流利度,领导者可以准确识别哪些风险值得承担,哪些会侵蚀股东价值。这项技能还提升了领导者识别和应对偏见的能力,不仅从合规的角度出发,也从战略和伦理的角度出发。

例如,假设一个基于人工智能的信用评分模型严重偏向某一客户群体。修复这种不平衡不仅仅是数据科学的工作;它保护公司的声誉。对于承诺金融包容性或面临ESG审查的金融科技公司而言,法律合规仅仅是不够的。判断意味着知道什么是正确的,而不仅仅是允许的。

可解释性素养

可解释性是信任的基础。没有可解释性,决策者、客户和监管机构就会质疑模型为何得出特定结论。

这意味着高管们必须能够区分可解释的模型和需要事后解释的模型(如SHAP值或LIME)。当模型的逻辑不清晰时,他们需要提出问题,并意识到“准确性”单独无法证明黑箱决策的合理性。

偏见不是凭空出现的;它在模型训练和部署时缺乏足够监督时产生。可解释性赋予领导者检测这些问题的可见性,以便在造成损害之前采取行动。

人工智能就像飞机上的自动驾驶仪。大多数时候,它运行得很顺利,但当风暴来袭时,飞行员必须控制飞机。在金融领域,同样的原则适用。团队需要在条件变化时,能够停止交易、调整策略,甚至中止产品发布。可解释性与超越准备相辅相成,确保高管理解人工智能并保持控制,即使在大规模操作时也是如此。

概率模型思维

高管们习惯于确定性决策,比如如果信用评分低于650,拒绝申请。但人工智能并不是这样运作的,这是一种重大的思维范式转变。

对于领导者来说,概率思维需要三项能力:

*   解释风险范围,而不是二元的“是/否”结果。
*   权衡预测的置信水平与其他商业或监管考虑。
*   知道何时超越自动化并应用人类自行裁量。

例如,一个金融科技公司的概率人工智能模型可能将某客户标记为高风险,但这不一定意味着“拒绝”。这可能意味着“进一步调查”或“调整贷款条款”。如果没有这种细微差别,自动化可能会成为一种粗糙的工具,侵蚀客户信任,同时使公司面临监管反馈。

为什么判断层将定义金融科技赢家

金融科技的未来不会由谁拥有最强大的人工智能模型决定;而是由谁以最敏锐的判断使用它们决定。随着人工智能的商品化,效率提升成为基本要求。赢家与其他人的区别在于在算法面临不确定性、风险和伦理灰色地带时,能够主动介入。

判断层不是一个抽象的概念。它在高管决定暂停自动交易、推迟产品发布或超越不反映现实背景的风险评分时显现。这些时刻不是人工智能的失败;它们证明人类监督是价值创造的最后一道防线。

战略一致性是判断制度化的地方。强大的人工智能战略不仅仅设定技术路线图;它确保组织重新审视项目,提升团队的人工智能能力,确保公司拥有所需的数据架构,并将每次部署与明确的商业成果联系起来。从这个意义上说,判断不是偶发的,而是内嵌于操作模式中,使高管能够推动基于价值的领导方法。

金融科技需要能够平衡人工智能以求速度和规模以及人类以求上下文、细微差别和长远愿景的领导者。人工智能可以在几秒钟内发现异常,但只有人类能够决定何时反对数学、重新思考假设,或者采取大胆的风险以开启增长之门。这一判断的层次将人工智能从工具转变为优势。

关于作者:

吉列尔莫·德尔加多是Nisum的全球人工智能领导者和深空生物学的首席运营官。拥有超过25年的生物化学、人工智能、太空生物学和企业家的经验,他为人类在地球和太空的福祉开发创新解决方案。

作为企业战略顾问,他为NASA的太空生物学人工智能愿景做出了贡献,并获得了创新奖。他获得了乔治亚理工学院的人工智能硕士学位,并以优异成绩毕业。此外,作为大学教授,他教授机器学习、大数据和基因组科学课程。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论
  • 热门 Gate Fun

    查看更多
  • 市值:$2255.17持有人数:1
    0.00%
  • 市值:$2262.06持有人数:1
    0.00%
  • 市值:$2343.37持有人数:1
    1.57%
  • 市值:$2362.5持有人数:3
    0.80%
  • 市值:$2251.72持有人数:1
    0.00%