意见领袖丨嵇少峰
八、关于嵇氏辩证认知论及人工智能的补白
(一)嵇氏信贷辩证认知论的理论及部分名词解释
1.需澄清以下一点,这一理论非我凭空独立创建,也未有某单一学者曾经提出过,而是我对当前信贷认识论、方法论融合趋势的总体概括,这一理论的很多观点已被多位专家阐述、理解与应用,但未经系统性整理。本理论的思想内核来源于:因果推断理论、黑格尔辩证法、贝叶斯网络理论、复杂系统科学理论、社会建构理论及我对金融风控实践的思考等。
2.关于“社会建构”
“社会建构”(social construction)这一术语最早是由彼得·伯杰(PeterL.Berger)和托马斯·勒克曼(Thomas Luckmann)在1966年出版的《实在的社会建构》一书中提出的。“社会建构”这个词原意为“社会建构是一个过程,通过它,人类的主观观念和互动,通过习惯化和制度化,被客观化成为被人们视为理所当然的社会现实”。被我引用,原因是一方面我希望表达信贷风险并非是静态的、固有的表现形式;另一方面我希望表达信贷客户的风险表现以及其与信贷机构之间的契约关系,受社会规则、文化观念、机构信念等诸多因素影响,信贷风险分析不能一味聚焦于借款人本身的直接信息,还要重点关注社会建构相关的间接信息。这个词原先的内涵已经被我改变,用于补充说明我的信贷辩证认识论与方法论,并构成了我的信贷分析架构中的重要内容。
社会建构最终被我定义为:
社会建构指在信贷风险分析中,由社会规则、文化观念、机构信念、专家直觉凝练四大要素共同塑造的、动态演化的风险认知与决策框架。其本质是借贷主体在社会互动中形成的集体意义系统,通过制度化、符号化和权力协商等机制,持续影响信贷风险的生成、评估与处置。
社会规则:主要由政府政策导向、金融监管政策、法律条文及行业惯例构成的强制性或非强制性约束框架等;还包括易引发风险模型干扰的宏观经济环境变化、同业竞争因素等。
文化观念:特定地域/群体对信用价值的非正式共识,表现为熟人社会的隐性担保机制(如浙江“圈内互保”降低违约率但放大传染风险)、对特定行业的道德标签(如“光伏骗补”污名化导致融资歧视),其通过改变违约社会成本影响还款意愿。
机构信念:信贷组织的战略与战术设计、企业文化、在历史经验中形成的集体决策基因,此类信念通过组织记忆固化风险偏好;
专家直觉凝练:从业者从千例案例萃取的隐性因果知识库,其价值在于:识别数据盲区风险、预判政策冲击传导、解码灰色经营信号,但可能异化为认知偏见(如地域歧视性抽贷)。
由于信贷风险的外部诱发因素越来越多,因此社会建构的内容还将不断丰富。
3.关于“专家直觉凝练”
社会建构因素中,包括有专家直觉凝练这一要素。专家因果推演与专家直觉凝练虽然都发源自专家,但这是两类本质不同的认知模式。专家因果推演更像是可追溯的逻辑链条,比如判断“设备成新率低→维修成本高→现金流紧张”这样的显性推理。而专家直觉凝练则类似于“闻到厂房有异味就感觉管理有问题”这种难以言传的行业集体经验。能说清楚的归因果推演,只可意会的归直觉凝练。
专家因果推演作为独立要素:属于主观能动的分析过程,可脱离具体社会语境存在;例如任何国家信贷员都能理解“高负债率→违约”逻辑;而专家直觉凝练一般纳入社会建构,本质是特定社会网络的文化密码,普遍带有地域、文化、制度特征,比如企业主突然频繁参佛→映射行业黑话“拜佛必跑路”、财务总监拒绝眼神接触→触发隐喻“不敢直视即有鬼”等专家直觉。
(二)不同的理论观点
学术界还存在着一些不同观点,即任何计算基于因果推演的智能模型及算法,本质上仍然是统计学、概率法的衍生,并非真正的类似人类的智能,无法从根本上解决因果推演的问题。因果推演最终仍然要以人脑、专家经验来对模型和人工智能进行约束,人类拥有最后的判断权。
这些观点认为,当前所有基于算法的因果推演存在三大根本局限:
1.数学本质限制:
即使最先进的因果模型(如SCM)仍依赖概率论基础(如do-算子的数学定义需满足后门准则);反事实推理本质上是通过贝叶斯网络计算,仍属概率的范畴
2.人类认知的不可计算性:
专家能综合“不可言说知识”,如信贷调查人员可以从企业主微表情判断诚信度、可以根据现场调查的综合直觉上感知企业的经营状况。MIT实验显示,人类处理矛盾证据时激活前额叶皮层-杏仁核协同机制,远超当前算法能力。
3.价值判断的伦理困境:
模型无法自主权衡“风险-收益-公平”的多目标冲突(如就业大户企业是否应放宽风控标准);欧盟《AI法案》明确要求高风险AI系统必须保留“人类监督否决权”
(三)目前专家经验仍在企业信贷分析中处于主导地位的原因
在企业信贷分析与决策中,经验丰富的信贷专家之所以仍能超越大数据风控模型,本质上源于人类智能在复杂金融场景中展现出的多维竞争优势。这种优越性主要体现在决策逻辑、认知能力和风险应对这三个维度,主要包括:
1.模糊信号解读优势,专家能识别企业主“眼神闪躲”“办公室植物枯萎”等数百种非量化信号,这些微表情/场景信息包含众多的有效风险预警对比如“报表数据合理但不符合行业常识”的直觉判断
2.叙事逻辑检验能力,通过交叉质询发现企业故事漏洞:当企业解释“应收账款激增”时,专家能结合行业账期惯例(如建材行业通常90天)、客户集中度等构建逻辑闭环。多家银行统计显示,经验丰富的专家通过访谈发现财务造假的概率远比模型高。模型依赖固定数据字段,而人类会基于对话进程实时生成问题树,通过访谈衍生发现企业做假的逻辑错误。
3.复杂价值判断维度,会评估企业主“朋友圈”质量,商会职务、供应商评价等软信息,判断企业危机应对潜力:如创始人对突发疫情时表现出的组织动员能力,调动社会资源及应急融资的能力等。
4.认知弹性与溯因推理,小样本类比能力,基于少量案例建立模式识别,有经验的专家只需要数年信贷调查经验即可在有限的案例积累过程中形成对区域内企业同样经营行为的类比能力;人类专家对异常数据的因果追溯准确率同样比模型高
5.伦理与商业平衡,会分析风险收益的动态权衡,对“暂时困难但基本面良好”企业的救助决策,需综合评估行业周期、管理层信誉等,模型严格按阈值拒贷会导致“晴天送伞雨天收伞”的顺周期效应,而专家可以根据对整体情况的感知,进行自主调整,从而挽回安全客户。社会价值考量,对就业大户、战略产业企业的差异化风控标准,这类政治经济学判断超出算法范畴
(四)基于成本与技术能力的考量,AI全面替代人类专家在当前及可预见未来均不经济且不现实
尽管AI技术在模式识别和自动化处理方面取得了显著进展,但其全面替代人类专家的尝试往往面临极高的边际成本和难以逾越的技术能力天花板。这种“替代不经济”的现象主要由以下四个维度构成:
1.极端高昂的模型构建与维护成本
数据获取与清洗成本:要让AI达到甚至接近人类专家的水平,需要极其大量、高质量、标注清晰的样本数据进行训练。对于“高风险、低频率”的复杂决策(如企业贷款审批),获取足够数量的“坏样本”和极端案例的成本极高,甚至不可得。数据清洗、标注和特征工程需要耗费巨大的人力与财力。
模型研发与试错成本:开发一个能够处理复杂、多变、非结构化信息的稳健AI系统,需要顶尖的、跨领域的(金融+计算机科学)人才团队,其研发周期长、失败风险高,研发成本是天文数字。
持续迭代与运维成本:经济环境、市场规则和客户行为在不断变化,模型会“失效”或“退化”,需要持续监控、频繁再训练和版本更新。这套运维体系的建立和维护成本极其昂贵,其投入可能远超维持一个专家团队的成本。
2.“长尾问题”带来的技术能力瓶颈与性价比骤降
“常见案例”与“罕见案例”:AI善于处理占总量80%的常见、标准化案例(决策的“主体”),其边际成本低、效率高。然而,剩下的20%是千奇百怪的“长尾问题”(复杂、独特、前所未有的个案)。
性价比骤降:为了处理这20%的极端案例,AI系统需要设计得极其复杂,可能需要99%的额外资源投入(数据、算力、研发),但只能提升1%的覆盖率。这种投入产出比的急剧下降,使得追求100%的自动化替代在经济学上变得毫无意义。相比之下,人类专家凭借其因果推理和抽象能力,处理这些长尾问题的边际成本要低得多。
3.泛化能力与模糊情境应对的局限
场景迁移成本高:在一个领域(如消费贷)训练成熟的AI模型,无法直接迁移到另一个领域(如中小企业贷)。每个新场景都需要近乎从零开始收集数据、重建模型,成本重复发生。
应对“未知的未知”:人类专家拥有基于常识和因果逻辑的“直觉”,能够处理从未遇到过的新情况(“未知的未知”)。而AI只能在历史数据定义的“已知的未知”范围内进行推断。为AI构建这种“泛化智能”是AI研究的终极难题,其技术路径尚不明确,成本无限大。
4.责任归属与系统可靠性的隐含成本
问责成本:AI做出错误决策时,责任的归属成为巨大问题。是开发者、数据提供方还是使用它的公司?清晰的问责机制是商业运行的基石。而人类专家体系则有着清晰的责任链条。建立一套针对AI决策的伦理、法律和监管框架,其社会总成本极高。
系统风险成本:一个高度自动化的AI系统一旦出现未被察觉的漏洞或偏差,可能导致大规模、系统性的错误决策,造成灾难性损失。而人类专家系统天然是分布式的、异质的,单个专家的错误很难演变为系统性风险。为确保AI系统的绝对可靠性所需的冗余和安全保障,成本巨大。
结论:最优解是人机协同,而非替代
从成本与技术能力的综合考量出发,最经济、最现实的路径不是追求代价高昂且可能永远无法实现的“全面替代”,而是构建人机协同的混合智能系统:
让AI做AI擅长的事:处理海量数据、执行标准化流程、识别潜在模式、完成重复性工作,充当专家的“超级助理”,降低80%常规业务的决策成本。
让专家做专家擅长的事:集中精力应对20%的复杂、新颖的长尾案例,进行深度因果分析、价值判断和最终裁决,并负责训练、监督和校正AI系统。
这种分工模式,既利用了AI的规模效率,又发挥了人类专家的灵活性和深度,在成本、效率和可靠性之间取得了最佳平衡。因此,并非AI无法替代人类,而是在多数复杂领域,“替代”在成本和技术上是不经济的,而“增强”与“协同”才是最优解。未来突破方向可能是“专家经验数字化沉淀+AI实时增强决策”的混合智能模式,但人类在关键否决权上的主导地位仍将长期存在。
(本文作者介绍:曾在人民银行、银监会系统工作十六年,后从事私募、融资担保、小额贷款、金融科技工作。小微信贷行业代表性人物,中国小微信贷机构业务创新合作联盟发起人,小微信贷实战专家,互联网金融知名评论者,财经专栏作家。著有《为什么说99%的P2P终将死亡》等一系列热点文章,多次准确预判小微信贷市场走向与监管趋势。)
责任编辑:张文
新浪财经意见领袖专栏文章均为作者个人观点,不代表新浪财经的立场和观点。
欢迎关注官方微信“意见领袖”,阅读更多精彩文章。点击微信界面右上角的+号,选择“添加朋友”,输入意见领袖的微信号“kopleader”即可,也可以扫描下方二维码添加关注。意见领袖将为您提供财经专业领域的专业分析。
