10月13日金融一线消息,2023上海全球资产管理论坛于12-13日在上海举行。华院计算首席科学家唐伟出席并参与“大模型的财富管理探索”圆桌讨论。
关于黑箱的问题,唐伟解释道,AI算法的模型太复杂了,基本上不可解释。AI有三大要素:数据、算法、算力。有了数据,算法和算力来进行运作。算法有很多模型,有些模型比较简单,是有可解释性的。还有一些非常复杂,比方说机器学习、深度学习,像这种非常复杂的模型是不可解释的,给它数据,它给出一个结果,它里面怎么做我们不知道,不知道就变成一个黑箱。有了黑箱,大家就有顾虑,到底出来的东西是对还是不对。从技术层面来说,我们必须要想一种办法来消除这个顾虑。
面对这种情况,唐伟表示,现在有种办法是“AI来解释AI”。AI也没法解释的算法模型,是有一种其它的方法来验证它是否可靠的,可以通过另一个简单模型去间接解释复杂模型。这从技术角度来讲,是一种可以解决的方法。
总的来说,一个系统有很多算法,因此可以尽量用一些可解释的算法消除大家的顾虑,但是不可能都用简单的方法,因为很多就是需要用复杂的方法才能解决问题。用解释的模型来消除大家的顾虑,这样能做到整个系统的透明性。有了这个透明性以后,还必须要有一些检测的手段,要有一个监控的系统,监控的系统还跟法律法规有关,再需要一个审计系统来监测监控系统。这几点放在一起,可能就能解决用户的顾虑。用户有了信任感,这个事情才能做。
这是一个合规的问题,财富管理是面对客户的,客户有非常多信息,因此管理者需要让客户放心,他们的信息是安全的。最起码要在法律法规的框架下,客户拥有知情权,需要知道管理者采集了什么数据,是怎么储存的,是怎么用的。给客户这些信息以后,就会增加客户的信任度,AI就可以做得比较成功。
![](http://n.sinaimg.cn/finance/cece9e13/20200514/343233024.png)
责任编辑:曹睿潼
VIP课程推荐
APP专享直播
热门推荐
收起![新浪财经公众号 新浪财经公众号](http://n.sinaimg.cn/finance/72219a70/20180103/_thumb_23666.png)
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)