陈怡然-杜克大学 23-03-22 19:17
微博认证:杜克大学电子与计算机工程系教授 校园博主

昨天在马里兰大学参加NSF和IEEE举办的AI论坛,有几个有趣的讨论,记录一下。

第一个是有关Sustainable AI(可持续人工智能)的。主持人问到我们堆了那么大的算力来提高一点点性能是不是真的值得,是不是要考虑对于环境(比如二氧化碳排放)的影响。我回答说我相信公司不是傻子。不会去做无意义的事情。如果这点性能带来的收益不足以补偿所需要的成本,公司才不会去做。单纯靠口号是不可能让公司主动放弃这方面的努力的。就好像制造业的环境保护一样,需要政府监管。

第二个是有关数据的。主持人问我们数据越来越贵,我们真的需要那么多数据么?是不是可以找到什么方法减小对于数据的依赖。我回答说这个是大家一直在做的事情,做过很多尝试,比如提高低维模型的表达性,提高数据采样的代表性,或者采用合成数据。但迄今为止,既然我们所采用的深度学习模型主要的功能就是从数据里找规律,海量的数据仍然是需要的,而且是最直接的提升性能的办法之一。在这里主持人追问了一句,说研讨会上有人提出人类就不需要这么多数据来完成各种复杂科研活动,你看我们有模型,有公式。我回答说这个想法很好,我就问一句:模型和公式最开始是从哪里来的?肯定不是天上掉下来的。

第三个问题和第二个问题有关,是关于模型可解释性的。有人问说AI模型再大,但仍然不具备推理能力,不算智能。我回答说我对这事情其实最近有怀疑。拿推理这事情来说,我们以为的推理是建立逻辑线条:从1到2,然后从2到3,最后到N,和柯南一样。整个过程严丝合缝,可解释性很强。但其实从i-1到i这个过程,未必一定有很强的可解释性,甚至可能我们的解释都是错的。但不妨碍整个逻辑链条的建立。比如你碰了油瓶一定会倒,这个你见得多了(训练数据多了),自然就能得出推断碰油瓶->油瓶倒。但至于是不是重力引起的,不重要。而碰油瓶到油瓶倒这个关系链接,在人脑的活动里很可能并没有一个想象中的简洁的显式表达,也许和神经网络的各种(无法明确解释的)机制差不多,比如MLP或者attention model之类。

接着的第四个问题是模型的可靠性问题。有人问说如果没有这种显式表达,我们怎么保证模型的可靠性和安全性。逻辑控制系统都有明确的决策树,我能读懂,我才放心。我说我觉得你想要的很可能不是可解释性,而是模型的确定性(determinstic)或者可预测性(predictability)。其实最早的控制系统不就是deerminstic的么?后来发现很多东西得加上概率,有了随机过程,具有各种概率,才慢慢的无法确定解释了。但模型的可靠性仍然在一定程度上可以量化和验证。而且这个东西和具体的应用(domain)很有关系,我最近参加了美国National Academies (美国科学院、工程院、和医学院)下面一个有关Safety Criticality of AI (人工智能安全重要性)小组的讨论,希望能够就这些问题出一个白皮书。

这些天马行空的讨论都挺有意思的。

发布于 美国