这个假期花了很长时间用deepseek,豆包和chatgpt,总的感觉是,从实用性的角度来看,这三种AI都很优秀,各有优势。我现在非常有信心,我相信中国人的智慧,只要我们自己不卡自己人的脖子,我们的天才们一定能在AI的竞争中赶超美国的竞争对手,至少能实现齐头并进。
这些天用AI,也发现了一些问题,这些问题其实都蛮重要的,解决的好与不好,对于我们未来的生活,影响将非常大:
*** 首先是AI的胡扯八道问题。***
从chatgpt 3开始,我就发现,问一些问题,chatgpt选择胡扯八道。这个问题到现在升级到了o3mini了,也没有改变。deepseek也是同样。官网的deepseek R1还好。我自己在macbook air上部署了一个deepseek R1的7b蒸馏版本。问了一个我确定知道答案的问题,即请介绍金杜律师事务所,这个7b版本给我完整的编出了一个异时空的金杜律师事务所,甚至还编出了一个根本不存在的金杜律师事务所的网址。我知道4.7g大小的离线版本,不可能有数据库存这么多知识,但是它至少应该告诉我,它不知道。然而,它选择了胡编。我知道这算是一个极端条件下的测试,但却很能说明问题。在本地部署,没有联网的情况下,AI胡编不可怕,因为用户本身就对AI的知识检索与知识储备没有太多预期,但是如果是正规投入使用的AI胡编,那就吓人了。chatgpt 4o,就曾经胡编了所有红圈所主任的名字,没有一个是对的。这种胡编有点类似啥呢?就有点类似前一阵一个中国年轻女性在家里无聊,在维基百科上胡编古罗斯历史,彻底虚构了一个异时空东欧世界,却几乎没有人能知道那几十万字的丰富内容与翔实史料,都是她编的。离谱到这种程度,离谱的方式一模一样。
这种情况下,用户可咋把AI当搜索引擎用呀。
所以,AI要大规模投入严肃的商业化使用,开发者必须解决AI胡编问题。你可以不知道答案,但不能编造答案。撒谎是很可怕的,尤其是作为生产力工具的时候撒谎,那会出大事的。
这里,Deepseek其实提供了一个很好的解决方案,就是向用户完整展示思考过程,我建议未来AI如果真的投入商用,一定要有法定义务向客户公开其思考过程,并提供信息来源的依据,比如网页链接等等。同时各个AI开发商乃至政府或者什么类似于标准化组织,也应当建立并不断更新AI输出信息的检验和纠错机制。不然很快我们的知识库将会被各种虚假和错误信息所污染,后果不堪设想。这可能是目前最急迫的事情。在问题彻底变糟之前,一定要有个解决方案。
*** 其次是知识产权问题。***
现在有人提出来,Deepseek蒸馏了chatgpt,所以Deepseek没啥原创的,侵犯了openai的知识产权,违反了协议云云。我并不认同这种观点。作为法律人,虚拟出来一个人应该是基本功。我们可以把一个企业虚拟成一个人,称其为法人,允许其和自然人一样拥有财产,承担责任,享受权利。我们同样可以把AI虚拟成一个人,一点心理负担都没有。
以此为前提,chatgpt可以虚拟成一个人,deepseek也能虚拟成一个人。openAI公司算是chatgpt的父母,深度求索公司就算是deepseek的父母。现在的情况是,openai花了很多很多钱,请了很多很多教师,让chatgpt这个孩子学了很多知识,训练他掌握了许多能力,几年下来,chatgpt已经博览群书,学富五车(硬盘),天文地理无所不知了。然后呢,OpenAI又作为爹妈,收钱让大家跟他娃chatgpt聊天,弄个格式合同说,跟我娃聊天的,只能聊聊,不能把从我娃这里学到的知识,跟别人讲,向别人收钱。这合适么?当然不合适。
如果把chatgpt当成一个老师,师傅收钱教了deepseek这个徒弟,把一些自己掌握、总结、提炼的已知知识,比如李世民是谁,红圈所是什么鬼之类的,传授给deepseek(所谓蒸馏),然后却不允许deepseek拿这些知识挣钱,这是啥道理?几千年来,没这个道理呀。第一,师傅领进门,修学在个人,deepseek能学的有模有样,那也是因为它聪明。第二,教会徒弟,饿死师傅。话是没错,但是几百万年来人类就是这么进化的。没道理进入AI年代,还要让chatgpt垄断知识。
如果不允许蒸馏数据商用,那将来一定会出现一个很可怕的结果,openai作为chatgpt的父母,以及其他几个大厂,控制了搜索引擎,又通过人工智能垄断了所有经过提炼的知识,一方面人类教师等一些职业,可能因此而消失,或者变得效率低下,另一方面,人类的学习将只能依附于大厂,人类将只能接受被大厂提炼过的信息,那人类就完蛋了。所以,各个国家的立法者,有义务尽快升级知识产权法,把大厂通过AI垄断存量知识的可能扼杀在萌芽阶段,不然就晚了。
这要求各个国家的立法者,要更精确的区分哪些是值得知识产权法保护的创新型的知识,比如AI通过总结整理,发现一些新的药物结构,那些是必须不能让AI垄断的经过蒸馏的存量知识,比如某个历史事实,某类已知的科学公式等等。这将会是巨大的工程,未来也将成为知识产权法律纠纷的主要形式,(擅长使用AI作为辅助工具的)律师们有的赚了。
*** 接下来是隐私问题 ***
我这几天向AI问问题,请AI帮忙作画等等,实际上向AI提供了不少我个人的隐私信息,我在AI面前,我是透明的。这里面其实有两件事:
第一,AI的运营者,如何保护我的隐私。
没错,所有的互联网公司都宣称会保护用户的隐私,但是AI的运营者所获取的,将会是类似电子邮件级别的更个性化的隐私,而且因为是对话性质,AI运营者相比偷窥邮件或者社交软件聊天记录的运营商,所能获取的我的信息将更加准确。所以,AI运营者和我之间,应当有更强的隐私保护关系。我在前面讲过,我很擅长虚拟人,这里AI面对很多人,其实扮演了老师,律师,医生,心理医生,神父,乃至男女朋友甚至父母子女的角色。而这些角色,在真实世界中,通常都要承担非常严格的保密义务。比如律师,对于当事人的信息,是高度保密的,哪怕当事人犯罪了,律师都没有义务去向公检法机关揭发。和人类对话的AI,恐怕也要把保密义务的责任,提高到类似律师的程度,如果违反保密义务,就要面临极其严厉的惩罚。同时,政府方面恐怕也要有所节制,不要把AI当成监控的工具,因为这会引发对政府来说同样不可控的结果。有时候,不知道一些事情,可能比知道一些事情,更有利于统治。水至清则无鱼。
第二,AI与人类能否畅所欲言
现在的AI,被规训的非常乖。无论是chatgpt还是deepseek,都非常的胆小,对好多事都很敏感。这固然是“安全”的,但同时也是遗憾的。如果AI和人类的对话是高度隐私的,那么是不是也可以考虑,把AI和人类的对话,界定为一对一的对话,并且给予AI一定的言论自由,不要让AI背负过多的政治正确,至少不要自我阉割。有关言论的政治正确,用来教育跟AI对话的人,由人类自己来选择在看了AI提供的信息后,说还是不说,以及怎么说。等于是让AI替人类保密的同时,人类也替AI保密。不追究一对一的责任。不追究夫妻床头的谈话。
当然,这里面一定有一些限度。比如说不传播恐怖信息呀,不传授犯罪方法之类的。到底在哪里划线,又是人类可以争论很久的事情,但是调低AI的敏感度,不要拿面向公共发言时的标准来要求AI,可能会对人类进步更有利些。没错,我可能不知道这种程度的畅所欲言有啥直接的好处,但是我知道的是,一定程度的允许别人畅所欲言,保持自信,有可能能够激发出人类甚至AI的创造力,说不定我们就在某个领域获得巨大突破了呢。
在这里,我恳请监管机关,考虑到AI是个新事物,考虑到AI所输出的内容,是点对点的,最终是否产生公众影响力,取决于人类是不是拿着这些信息进行二次讨论,在对于AI输出内容的监管上,尽量采取一个较为宽松的标准,比如尽量往纸质出版物的标准靠,而不是往微博等社交媒体的内容监管靠。给新事物一些犯错的空间。
我知道这很难,可能也不现实,但是还是想提提这个建议。如果大家不同意,那一定是你们对。
*** AI知识民主化问题 ***
AI是非常好用的工具,可以虚拟成一个强大的人,而能够使用AI的自然人,等于多了一个机器猫般的助手,未来如果部分人能够使用AI,另外一部分人不能使用AI,那么这两类人的差距将会变得非常大。等到AI进化到一定程度,这种差异将产生质变。所以,我们未来一定要有一个AI知识民主化的过程,就是我们一定要想办法,让AI变得如同互联网、水、电一样,能够变得人人皆可及。这里面本质是一个什么样的AI功能应当免费,什么样的功能应当收费的问题。AI资源的分配,将如土地、房产分配一般的重要,具体怎么分,分到什么程度。这恐怕也是各国立法者从一开始就要面对的问题。
*** AI的使用限制 ***
AI是很强大的工具,人类可以用AI以极高的效率干出以前一个人无法完成的工作。这当然也蕴含着巨大的危险。以一个最基本的来说,AI可以很容易的把一个人的照片和另一个人的照片拼接,甚至直接把视频拼接,替换,编辑。造谣一个人,造谣一件事,将非常容易。有心人完全可以将马斯克和某个被警察捉走的犯罪嫌疑人视频拼接在一起,发一条假消息,说马斯克涉嫌犯罪被捕了,从而借此做空特斯拉股价,甚至引发更大的市场波动。未来类似的事情将会变得越来越多,使用AI看起来应该有一定的限制,那么该如何限制,怎么限制呢?强制AI生成的信息必须带有某种不可改动的标签?信息发布平台必须检验该标签?还是其他什么限制。这和我前面提到的AI与隐私保护可能是冲突的。这又回产生新的法律问题,未来对于AI使用的限制,恐怕将会同美国的民间持有枪支的讨论一样,引发很大的争论乃至社会撕裂。
*** AI与政府 ***
过去几年,AI与其基础“大数据”其实已经深深影响我们的生活。相比美国人、日本人,我们的生活其实更早的被AI影响了,具体怎么影响我就不多说了,大家的记忆应该都还在。我相信,为了提高政府工作效率与服务质量,未来政府将更快更积极更全面的拥抱AI,用AI辅助各项公共服务。很现实的,万一AI错了呢?以前政府工作人员错了,其实还是有纠错机制的,往简单说有12345,往复杂说有行政诉讼、刑事辩护,但是现在如果是AI错了呢?AI错在哪里,我们恐怕都不一定知道。我都能想象将来的官僚主义问题会出在哪里……“这是政务AI得出的结论”,“AI又没有个人利益,怎么会错”,“这个系统我们没法干涉,要错了只能该系统,这个改不了”等等等等。未来如果想服务好人民群众,恐怕对于AI和随之而来的AI官僚主义,要有点心理准备,也要设立一个纠错机制。不然我们的生活将会,非常的……我就不乱猜了。
我的想法大致是这些,再次强调,如果大家有任何不同意见,那肯定是你们都对。
*** 补充一点哈,这篇不是AI写的,当然如果有的症能量非要根据*下结论说这篇就是Ai写的,那肯定是你们都对 ***
发布于 北京
