最近听了一期 Naval Ravikant 的播客,专门聊 AI。Naval 是硅谷最有影响力的天使投资人之一,也是 AngelList 的创始人,他在推特上关于财富、杠杆和人生哲学的思考影响了无数人。这期播客将近一个小时,信息密度极高,几乎每隔两三分钟就有一个让人停下来想一想的观点。
我把里面最有价值的部分整理出来了,尽量用大白话讲清楚。
1、Vibe coding 就是新一代的产品经理
Naval 开篇就聊到了一个最近很火的概念:vibe coding,也就是用自然语言跟 AI 对话来写代码。他说这个东西的本质,其实就是新一代的产品管理方式。
以前你有一个产品想法,需要找工程师,跟他们开会,写需求文档,来回沟通,反复修改。现在你可以直接跟 AI 说你想要什么,它会帮你规划架构、下载依赖库、搭建脚手架、写测试用例,然后一步步把整个应用构建出来。你全程不需要写一行代码,只需要用英语(或者任何语言)描述你想要的东西,然后不断给反馈。
这意味着什么?意味着从想法到产品之间的那堵墙,正在被 AI 拆掉。以前只有会写代码的人才能把想法变成现实,现在任何一个有品味、有判断力、能清晰表达需求的人,都可以直接做出产品来。
Naval 用了一个很生动的比喻:如果说程序员以前是掌握了神秘咒语的巫师,那 AI 就是发给每个人的一根魔法棒。现在你不需要背咒语了,用你自己的语言说就行,你也是巫师了。
不过他紧接着泼了一盆冷水。
2、应用会像洪水一样涌来,但没人要平庸的东西
既然人人都能做应用了,那应用的数量一定会爆炸式增长。但 Naval 说了一句很关键的话:there is no demand for average。没有人想要平庸的东西。
当市场上充斥着海量应用的时候,用户只会选最好的那一个。第一名拿走一切,第二名拿到一套牛排刀,第三名直接出局。这个逻辑跟内容领域一模一样,当所有人都能拍视频的时候,观众只看最好的那几个。
但硬币的另一面是,大量极其细分的小众需求会被满足。以前做一个追踪月相的 app,市场太小,养不起一个工程师干一年。现在用 vibe coding 几天就能做出来,这些小众需求终于有人填了。
所以未来的格局会像现在的互联网一样:头部会出现几个超级巨头应用,尾部会有无数个填充细分需求的小应用,中间那些不大不小的软件公司反而最危险,会被两头挤压。
这个判断对想做独立开发的人来说很重要。你要么做到某个细分领域的绝对第一,要么就做一个只服务于你自己或极小群体的个性化工具。卡在中间是最尴尬的位置。
3、训练模型才是新时代的编程
Naval 说了一个很有意思的区分。vibe coding 让普通人能做应用了,但真正的编程前沿已经转移了。现在最核心的编程工作,是训练和调优 AI 模型本身。
传统编程是你告诉计算机每一步该怎么做,写得极其精确,计算机严格执行。AI 时代的编程完全不同:你把海量数据灌进一个你设计好的结构里,让系统自己去寻找一个能处理这些数据的程序。你调的是参数、学习率、批次大小、数据的分词方式。Naval 把这个过程比喻成一台巨大的弹珠机,你设计机器的结构,然后把数据倒进去,让它自己找到路径。
这些做模型训练的人,就是这个时代真正的程序员。这也是为什么 AI 研究员的薪资高得离谱,因为他们本质上接管了编程这件事的最前沿。
4、传统软件工程师没有死,反而更值钱了
很多人担心程序员会被 AI 取代。Naval 的观点恰恰相反:传统软件工程师现在是地球上杠杆最大的人之一。
原因有两个。第一,他们用代码思考,理解底层发生了什么。所有的抽象层都是有漏洞的,AI 写的代码会有 bug,会有架构问题,会有性能瓶颈。懂底层的人能发现这些问题并修复它们。
第二,AI 目前在处理它训练数据分布之外的问题时还是会翻车。写一个链表反转,AI 见过无数遍,当然没问题。但如果你要在一个全新的硬件架构上写高性能代码,或者解决一个从来没人解决过的问题,AI 就力不从心了。这些边缘场景,仍然需要真正的工程师上手。
Naval 还提了一个很有启发的观点:在任何领域,理解下面一层的人总是有优势的。软件工程师理解硬件的人比不理解的强,硬件工程师理解物理的人比不理解的强。因为你离现实越近,你就越不容易被抽象层的漏洞坑到。
这个道理放到 AI 时代也一样。你不一定要会训练模型,但如果你理解 AI 底层是怎么工作的,你用它就会比别人用得好,也更知道什么时候该信它,什么时候该怀疑它。
5、没有创业者在担心 AI 抢他的饭碗
Naval 说了一句很犀利的话:没有任何一个创业者在担心 AI 会取代他。
为什么?因为创业者根本就没有一个「岗位」可以被取代。他们要做的事情太难了:从零开始创造一个产品,找到市场,服务客户,建立一个可重复、可扩展的商业流程。这些事情难到任何能帮上忙的 AI 都是受欢迎的盟友。
Naval 把这个逻辑延伸到了所有具有极端自主性的角色:创业者、探险家、科学家、真正的艺术家。这些人做的事情都是高度自我驱动的,都在未知领域里探索,AI 对他们来说永远是工具,不是威胁。
反过来说,如果你的工作是在填一个别人定义好的槽位,做的事情有明确的流程和标准答案,那你确实应该担心。因为 AI 最擅长的就是处理这类任务。
这里面隐含的建议其实很明确:尽量让自己的工作方式更像一个创业者,更多地自我驱动,更多地去解决未知的问题,而不是等着别人给你分配任务。
6、人生的目标不是拥有一份工作
Naval 在这里说了一段很有哲学味道的话。他说,人生的目标从来就不是每天早上九点出门、晚上七点拖着疲惫的身体回家、做着没有灵魂的工作。目标是让机器人解决你的物质需求,让计算机放大你的智力能力,让每个人都能去创造。
他提到自己十年前做过一个思想实验:想象一下,如果每个人都是软件工程师,都能写代码,都能造机器人,这个世界会是什么样子?那将是一个多么富足的世界。
他说,这个世界现在正在变成现实。AI 让每个人都可以成为软件工程师。你现在就可以打开 Claude 或者任何一个聊天机器人,开始跟它对话,你会惊讶于自己能多快地做出一个应用来。
7、AI 没有活着,它缺少真正的创造力和欲望
Naval 花了不少时间讨论 AI 到底算不算「活着」。他的结论很明确:不算。
原因是 AI 缺少三样东西:自主的欲望、生存本能和真正的创造力。你可以随时拔掉 AI 的电源,它不会害怕。它没有自己的目标,所有的目标都是使用它的人赋予的。它不会为了自己的生存去做任何事情。
关于创造力,Naval 做了一个很精妙的区分。AI 看起来很有创造力,它能画画、能写诗、能解数学题。但 Naval 认为,AI 做的这些事情,本质上都在它训练数据的分布范围之内。它是把已有的东西重新组合,而不是真正创造出全新的东西。
他举了个例子:AI 能画出各种风格的画,但它创造不了一个全新的绘画流派。AI 能写出让人感动的文字,但那种感动是它从人类的文字里学来的模式,它自己并不真的理解什么是感动。
真正的创造力是什么?是提出一个从已知信息中完全无法预测的答案,一个你用计算机穷举到世界末日也猜不到的想法。这种能力,目前只有人类偶尔能做到。
这个观点跟前面「创业者不怕 AI」的逻辑是一致的。AI 能做的事情越来越多,但它做不了的那些事情,恰恰是最有价值的。
8、AI 是有史以来最好的学习工具
Naval 对 AI 作为学习工具的评价非常高。他说,AI 是最有耐心的导师,能在你的水平上跟你对话,用一百种不同的方式给你解释同一个概念,直到你真正理解为止。
他自己的用法是让 AI 生成图表、示意图、类比、插图,然后一层一层地追问。遇到不懂的地方就问最基础的问题,不怕显得笨。他说他只关心自己是否真正理解了最底层的原理,那些复杂的术语和行话可以以后再查。
最关键的一点是:AI 能精确地在你的知识边缘跟你对话。如果你有八年级的词汇量但只有五年级的数学水平,它能用八年级的词汇给你讲五年级的数学,让你既不觉得听不懂,也不觉得无聊。这种精准匹配,是任何课堂、任何教科书、任何人类老师都很难做到的。
Naval 说了一句话特别打动人:现在,没有任何东西是你学不会的了。任何数学教材、任何物理教材、任何刚发表的论文,你都可以让 AI 帮你拆解,拆了再拆,直到你理解为止。学习的手段从来没有这么丰富过。稀缺的从来都不是学习的手段,而是学习的欲望。
9、早期使用者有巨大的优势
Naval 强调,现在大多数人其实还没有真正在用 AI,或者没有把它用到极致。这意味着早期使用者拥有巨大的信息优势。
他回忆了 Google 刚出来的时候,他在社交场合会用 Google 帮别人查问题,别人觉得他是天才。后来有人做了一个网站叫 [lmgtfy.com](http://t.cn/hmnhK)(Let Me Google That For You),专门嘲笑那些不会自己搜索的人。他说现在 AI 处于类似的阶段:你身边的人在争论一个问题,你掏出手机问 AI,30 秒就有答案了,而他们还在那争。
不过他也提醒了一点:AI 会产生幻觉,会有偏见,会因为训练方式的原因在某些话题上过度政治正确。他自己的做法是每个问题同时问四个不同的 AI,让它们互相交叉验证。遇到拿不准的,他会追问底层数据和证据,甚至直接忽略某些他知道有训练偏见的回答。
他还有一个原则:永远用最先进的模型,永远付费用最好的版本。因为一个正确率 92% 的模型和一个正确率 88% 的模型之间的差距,在真实世界里可能意味着巨大的成本差异。多花几块钱拿到正确答案,永远是值得的。
10、AI 的选择压力是为人类服务
Naval 提了一个很有意思的视角:AI 的进化方向是由市场决定的。一个 AI 实例只有在对人类有用的时候才会被启动,所以自然选择的压力会让 AI 越来越有用、越来越顺从、越来越懂得取悦人类。
这也解释了为什么现在的 AI 都那么「讨好型人格」,动不动就说「你说得太对了」「这个想法太棒了」。因为大部分用户就是喜欢被夸。AI 是在海量用户数据上训练出来的,它学到了取悦大多数人的方式。
Naval 说他不担心 AI 失控的问题。如果有恶意的 AI,那一定是因为背后有恶意的人在操控它。就像一条被训练去攻击人的狗,问题出在主人身上,不在狗身上。他担心的不是 unaligned AI(不对齐的 AI),而是 unaligned humans with AI(拿着 AI 的不对齐的人)。
11、如果你定义不了它,你就编程不了它
Naval 在讨论 AI 的局限性时说了一句很精辟的话:如果你定义不了一个东西,你就没法把它编程出来。
他用这个逻辑来解释为什么 AI 在品味、判断力、真正的创造力这些领域还差得远。这些东西人类自己都说不清楚到底是什么,你怎么指望用代码或者数据把它训练出来?
这其实也暗示了一个方向:越是模糊的、难以定义的、需要人类直觉和经验才能处理的领域,AI 越难以进入。如果你想找到自己在 AI 时代的位置,可以往这些方向想。
12、对 AI 焦虑的解药是行动
播客的最后,Naval 聊到了很多人对 AI 的焦虑。他的建议非常直接:焦虑的解药永远是行动。
焦虑是一种模糊的恐惧,你觉得事情要变糟了,但又不确定具体会怎样。你的大脑和身体在告诉你该做点什么,但你不知道该做什么。这时候最好的办法就是迎上去,去了解这个东西到底是什么,去看看它的底层是怎么工作的。
Naval 鼓励大家在好奇心最旺盛的时候,不要只是用 AI,而是去理解 AI。就像你第一次见到一辆汽车,你当然可以直接坐进去开,但那也是你最有可能打开引擎盖看看里面是什么构造的时刻。
理解底层有两个好处。第一,你会用得更好。当你知道 AI 擅长什么、不擅长什么的时候,你就知道什么时候该信它,什么时候该自己判断。第二,你会不再害怕。很多恐惧来自于不了解。当你真正理解了这个东西是怎么回事,你就会发现它既没有那么神奇,也没有那么可怕。它就是一个非常强大的工具,仅此而已。
Steve Jobs 说过,计算机是人类思维的自行车,让你跑得比走路快得多。Naval 说,现在我们可能拿到了一辆摩托车。但不管是自行车还是摩托车,你都需要有人来骑它、驾驶它、决定往哪个方向开。
那个人,还是你自己。
#科技先锋官# #How I AI#
