今年有一个使用 AI 的感受越来越强烈。
总体上,我用 AI 辅助进入自己不熟悉的知识领域。偶尔也会在我的专长范围内提问,起到搜索资讯的效果。
在专长范围内提问的时候,很容易发现 AI 的回答错误很多,我得从一堆废话中识别哪些是胡说,哪些有价值。有时候通篇都是振振有词的胡说,但并非幻觉,而是在正确的信息基础上,进行错误或平庸的解读。
这种错误或平庸的解读,振振有词,和颇有洞见的解读都是一个调调。当我是专家的时候,一眼就能看出来何谓屎何谓金。如果我是小白呢?估计就照单全收了。
所以,对于观点类的交付,我在自己不熟悉的知识领域,大概是被喂了很多屎但自己看不出来的。
周一在公司看到 Agent 生成的对于下掉某个功能的解读。我一眼就能看出来 AI 的表达正确、刻板,诸多晦涩僵硬的语句。优点是兼顾了运营侧的配合动作,不用拉会。
但我毕竟不是负责的运营,也许她看一眼就能发现 “全他妈是废话”。
我对此的感受是,你必须比 AI 更高明才能驾驭 AI。如果 AI 在某个领域比你更高明,那么你这方面的天花板是不高的。人类驾驭 AI 的过程,也是约束 AI 与评审结果的过程。AI 不是神仙,它是概率机器。约束机器的运行,评审机器的交付,高明的人类借力于 AI 而不是把思考委托给机器。
发布于 北京
