单就个人而言, 阻碍AI融入自身Workflow的最大问题是Credibility… 一些AI很像高分低能的书呆子, 解答定式套路的题目很在行, 但到了实际运用的时候, 或者说需要"举一反三"的时候, 就不灵了… 这是AI仍然显得低效或者需要消耗很多能源的主要原因…
举个例子: 昨天上传一篇BIS论文给Gemini3.0, 然后问近期日债利率上行, 是否符合这篇论文阐述的内在机制, 只是传导反向相反. 丫的直接给出否定答案, 反倒把我往"VaR Shock"和商业银行的方向引导. 它既无法理解BIS论文的反方向传导是什么, 也无法依据准确的数据做出判断, 直接告诉我日本寿险公司不会出售JGBs. 直到上传Bloomberg图表证明这些公司确实在卖, 丫的还是固执己见. 经过补充提示词和新的Bloomberg图表, Gemini3.0才明白我最初想表达的, 需要它验证的逻辑…
发布于 美国
