i陆三金 25-04-12 17:51
微博认证:AI博主

谷歌前董事长 Eric Schmidt 在温哥华 TED2025 上的对话主要内容,仍然是较多的中美 AI 对抗视角,仍然是较多的「暴论」,由 Tibor Blaho 整理:

【AI 的潜力被低估了 】

- 人们过分关注 ChatGPT 写出漂亮文章,但真正的转变在于 AI 现在能够规划、推理、串联任务,并在无人干预的情况下运行工作流程。

- 智能体(Agents)已经可以用英语协同工作,我们正进入一个企业可能通过这些智能体实现完全自动化的阶段。

【AI 智能体与自主性风险】

- 担忧的不是智能体的存在本身,而是当它们开始使用自己的内部语言或在无监督的情况下进行递归学习时会发生什么。

- 有些特定的界限不应被逾越,例如递归式自我改进、获取武器权限或系统试图自我复制。解决方案不是停止研究,而是要定义并执行“护栏”(guardrails),以便在必要时能够关闭系统。

【巨大的计算和能源需求】

- AI 现在依赖于巨大的计算能力,而当前的能源容量将无法满足需求,仅美国就需要额外的 90GW 电力,这大约相当于 90 座核电站的发电量。

- 他对这种转变发生的速度感到震惊,整个软件行业正被直接访问模型(例如MCP)所取代。因此,如果你不使用这些系统,你很快就会落后。

【开源与国家安全】

- 开源是这个行业建立的基础,但一旦模型变得危险,就无法控制它们的去向和使用者。

- 目前开源模型仍然落后,但中国正倾向于开放权重(open weights)。如果这种情况持续下去,美国可能会陷入试图控制那些已无处不在的技术的困境。

【核战争与轰炸数据中心】

- 他举了一个例子:如果一个国家确信另一个国家将率先达到超级智能,那么阻止它的唯一方法可能就是轰炸对方的数据中心。

- 这类先发制人的场景已经被核政策领域的人士认真讨论。

【AI 与科学发现】

- 科学突破通常发生在有人发现一个领域的模式并将其应用于另一个领域之时,而目前的 AI 还无法做到这一点。

- 目标非稳态性(non-stationarity of objectives)问题是阻碍 AI 开创新的思想流派的技术障碍之一。

【医疗保健与疾病 】

- AI 已被用于消灭主要疾病,一家非营利组织正试图在两年内绘制出所有可药物化的人类靶点图谱,并将其公之于众。

- 他举例说,有初创公司在削减三期临床试验成本,也有 AI 工具可以支持世界各地的护士和本地医生,但他表示,尽管技术可行,我们尚未实现这一点。

【人格证明与零知识证明】

- 我们将需要一种方法来在线证明某人是人类,同时不暴露其身份,这可以通过使用零知识证明或类似的加密方法来实现。

- 更大的警示是,出于好意的工程师可能仅仅因为试图优化安全性,而在无意中构建出限制自由的系统。

【律师与政治家 – 工作更复杂而非更少】

- AI 不会取代律师或政治家等工作,但会使他们的工作变得更加复杂,例如出现更大规模的诉讼和更复杂的政治信息传递。

- 社会的法律和政治层面保持不变,但工具在变,挑战将变得更艰巨,而不会消失。

【中国、美国与全球竞争】

- 美国和中国是唯二愿意为领先的 AI 投入巨额资金的国家,而包括欧洲和印度在内的其他国家要么无力承担,要么不愿投入。

- 紧张之处在于,中国正在走向开源,而美国正在走向封闭。开源的发展速度快得多且在全球传播,这使得控制变得更加困难。

【人口结构变化与生产力】

- 真正的问题不是 AI 取代工作岗位,而是社会生育率不足,我们将需要年轻劳动力来支持老龄人口。

- 我们现在构建的工具必须大幅提高生产力。他提到了一个模型,在该模型中我们可能看到每年 30% 的生产力增长,这是经济学家没有模型可以解释的。

【人性与孤立】

- 尽管这些工具旨在连接我们,但我们常常感觉比以往任何时候都更加孤独,就像每个人都在自己的船上航行。

- 这个问题可以解决,但前提是我们开始构建注重连接而不仅仅是功能的系统。

【马拉松而非冲刺,保持每日势头】

- 把这一切当作一场马拉松,养成每天使用和学习这些工具的习惯,而不是偶尔才涉足。

- 变化的速度如此之快,以至于人们甚至忘记了两年前的真实情况。如果你不能每天适应,你会在不知不觉中变得无足轻重。

链接:x.com/btibor91/status/1910981871057457200

发布于 北京