著名投资人 Daniel Gross 和 Nat Friedman 领投了一家新的芯片公司:MatX。
该公司本轮融资 2500 万美元,其他投资者还包括Rajiv Khemani(Auradine 首席执行官)、Amjad Masad(Replit 首席执行官)、Outset Capital、SV Angel、家酿(Homebrew)等等。
核心团队来自谷歌TPU团队,该公司称其硬件可以训练 GPT-4 并运行 ChatGPT,但预算是小型初创公司可承受的。
公司使命是使世界上最好的人工智能模型在物理允许的范围内高效运行,为人工智能质量和可用性提速数年。
MatX 专注于大模型的高容量预训练和推理的成本效益。
- MatX 将支持训练和推理。首先是推理。
- 首先优化每美元性能,其次优化延迟。
性价比方面,将是迄今为止性价比最高的产品。
延迟方面,例如 70B 级模型的延迟时间小于 10 毫秒/token。
- 目标工作负载:
基于 Transformer 的模型,具有 7B+(最好 20B+)激活参数,包括稠密模型和 MoE 模型。
推理:至少有数千名用户同时使用。
训练:至少 10e22总训练 FLOPs(7B 级)。
-提供卓越的扩展性能,支持拥有数十万芯片的集群。
- 为客户提供对硬件的基础控制:专业级用户希望这样。
该公司表示, 有了其硬件,可实现:
- 世界上最好的模型将提前 3-5 年上市。
- 单个研究人员每天可从头开始训练 7B 级模型,每月可多次训练 70B 级模型。
- 任何处于种子阶段的初创企业都有能力从头开始训练一个 GPT-4 级模型,并以 ChatGPT 级别的流量为客户提供服务。
创始团队在谷歌和亚马逊设计过芯片,并且其芯片团队的规模仅为通常所需团队规模的 1/10。
首席执行官 Reiner Pope:Google PaLM 的效率负责人,设计并实施了世界上最快的LLM推理软件(论文:http://t.cn/A6oBEPmT);帮助构思了 Google 的 TPU v5e 并对其进行了LLMs优化。他还是谷歌机器学习芯片的编译器负责人。
首席技术官 Mike Gunter:谷歌机器学习芯片的首席架构师,拥有 28 年的硬件架构经验,其中包括 12 年的机器学习经验。他已经设计并实施了 11 个芯片,应用于处理器、无线通信、图形和机器学习等领域,其中包括谷歌的第一款硬件加速器。
首席开发官 Avinash Mani:曾在 Amazon、Innovium 和 Broadcom 领导多个 100 人以上的团队,已经将 12 个芯片产品从概念阶段推进到大规模客户部署。
