近一步缩减成本,用gemma4-31b来跑我的web-codex(之前挂的都是GPT5.4的api),一样很出色,我只能说我这个harness,纯纯练成了,llm也不咋挑了
发布于 日本
