【JAT:多功能Transformer智能体】
- 提到JAT项目,目标是朝着通用智能体的方向发展。该项目基于Gato的工作,构建了一个开源版本的Gato数据集。
发布了大量专家强化学习智能体,涵盖各种不同任务,包括Atari、BabyAI、Meta-World和MuJoCo等。
- 发布了JAT数据集,这是第一个通用智能体训练数据集。它包含上述专家智能体收集的数十万条轨迹。
- JAT模型基于Transformer架构。它的特点在于嵌入机制,可以内在地处理序列决策任务。
- 实验结果显示,JAT模型在157个训练任务上达到了专家表现的65.8%。这说明它能够在各种各样的任务上模仿专家表现。
- 发现,适当地预测观察也有助于提高智能体的学习效率。
呼吁后续研究改进数据集质量、使用离线强化学习、改进多任务采样策略等。
- 在NLP和CV任务上也展示了JAT模型的初步能力。
开源了JAT模型和代码,为通用智能体领域的研究打开了新的方向。
《Jack of All Trades, Master of Some, a Multi-Purpose Transformer Agent》 http://t.cn/A6TEBHgF #机器学习# #人工智能#
发布于 北京
