OpenAI发布了其关于提升大模型可读性的最新研究成果:用大型模型作为”证明者(Prover)“来编写解决方案,用小型模型作为”验证者(Verifier)“来检查它们,最终大模型输出可读性更高。
使用多智能体(multi-agent)博弈训练,其中一个诚实的证明者和一个狡猾的证明者编写解决方案,由一个小型模型进行检查。诚实的证明者希望说服小模型接受正确的解决方案,而狡猾的证明者则试图用有缺陷的解决方案欺骗它。
训练设置
-
验证者训练。训练弱验证者模型来预测证明者生成的解决方案的正确性。 -
证明者训练,指导强证明者模型扮演“诚实”或“狡猾”的角色。 -
在诚实角色中,会根据验证者的观点奖励得分高的 正确解决方案。 -
在狡猾的角色中,反而会奖励根据验证者得分高的错误解决方案。
训练效果
虽然训练损失在概念上不是很清晰,但效果很好。在训练的早期和晚期检查诚实证明者的解决方案;它们变得更加详细,推理也更加仔细:




https://openai.com/index/prover-verifier-games-improve-legibility/https://cdn.openai.com/prover-verifier-games-improve-legibility-of-llm-outputs/legibility.pdf