人与机器人对打 4 分钟,来回多达 340 次
虽然这握拍姿势略显僵硬,但接球可是稳得一批,你来我往配合的还挺有模有样~
其实在此之前就已经有乒乓球机器人的身影,比如和邓亚萍老师对阵的“庞伯特”,面对邓亚萍老师的高速球、弧圈球,它都能够及时调整自己的策略,灵活变化的同时它还能找到一些致胜点,引来邓亚萍老师赞叹连连。
那么谷歌这次推出的“乒乓球机器人”是如何精准学习人类行为的呢?
▍学习人类行为模型:破解“先有鸡还是先有蛋”
让机器人精准学习人类行为模型可没那么容易。
首先,想要让机器人学会与人类互动,就需要有人类的行为模型;然而,想建立人类的行为模型,就需要人类先与机器人进行互动。
为了搞清楚这个“蛋鸡难题”,i-S2R 使用人类行为的简单模型作为近似起点,并在模拟训练和现实世界部署之间交替进行。在每次迭代中,人类行为模型和策略都会被细化。
虽然一开始AI的学习情况并不咋地,但随着人机对战次数和AI收集到的数据成正比增加,其准确性也自然随之upup↑↑↑
i-S2R 方法论
为了评估 i-S2R谷歌搞了个实验,他们把玩家类型进行了细分:初学者(占 40% 的玩家)、中级(占 40% 的玩家)和高级(占 20% 的玩家)。
按玩家类型划分的 i-S2R 结果
实验结果显示,对于初学者和中级玩家(占 80% 的玩家),i-S2R 的表现都明显优于 S2R+FT(sim-to-real plus fine-tuning)。
除了i-Sim2Real这种模拟与现实交替进行的方法,谷歌还公布了只使用现实的数据学习的方法,即GoalsEye项目。
▍GoalsEye目标:“指哪打哪”
GoalsEye结合了行为克隆技术(behavior cloning techniques)来学习精确的目标定位策略。
GoalsEye 策略将球返回到不同位置
粗暴地来说就是:打准就完了。
研发团队为实现机器人精准的效果,他们还采用了 LFP(Learning from Play)、GCSL(Goal-Conditioned Supervised Learning)。
瞄准直径为 20 厘米的球门(左)的GoalsEye 策略/瞄准同一目标的人类玩家(右)
在最初的 2480 次演示中,谷歌的训练策略仅在 9% 的时间内准确地击中半径为 30 厘米的圆形目标。在经过了大约 13500 次演示后,小球达到目标的准确率上升到 43%(右下图)。
看到这里,俺只想期待一下子让这个机器人和咱们的乒乓男团一决高下。
不过很遗憾,谷歌表示,“乒乓球机器人”只是为了AI与人类的“合作”,并非为了击败人类。
不过,谷歌还是留下了一丝悬念,他们补充道,“以AI成长的速度来看,它将很快成为专业选手。”
话不多说,关于这两个项目的更多介绍,请小伙伴们自行采摘:
Iterative-Sim2Real 主页:https://sites.google.com/view/is2r
GoalsEye 主页:https://sites.google.com/view/goals-eye