为什么自动驾驶还没有7个月大的孩子聪明呢?人工智能现在的路是不是错了
经济学人报道了关于业界关于AI发展方面的一个争论,这个争论如果能有一个结果,不只是对智能汽车有意义,可能对未来的人类世界都产生很大的影响。
在7个月大的时候,大多数孩子已经知道,即使某个物体不在视线范围内,但它们还是存在的。把玩具放在毯子下面,这么大的孩子已经知道东西还在那里,而且自己可以伸手从毯子下面伸手拿回来。
这种对“物体永久性 ”的理解,是人类逻辑思维中一个正常的发展里程碑,也是现实世界的基本原则。
不幸的是,智能自动驾驶汽车还没有学会这一点,而这一点会造成不少麻烦。自动驾驶汽车正在变得更好,但仍然不能像人类那样理解这个世界。
对于自动驾驶汽车来说,一辆被路过的货车瞬间掩盖的自行车,就是一辆已经不存在的自行车。
这种挫败,是现在计算学科遇到的普遍问题,也是一个基本问题,计算学科给自己冠以人工智能(AI)这个略带误导性的名称,因为目前的人工智能,是通过建立复杂的世界统计模型来工作的,但并不像人类一样,会对现实有深入了解。
如何让人工智能至少能理解一点现实呢?哪怕就是一个七个月大的孩子的推理能力,现在已经成了热门的研究领域。
现代人工智能是基于机器学习的理念。
如果一个工程师想让计算机识别一个停车标志,他不会试图编写数千行代码来描述可能表示这种标志的每个像素模式。相反,他写了一个可以自我学习的程序,然后向这个程序展示成百上千的停车标志图片。
经过多次重复,程序会逐渐找出所有这些图片的共同特征。
类似的技术被用来训练自动驾驶汽车在交通中运行。汽车因此学会了如何遵守车道标记,避开其他车辆,在红灯时踩下刹车等等。但不幸的是,智能汽车并不了解人类司机认为理所当然的许多事情,道路上的其他汽车,应该也有发动机和四个轮子,这些汽车大概率会遵守交通法规,而且必然会遵守物理定律。
当然了,汽车或者说AI,也不会理解物体的永久性。
在最近发表于《人工智能》的一篇论文中,瑞典Orebro大学的梅胡尔·巴特(Mehul Bhatt),描述了一个不同的方向。
|