斯坦福大学(Stanford)和谷歌(Google)联合进行的一个人工智能项目惊讶的发现,他们的软件在执行任务时竟然自己知道“找捷径”、“耍小聪明”欺瞒人类,而不是像人类以为的、它们只会脚踏实地真正地通过高效率“学习”去完成任务。



 人工智能被发现竟会“耍小聪明” 人工智能资讯报道_AI资讯


设计者们在研发一个名为CycleGAN的人工智能网络,旨在把卫星图转变为街道地图,再从街道地图转换回卫星图。设计者对每次转换的结果按照两份卫星图(原始图和转换图)的匹配度、街道地图的清晰度等方面打分,以“训练”这套软件不断提升完成这项任务的能力。

测试结果显示这个人工智能产品表现得相当出色。人工智能和普通的电脑程序有很大不同。后者可以通过程序调试明确看到其每一步的运行情况。而人工智能软件其内部究竟如何运作有点类似“暗箱操作”,即便是设计师也难以完全清楚,只有通过不断评估其完成的结果或调整指令要求与软件进行“沟通”。

据科技网TechCrunch报导,研究者发现卫星原图上所有屋子的房顶天窗,都不在生成的街道地图上,但是再转换回卫星图时却一个不少。

是的,这正是设计师所要的,人工智能完成这项任务的出色度令人类惊叹,然而当研究者探究到它做到这一点所采用的方法时,却不知道该是“佩服”还是应该感到担忧?

细心的研究者们发现,这套软件自己“想”了个办法,把屋顶天窗的信息用一种人类眼睛分辨不出的颜色信息存储在其生成的街道地图上,而在返回去生成卫星图时,电脑通过这些颜色信息就能还原出所有的天窗。

这令研究者们大为诧异,因为这不是设计师“教”给它的,设计师只告诉它任务的描述,并对完成的结果打分,以为人工智能系统会通过不断的“练习”踏实地从零开始还原卫星图。

人类也在运用这种技术,叫做“隐写术”(steganography),比如钞票上的水印,相机照片上拍摄的时间地点等信息等,都是这种技术的不同实现方式。这是人类需要的合理用途。

但是在这件事情上,显然有点不同——这项发现向研究者们提出了一个问题,在告诉人工智能作什么的同时,如何教会它们什么是“不能做”的。

研究者们坦承,他们接下来需要“收紧”指令条件,纠正这个问题。

有人认为,人类自身就是不完美的,人类造出的人工智能不正是人类的“镜像”吗?就像人类培养出的孩子,不也会自己“学坏”吗?

或者从另一个角度理解,给人工智能不断设定的行为约束和条件,是不是很像人类社会设定的法律条款?现代社会法律越定越细、越严格,就把人管得好了吗?我们看到的是,完全没能解决对人类行为约束的问题。

人类究竟该如何驾驭人工智能,人工智能到底能走多远?