[ 吾爱智能导读 ] 未来的世界一定是人类与机器携手并进的时代,因此构建有意义、有价值的AI系统至关重要,它将能够帮助实现更加高级的人机协作。然而,AI系统的构建并不是一项简单的单系统任务,则需要考虑很多作用因素和边缘挑战。 人机合作,人工智能,智能系统,自动驾驶,机器人 哈佛大学Barbara Grosz:不做替代品!构建实现高级人机协作的AI系统 AI资讯 第1张 图片来自“123rf.com.cn”

在“2017微软教育峰会”上,哈佛大学工程与应用科学学院自然科学家希金斯教授Barbara Grosz与大家分享了AI系统与人类交互的基础和挑战,探讨了智能机器系统的未来可能性。

以下为Barbara Grosz分享的精简版文字整理:

人工智能之父”艾伦·麦席森·图灵在1950年时提出了他个人最著名的假设——图灵测试,用于判定机器是否具有智能。如果在多次试验后有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了图灵测试,并被认为具有人类智能。30%是图灵当时对2000年的机器思考能力的一个预测,然而现在我们还远远落后于这个预测。

未来,在与机器进行合作时,你可能不会意识到它不是人类,但这也并不是说AI系统和人类已经达到了难以辨别的层次。事实上,你仍然能够明确地知道你是在和机器进行工作,而机器堪比人类的出色表现,就性能而言足以乱真。

目前,AI正在快速地进入人们的日常生活,声名鹊起之余,它也有能够与热度所匹配的能力。AI时代已经来临,我们需要探索如何能够更好地构建AI系统,以实现更高级的人机协作。

AI:不做人类的替代品、复制品

图灵曾经提出一个颇具哲学意味的问题,为了让科幻电影中机器失控的场面永远只是科幻,我们需要考虑如何利用人工智能来增强人类的能力,而不是替代人类或者单纯复制人类的智慧。人工智能大势已至,我们必须充分利用智能系统的利好进行协调合作:

    1、时代已经产生了翻天覆地的变化,过去是一人一台电脑,各自独立进行工作。而现在的电脑完全能够实现互联共享,很多人可以在不同的地点和不同的系统内同时工作。

    2、认知科学提出两大论断:第一,协调合作能够促进大脑发展。如果一个新生儿在出生两年内没有参与任何社交活动,那么他的大脑体量将相较更小,且会严重影响大脑内产生的能量。第二,语言学习是在人与人之间的交流中发生的,一岁大的孩子能够识别出世界上所有语言的音素,但是之后这种能力会逐渐衰退。因此,协调合作是语言学习的“防腐剂”。

    3、系统设计和工程研究非常重要,相比无限期沉浸在系统成功部分的喜悦中,错误和不足之处更该引起重视。这些错误将能够帮助找出与人类期望不匹配的部分,并实现系统升级。

    4、伦理问题不容忽视。以自动驾驶为例,这确实是一个很美好的概念,但需要我们共同协作。目前利用真人去做自动驾驶实验的还很少,这其中,仍有很多非常现实的问题需要解决。

    对话和语言领域:边缘挑战重重

    人们可以通过语言的架构和组织进行交流,从中获取对话内容和信息,因此语言是人们参与对话的深层次意图,而非一串单词的简单堆砌,对话也不是简单的线性排序或者随机组合,其结构其实非常清晰。目前,我们处于对话和语言研究的边缘,有很多问题和挑战需要解决。

    近年来,AI在医疗信息领域表现非常突出,不仅能够以极高的效率完成信息和数据收集工作,同时也正在发展一些过去只有医生才能掌握的高深专业技能,比如看X光影像等等。但是,AI也并非样样精通,它在理解感性世界、感知微小情绪变化等方面就相对落后。它不可能劝说一位拒绝医生治疗的患者“回心转意”,当然我们也无需AI如此。

    越来越多领域普及AI并将AI应用于实际操作的同时,AI发展可能带来的伦理学问题也引发了人们的高度关注。我们以儿童玩具为例,曾经有一款专为3-8岁孩子量身打造的机器娃娃可以和孩子进行自由交流,这听起来非常美好。

    但事实上,机器娃娃和孩子的对话往往只是单向的,娃娃无法真正理解孩子的语言,甚至会忽视孩子在交流过程中的心理活动。和机器娃娃的交流经常无法达到一些正常的谈话期望。如,当孩子流露出负面情绪时,机器娃娃难以即时调整对话情绪,反而是继续沉浸在无休止的兴奋互动中,这对孩子而言无疑是二次伤害。

    再比如,成人往往会以对话的形式教育孩子,“懂礼貌”、“不能对其他人过分刻薄”,但是机器娃娃的设计脚本中不会涉及这样的道德观,它只会自说自话,放任孩子的行为。

    产生这种后果的原因之一是我们对人类对话的理解存在缺失。对话是由有目的性的参与者共同构造的,其中语音语调也不是无意义的对话元素,它们是对话整体不可忽视的一部分。对话也并不是相似内容的匹配,一个问题对应一个回答在现实世界中几乎是不存在的。

    因此,这些对话的特征也给未来AI系统的构建和聊天机器人的发展带来了一些挑战:开放领域(如:社交聊天机器人)将比封闭领域(如:旅行助手、客户服务)的应用更加困难,而一问一答的短对话将会比堪称全真的长对话容易操作得多。

    从设计之初就将AI可能带来的伦理问题纳入考虑范围之内对企业而言是至关重要的,它不只是会对个人产生影响,而是对整个社会、世界都会有所波及。我们很高兴地看到微软目前就在做这件事情——关注AI的隐私、安全等一系列潜在问题。除了必须注意AI将产生的负面伦理影响,如何充分利用AI、发挥正面引导作用同样是值得研究的。以下是我认为研发AI系统所需要遵循的几项基本原则:

    1、价值是由人类来决定的,而不是机器。

    2、过度关注AI威胁论可能会分散在重大问题研究方面的注意力,错失最佳时机。

    3、研究前路挑战重重,除了关注监管和隐私问题,设计不同领域的AI系统、嵌入伦理能力也同样重要。


    2017年9月14日,吾爱智能智库正式发布了《2017中国智能金融产业研究报告》,该报告在梳理智能金融概念、宏观环境和公司现状的基础上,总结了七大应用场景,并分析了金融机构的智能金融应用以及互联网巨头的布局,最后总结了智能金融的未来发展趋势与挑战。了解更多报告内容,请点击:《2017中国智能金融产业研究报告》。

    吾爱智能智库:2017中国智能金融产业研究报告 哈佛大学Barbara Grosz:不做替代品!构建实现高级人机协作的AI系统 AI资讯 第2张


    2017年9月10日,吾爱智能智库正式发布《鸟瞰人工智能应用市场——安防行业研究分析报告2017》,该报告内容分为四大板块:综述背景篇、技术探讨篇、行业现状判断篇、趋势判断篇以及附录企业案例。报告内对诸多衍生疑问的量化解答,对于参与变局的企业都有意义,对于技术买单者政府也有参考价值,甚至对于第三方的投资者、媒体等都能给予有参考价值的信息。了解更多报告内容,请点击:《鸟瞰人工智能应用市场——安防行业研究分析报告》。

    640x320.jpg 哈佛大学Barbara Grosz:不做替代品!构建实现高级人机协作的AI系统 AI资讯 第3张

    下一篇: 双积分政策之下,自主品牌有望夺回主战场 人工智能 行业观察 行业观察

    扫一扫分享微信

    0

    0