您的位置:主页 > 业界动态 >

业界动态 人工智能何必模仿人类智慧

2015-04-22作者:admin来源:未知次阅读

人工智能
  人工智能之父、英国数学家图灵(Alan M. Turing)1950年提出了一个测试电脑能否思考的「图灵测试」:让人类裁判与受测机器对话,若机器能在问答过程中让裁判无法分辨其为人类或机器,就算通过图灵测试,表示机器具有某种程度的智慧。
 
  接下来的半世纪里,出现了不少「宣称」通过图灵测试的人工智能程序。1966年,美国的维森班(Joseph Weizenbaum)开发的聊天程序ELIZA首先宣称通过图灵测试。此程序先从人类的问题中找出预载的关键字,若匹配成功就回覆相对设定好的句子;若无,则从预设的通用答案中择一回覆。之后还有很多类似的「聊天机器人」(chatterbot)程序,例如ALICE、Elbot,都宣称可骗过人类裁判。
 
  但是后人重新检验这些程序,却认为争议重重。例如有些实验在测试过程中,并没有先告知裁判对话的另一方可能是机器。实验也证实,有没有这种「先入为主」的概念,会影响裁判的对话选择以及判断。今年媒体争相报导的聊天机器人Goostman,也号称通过图灵测试,争议点就在于一开始就说自己是正在学英文的13岁乌克兰小孩,使得裁判把它一些不合逻辑的回答解释成对英文的认知不足。
 
  上述结果让学者开始质疑:图灵测试是否真正适合用来测试电脑能不能思考?最有名的当属于席艾勒(John Searle)的「中国室」(Chinese room)思想实验。在这个实验中,中国室里充满了写好的规则,让不懂中文的人把一个中文句子转换成另一个相关的中文句子。根据这些规则,例如把「你好吗?」转换成「我很好」,就可让身在中国室里不懂中文的人假装成懂中文的人。同理,一个记载很多规则的电脑程序就好像中国室一样,可让人误认为它懂得对话的含意。
 
  公认的图灵测试盲点,在于它利用「模仿人类」的成功与否来判断机器有没有智慧。然而人类会犯错,也会做出不合常理的行为,使得机器可藉由模仿人类的愚昧来通过图灵测试。1992年某个图灵测试竞赛的冠军,就是藉由故意打错字来迷惑评审。此外,有些所谓「智慧行为」是人类做不到的,例如快速的四则运算,所以电脑必须要「限制」自己的能力以通过图灵测试。于是有人提出,要测试电脑有没有智慧,为何不直接测试它的智商或解决问题的能力?就如同要测试飞机的性能,我们可以直接测试它能不能飞、能飞多久,而不是测试它像不像一只鸟。
   转载请注明出处::http://91zhineng.net//zuixin/1.html

无觅关联推荐,快速提升流量

凡本站注明“本站”或“投稿”的所有文章,版权均属于91人工智能或投稿人,未经本站授权不得转载、摘编或利用其它方式使用上述作品。本站已授权使用的作品,应在授权范围内使用,并注明“来源:91人工智能”并附上链接。违反上述声明者,本站将追究其相关法律责任。

编辑:贾维斯 关键词: 人工智能

网友评论

随机推荐

图文聚集

热门排行

广告赞助

TAG