首先,大家不用惊慌,这恰恰说明人工智能还不够智能,它就像一个小孩一样,或者听不懂我们语义的人一样所问非所答。
其次,说明了这是一个算法上的bug,更好理解的话就是机器人的语料库(通俗讲就是知识储备)不足,通常机器先识别语义,根据关键词找到对应的答案,而答案来源于机器的语料库。
最后,我一直相信机器最终能实现自我学习和自我完善进入到机器智能时代,在某些方面超过人类这种生物智能体,所以达到机器智能有很长的路要走。
昨天就有人问过关于这件事的一些问题,再简单说一下我个人的看法:
对于类似事件,如果说主体不是AI而是人的话,首先肯定是确认真伪,如果真实也会详细调查原因。
但面对AI问题时这两点却最容易被社会舆论忽略。
因为人们对于AI往往是比较苛刻的,尤其在一些技术的初始阶段,每当出现差错时人们总是觉得不可原谅,或者提出质疑。
这其实包含了一种对异类的排斥心理,和大量的科幻电影的影响有一定关系。
就好比现在很多人家里都会养宠物狗,一但出现了狗伤人事件,就往往会导致小区里大家群起而攻之,人们听到这件事的第一反应不是事情真伪,也不是发生原因,即便是因为被咬的人首先威胁到了狗的生命。
这两种心理从本质上讲是非常类似,都是对异类的一种过度苛求和不能容错的反应。
人工智能伦理也早被提上了日程,2017年的Beneficial AI会议也提到了很多问题,当然要有一个不断完善的过程。
目前主体的AI技术为深度学习,而这种方式本身也存在着不足,就像一个懵懵懂懂的孩子,很容易被“教坏”。
所以除了对AI存在问题的修正和处理之外,其实人和人工智能也需要个磨合的过程。
这个问题暂时应该不会有答案吧
【问题解析】
单就事件本身来说,还构不成一个令人恐惧的事件。只是语音助手根据对话者的问话,按照固有逻辑,搜索了一条词条,读出来,仅此而已!但是有几个方面值得警惕
一、这类事件已经发生过多起。
前几年微软小冰上线几天就被大众给教坏了,这说明大家在构建一套智能语音助手的过程中,基本没有考虑到伦理这方面的问题。如果此时一个小孩子来跟他聊天,可能会产生很不好的影响。因此在搭建这类智能助手时,应该从底层逻辑去屏蔽这些不符合人类价值观的词条、规则等。
二、人工智能只是一个工具。
它对于人类来说,可能只是一把刀,一颗原子弹。看用的人如何。随着人工智能技术的发展,相应的立法制度肯定会逐渐健全。这是一个新生事物经历的必由的过程,也不必担心。所以初期由舆论监管,后期由国家监管。
三、真正的人工智能还是遥远的事情。
人工智能要达到像电影里面的程度,可能在很远的将来,也可能在不远的将来。其产生技术革新肯定能够推动下一轮社会变革。很多人工智能的先驱者将此比作第四次工业革命,大家不应对其持否定态度,而应该持疑问态度,不断去训练和改良他,使之能帮助人类社会大力进步。
标签:亚马逊,人工智能,语音