“这几年,我先后用c100和c200制造出好几批样品机器人,并且一直在观察评估,确定没有任何问题,最终才在几个月前,把c300装进了雅薇的大脑。”</P>
“目前来看,我的担忧应该是多余的,即使有了c系列的智能芯片,机器人也只是在模拟人类,并没有产生脱离于程序设定的自主意识,所以还是能够掌控的。”</P>
“后来我仔细想了一下,思维逻辑并不等于自我意识,这是两个完全不同的概念,使用了c系列芯片的智能产品仅仅只拥有思维逻辑,并没有诞生出以自我为中心的独立意识。”</P>
“所谓的‘思维逻辑’其实也是由开发者事先构建好的,就好比已被发现的公式和定律,c系列的智能芯片只不过是在合理的使用这些东西,用已有的公式和定律进行复杂运算和各种推导,而它不可能创造出新的公式和新的定律。”</P>
“换而言之,除非程序出bUG,否则它会始终服从主人的命令,不会违背一些基础设定。”</P>
黎薇一本正经地说了一大堆,夜星宇逐字逐句地认真听完,途中想起自己曾对雅薇施展过赋灵神通,于是便不动声色地偷偷瞄了雅薇一眼。</P>
此时的雅薇还算正常,没看出什么古怪,但她以前有过几次夸张举动,比如学着侯晓扮鬼脸什么的,感觉不像是一个机器人能做的事。</P>
夜星宇不由怀疑:雅薇那家伙似乎有点不对劲,不会已经诞生出自我意识了吧?</P>
他按耐住疑虑,向黎薇问道:“如何判断一个机器人有没有自我意识?”</P>
“我刚才不是已经说了吗?你有没有认真听?”黎薇没好气地答道,“拥有自我意识的机器人会有自己的想法,无视三大定律的存在。”</P>
她口中的“三大定律”,由上个世纪的科幻小说作家阿西莫夫最先提出,具体如下:</P>
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不顾。</P>
第二定律:机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外。</P>
第三定律:机器人在不违反第一、第二定律的情况下,要尽可能保证自己的生存。</P>
但经过这么多年的认知发展,原本的机器人三大定律有了一些小小的改变,与最初的版本略为不同,最终归结为以下三点:</P>
第一,机器人不能伤害自己的主人。</P>
第二,机器人必须服从主人的命令。</P>
第三,机器人不但要保护好自己,更要保证主人的安全。</P>
对比后可以得出结论,修改后的三大定律摈弃了道德因素,更偏向于实用观点,是把机器人视为私人物品,而不是全人类的公众财产,甚至可以把机器人当作一种战争武器来使用。</P>
如果还在沿用以前的三大定律,战斗类型的机器人将不可能出现,更没有存在的意义。</P>