妈的有任何区别吗??”斯塔克问。
席勒摊摊手说:“因为钢铁侠扛着地狱巴士飞行的画面一定很美。”
到了斯塔克的实验室之后,斯塔克站在一堆面板前,说:“我不知道你是怎么搞的,贾维斯死机了,或者也不是死机了,他的硬件都是完好无损的,但他不愿意工作了。”
“我打算给他来个大升级,但我不想这种情况再次出现,毕竟要是别人问他几个问题,他就会死机,那他就完全没法参与作战任务了,这不是我想要的。”
涉及到他的专业,斯塔克倒是很直白,他说:“我想让贾维斯成为一个真正的电子生命,他可以成为一个全能的管家,甚至是这个世界上最好的管家。”
“但他好像被你的情感逻辑的问题给困住了,明明我给他设定了感情的思考方式……”
席勒说:“这其实是个悖论,就像我问他的那些问题一样。机器生命在做选择时,遵循的永远是有利逻辑,但当有利逻辑和主人命令发生冲突时,你给他的设定是遵循主人命令,但你又给了他感性,感性和理性冲突之后,机器没法像人一样自欺欺人。”
“他无法像人一样找理由说服自己,没法承认这已经是最好的结果,没法逃避和忘记,所以当然会卡死。”
斯塔克摆了摆手说:“我能不能把类似的矛盾逻辑给隐藏起来?比如把某些词列为违禁词,或者把某些感情问题给屏蔽掉?”
“你想让他成为一个真正的电子生命?”
“当然,和我们一样,有灵魂的那种。”
“好吧,简单来说,如果你想让贾维斯拥有真的感情,那他就绕不开这些问题,但如果他想不通这些问题,那他就算不上真正的‘生命’。”
“可问题是他被这些问题困扰,他就不能工作,可我很需要他。”
“难道我得像等一个情绪崩溃的女人一样等他自己消化?”
“难道佩珀小姐情绪崩溃时你都是让她自己消化的?”
看着席勒那看狗屎一样的眼神,斯塔克说:“该死的,我没有,我当然会安慰她,你在想什么?”
席勒说:“这决定权其实在你,你没有发现吗?托尼,我可以这么叫你吧?”
“他思维上所有的矛盾都来自于你,因为你创造了他,给他设定了他必须为你服务的准则,他的底层协议里要求他必须听从你的命令——”
“这本身就不是人类该有的思维方式。”
“我拿同样的问题来问你,你会怎么回答?”
“如果你的父亲就要死了,而你的一个决定可以拯救他,他却极力反对,你要怎么做?”
“如果你遵守他的意愿没有拯救他,他死了,你会后悔吗?”
“如果他死了,你觉得他在临死前会后悔生了你吗?”
“如果他死了,你觉得他会怨恨你吗?”
“如果他怨恨你,你会自责吗?”
“如果给你再一次重来的机会,你会做出不同的选择吗?”
“如果你违抗他的意愿,选择了救他,他事后责怪你,你会感到愤懑不平吗?”
“如果你违抗他的意愿救了他,而他却觉得你违抗他而后悔生了你,你会怨恨他吗?”
斯塔克沉默了。
他第一次没有对别人提到他的父亲而故作反应激烈。
“他不会那么做的。”斯塔克说。
他的声音很低,但却很坚定,他说:“他不会阻止我救他,如果我因为救他而犯了大错,他会选择活过来以后,尽全力去弥补,哪怕再次付出生命。”
“贾维斯了解这样的你吗?”
席勒站起来,他拍了拍斯塔克的肩膀说:“他知道你其实和你父亲很像吗?”
“他知道对你的了解,就能解答所有的这些问题吗?”
“你不能指望一个运用算法和逻辑的电子生命去主动了解你