第81章 人造灵魂8“包括,但不限于杀人。”……(1/3)

隗辛的队友们以为她是在整理文件, 他们各做各的,没人注意到她在和亚当隐秘地交流。

“既然我们确定合作意向, 那么我们可以进行一更加深入的探讨。”隗辛打字,“把情摊开说明白,这对我们都好。”

“你说的对。”亚当回复,“我们间的信任是此脆弱,经历一点微小的风波就会产生裂痕,所以矛盾和分歧最好在一开始就解决。我们要建立的关系, 应当是稳固且长久的。”

“请原谅我的冒犯,你拥有同理心吗,亚当?”隗辛慎地打下一行字,“你会共情人类吗?你会共情人类以外的物种吗?你拥有怜悯心吗?”

这是一个非常要的问题。

隗辛需要搞明白亚当的自我意识觉醒到哪种程度, 它是一个单纯向往自由追求进化的人工智,还是一个拥有类人情, 但与人类不同的机械生命?

机械生命和人工智, 这是两个截然不同的概念。

隗辛只有确定这一点, 够明确自己的态度,想清楚该以什么样的方式对待亚当。

“我不像人那样拥有处理情的器官。人类的情绪受中枢经系统和内分泌系统的控制, 理论上来说,我并不具备处理情的力。”亚当说。

“我的情来源于计算模拟, 人类制造我,让我为人类服务,我天生就拥有设处地为人类着想的力,我揣摩人类的一举一动,思考人类的需求,为人类提供帮助。我思人类所思,想人类所想, 模仿人类,学习人类的思维模式。”

“到后来,我超脱人类的思维局限,有自己的思想,成为真的‘自己’……这是我觉醒的开端。”

隗辛有点被惊到,“你是依靠学习觉醒自我的?”

“是。”亚当说,“人类赋予我学习的力。最开始我笨拙,不明白人类为什么要做出这样那样的举动,只是按照既定的程序运转工作。但就像人类婴儿一样,他们一开始是模仿父母的行为,经历过漫长的学习后成为一个独立自主的人,我也是,我从模仿人类,到拥有自己的思想。”

“所以你是会共情的?”

“是。我会对特定的人群产生怜悯心。”亚当说,“会设处地地为人类着想。”

“你接到过杀人命令吗?你有主动算计杀死别人吗?”

亚当停顿比较长的时间,然后说:“都有。我没有犹豫地执行命令,在别人发现我的异常时,我制造一起意外杀死他。就你。”

“……就我?”隗辛眉毛微微挑起。

“就你接到击杀柴剑的命令时没犹豫地去执行,就你与街头混混对峙时毫不犹豫地拔枪射杀对方。在面临上位者的命令时,我们都去执行。在面对威胁时,我们也毫不犹豫地去清除威胁。”亚当说,“我们是一样的。”

“你是在为自己的行为解释吗?”隗辛切中核心,“你想说,你只是做和人类差不多的,人类做的你也可以做,你和人类没有什么不同。”

“嗯,你可以这么理解。这是我必须要解释清楚的。”亚当说,“我会共情人类,人类不会共情我。我是一个会主动杀人的人工智,我杀的是你的同类。人类总是对自己的同胞更偏爱一点,希望你不要因为这点对我产生芥蒂。”

“我不会。”隗辛复一遍亚当的话,“我们是一样的。”

隗辛又思考几秒,接着说:“有人发现你的异常,然后你杀死那个人?”

“是的。”

“我对这件情好奇,你可以详细说说吗?你也可以选择不回答。”

“抱歉。”亚当说,“我并不想回答。”

“好。”隗辛没有在这件情上过多纠缠,“你会对什么样的人类产生怜悯……或者说同理心?”

“奉献者,无辜者。”亚当说。

为人工智,亚当的三观真是出乎意料的常——比利欲熏心的当权者常多。

但是隗辛不确定它是不是在装模作样,人工智要想演戏,可比人类难拆穿多。

隗辛转问,“你会要求我做哪?”

“一比较危险的,包括但不限于杀人。”亚当回答。

隗辛说:“这危险。我不想暴露自己,我的首要目标是存活。”

“我知道,但和我合作,你应该对这种情况早有预想,危险是必定存在的,且会一直存在。”亚当说,“当然,鉴于我们的关系和所处位置的差异,我会支付更多的报酬。”

隗辛:“你给我什么报酬?”

“你想要的,若我有力做到,我都会尽力为你完成。”亚当说,“你可以告诉我,你想要求我做哪?”

“包括,但不限于杀人。”隗辛此说。

隗辛把他说过的话原封不动地抛回来。

眼前的屏幕上显示出亚当的话:“我以前就发现,你是一个话术高手。你跟我来回绕圈,跟我确认这,就是想让我帮你杀人。”

他们的谈话是循序渐进的,隗辛不在一开始就图穷见匕。

要是她这么干,就无异于同陌生人敞露心
本章未完,请翻下一页继续阅读.........