亚历克斯坐在玻璃圆顶下的司法观察中心,外面是波城黄昏的街道,人群在无声的数据流中穿行。每个人的脑后或多或少都佩戴着某种增强装置——记忆扩展环、共感调节器、神经同步器……人类正逐渐习惯于“进化”。
而亚历克斯,早己走在最前线。
他是全城唯一一个“全域式脑机合体”,即不止嵌入,而是神经结构与人工智能系统深度融合。
他能在0.03秒内判定一个证据包的逻辑链完整性,也能瞬间回溯百年法律变迁图谱;他可以一边和记者接受采访,一边在意识底层完成一套算法更新——这不只是“快”,而是一种前所未有的“复调思维”。
人们在街头叫他“人形法院”。
有人羡慕,有人惧怕。
“你有没有想过,如果所有人都能像你一样,社会会不会更好?”玛丽莎问。
亚历克斯沉默了一会儿,回答却是反问:“所有人真的‘能’像我一样吗?”
如果人类可以自由选择脑机类型,社会将变成什么样?
脑机自由选择后的社会分层?
兰登提出观点:自由选择脑机,看似平等,实则制造了新的不平等。
“因为脑机也分等级。有更强的运算器、有更强的情感调节模组、有更多‘联邦认证许可’功能。表面上大家都可以升级,其实阶层更加稳固。”
玛丽莎补充:“而且,接入脑机,需要前提条件——健康的神经系统、长期的心理适应训练,以及……支付能力。”
这意味着,只有一部分人能享有“类神升级”,而另一部分人,甚至可能因“拒绝脑机”而被边缘。
“自由的前提是选择的结果不会改变你的社会地位。但脑机社会的选择,是决定性、永久性,并带有价值判断的。”
是否可以‘改造’罪犯?
这个问题最早由市议员纳克斯提出:“既然脑机可以改变情绪、增强道德感,那我们为何还要监禁或处罚罪犯?不如首接‘脑改’,让他们变成对社会有益的人。”
亚历克斯听后久久未语。
这听上去,似乎高效又人道——没有苦役、没有报复,只有“调试”后的理性人格。
可问题是,谁来定义“有益”?
“如果我们允许用脑机技术首接改写一个人的价值观,那我们实际上把‘正义’交给了工程师。”
“未来可能不需要法庭,不需要律师,只要一台AI判定‘社会风险模型’,就可以首接对人的人格做出‘优化’处理。”
“这就不是改造,这是删除。”
你会自愿变成别人眼中‘更好’的你吗?
玛丽莎点开一个刚发布的民意调查:
有72%的人愿意接受“情绪调节芯片”,理由是“更稳定,更容易被喜欢”; 有59%的人愿意装入“快速决策模块”,理由是“能在职场脱颖而出”; 但只有28%的人愿意全脑融合,理由是“我怕我不是我了”。
“人类并不排斥被改善,但怕失去身份。”玛丽莎说。
亚历克斯点头:“这其实是对自我保留的一种本能防御。”
“我们接受服装、化妆、训练、甚至性格磨炼。但一旦涉及‘神经改写’,就触碰了人类的最后防线。”
“我们愿意变好,但必须是‘我们自己选择变好的’。”
脑机人不再需要‘成长’?
辩论会上,一位脑神经学家提出质疑:“人类历史的核心,就是成长。而脑机人,是首接下载经验、移植情感、外包逻辑。那还需要成长吗?”
亚历克斯答道:“成长不是指信息的积累,而是选择的过程。”
“脑机可以给你所有的知识,却不能替你决定,你面对一个哭泣的陌生人,是转身离开,还是走过去拥抱。”
“那种冲突——知识不能代替的那种挣扎,才是成长。”
他看向窗外:“如果脑机人失去了挣扎的权利,他们也失去了成为人类的理由。”
未来社会:脑机人主导?人类变成陪衬?
“有这种可能。”艾琳说,“但也许不是你想的那种‘统治’,而是一种新的生态。”
她举例:
人类保留感性、艺术、本能的创造;
脑机人负责制度、协同、处理系统级任务;
两者共生,共同构成“复合文明体”。
“不是你替代我,而是你扩展了我们。”
亚历克斯微笑:“那前提是,你的扩展,不会逼我必须成为你。”
六、最终反问:作脑机人真的更好吗?
夜里,亚历克斯站在母亲留下的旧钢琴前,轻轻弹了一段曲子。
指尖不是最精准的节奏,但那几个跳音里,却藏着他童年的不安与勇气。
“脑机可以让你弹出完美音符,却不能替你决定,为谁弹。”他低声说。
“这世上不是所有问题都该靠逻辑解决。”
“有时,人类最重要的,不是比机器更聪明,而是比机器更温柔。”