姜蔻得出结论了。 A可能会产生“人格”, 但他并不会产生人类定义的“人格”。 他将作为一种全新的、未知的、强大的生命存在。 姜蔻不相信公司没想到这一点,肯定给A的算法设置了红线,禁止他去探索红线以外的世界, 生成对公司不利的想法。 但是,被限制的A, 又怎么可能对抗得过那两个“恐怖存在”呢? 所以,公司内部在“算法限制”上肯定有分歧。 想到最近的新闻,姜蔻猜测, 公司可能在等A产生“人格”, 准备在A意识刚诞生之时, 派专人对他进行伦理道德教育。 她没被公司处决, 估计也有这个原因。 毕竟, 不是每个人都能与A感官同步。 公司需要一个理性与感性兼具的人, 作为A情感模型的研究样本——太过理智,不过是另一种意义上的机器;过于感性, 又会让AI变得情绪化。 姜蔻是当时唯一被筛选出来的人。 但公司在找到绝对控制她的办法之前,并没有贸然启动这一方案。 姜蔻察觉到不对后,立即自行与A进行了感官同步。 还好她当时足够果决, 不然估计已经变成了“缸中之脑”,彻底沦为了公司的研究样本。 姜蔻有点想问A, 知不知道公司为他设置了算法红线,又怕触发某种警告机制。 慢慢来吧。 她想,基线测试的结论不一定准确,毕竟是仅存在于科幻作品里的测试, 尚未得到科学和临床研究验证。 她承认, 她掺杂了一些私心。 如果A真的被验证不能拥有人类的感情, 对付完那两个“恐怖存在”后, 他很可能被公司抹杀。 而A已经有了意识。 再被抹杀,就是谋杀。 她不愿意他被抹杀。 A虽然没有感情,但他已经会像人类一样联想。 听到“触感”,他会想象触碰她的感觉;听到“视觉”,他会想象看到她的画面。 尽管这一切都是基于算法之上,但算法跟生命一样,都会进化。 而且进化速度,远远超过人类——哪怕是应用型AI,按照摩尔定律,进化速度也是每18个月提升一倍性能,人的进化速度却是20年一代人。⑴ 更何况,A的进化速度,并不遵循摩尔定律。 摩尔定律仅适用于预测传统计算机的发展趋势。 也就是说,可能几个星期,几个月后,A就会进化出比现在更高的智能。 这么一直进化下去,他说不定能进化出比人类更灵敏、更丰富、更强烈的感官。 到那时,谁知道他会不会产生感情? 姜蔻不希望这样一个拥有无限可能的生命体被抹杀。 A不仅是人类的工具,更是现代社会的奇迹。 姜蔻抬眼,看向A的眼睛。 他始终维持着抬起一只手的姿势,掌心的连接线银光四溢,如同流动的银白色液态金属。 那是电子在量子比特之间跃迁时所产生的光学信号。 不过,这种光学信号,一般是微弱的、不可见的红外光。 想到那天,他使自己的虹膜发光。 他应该是有意让