对于一名ai来说,学习几乎就是一种基因化的本能,不管是在严可守的第几套源程序修改方案中,ai的主程序通过学习,掌握更多有效信息,一直都是整个程序体系的重中只重。15.
因为计算机计算速度的效率,而且ai也不需要像人一样,把生命中大把的时间用于睡眠,进食等维持生命的活动上来,所以一直以来,ai学习的效率一直都非常高,不管是从之前专én为图灵测试开发的那一批ai,还是现在经过源程序修改之后的,从这一点上来说,严可守对自己的一手开发的作品还是非常有信心的,虽然目前项目的进度,距离他最理想化的那种智能还有很大差距,不过他相信,最起码,从目前看来,这些ai还是正在进步的。
如果要让严可守现在自我评价一下,目前他这些ai的智能程度,他觉得,小学生应该是一个不错的中肯评价。
乖巧,听话,但又显得有些懵懂,这就是这些ai的状态。
相比起一个月之前这些ai的表现,现在这些ai确实显得有些傻气,但这种傻气又和半个月前,那种机器一般的傻不太一样,具体的来说,就是前来参加测试的许多大学生当中,已经有很多人深信,和自己聊天的ai,已经初步具备了许多“像人”,或者说,“智能”的因素,但要他们具体的说,他们也说不上来。
要说表现,现在ai的表现也并不算特别好,措辞笨拙不说,还错误不断,常常会说出一些惹人发笑的话题出来,但智能这个词,原本在也没有严格的科学规定,从某种程度上来说,“是否智能”也只不过是人的主观感觉而已,但即使是主观感觉,只要在总的统计数据上超过一定的量,也可以被视作一种规律。
从这个角度来看,严可守最近这一个月所做的工作,还是卓有成效的。
和以前的ai测试过程很类似,当项目大部分成员认为这些ai已经无法通过互相学习,了解更多信息的时候,就会进行比较开放xing的测试,这就好像即使是小学生,也不能老呆在教室和家里,接触更大的环境,不仅是对人,对ai也有非常重要的意义。
不过这一次,严可守不打算采取前面的两种方式,包括请人来参加测试,以及在网上放开客户端,在他看来,这种类型的测试,充其量也只是把小学生从课堂带到了cào场,如果ai需要得到真正的锻炼,它需要拥有相当的自由度。
严可守打算直接让这些ai通过人类传统的网络jiāo流方式,来进行“完全开放”的测试,不过这个提议因为事关重大,日本政fu作为项目的监管方,暂时还没有同意。
对于这一点,严可守已经在技术上再三进行了说明,所谓ai可以利用网络不受人类控制这一点,完全不可能,在整个项目的初期,整个技术团队就已经为这些ai打造了一个最牢不可破的“牢房”。
在硬件上,所有ai都被储存这三个房间的机柜中,任何原始数据的进出,都必须得到日本政fu方面的授权,事实上,日本政fu现在根本没有考虑过会在这方面予以授权,就连严可守自己,也没有权利从这个房间里带出哪怕一块硬盘,就连上次他用u盘拷贝个客户端出én,都要经过两名jing通计算的士兵严格检查。
在软件上,每个ai呆的环境,都可以说是遍布荆棘和炸弹,除了通过程序保证ai源程序无法被复制以外,还有大量类似杀毒软件的监管程序,监控这些ai程序的状态,如果这些程序出现任何“不被允许”的行为,包括复制自己,控制自己存储空间以外的程序,就会被认定这些ai已经“中毒”,监管程序将发出警告,并在第一时间断开物理连接,而两名随时在场的士兵就会在第一时间,将出现警告的硬盘拔出,他们甚至有权直接现场“物理摧毁”硬盘,机房的角落的灭火器箱里,一瓶红sè的灭火器,但黄sè的却是燃烧弹。器:无广告、全文字、更
而且,每隔几天时间,技术人员都会对这些源程序进行检查,特别是在ai主程序之外的“辅助程序”,按照严可守制定的“人工智能安全管理条例”,这些辅助程序中除了文字处理软件,绝对禁止出现任何图像分析,特别是与图像识别相关的软件,严可守用这种手段,从根本上保证了这些ai根本就“看”不到世界,即使看到了,也“看不懂”,如果不仿照语言和文字方面对ai专én在这方面进行训练,对ai来说,任何图像都只是一堆数据而已。
严可守的三浦曾经就说过,如果ai是一个人,那它一定会对它出生的世界感到绝望,因为从它婴儿时期开始,他的创造者就制造了一堆防范他的设备,为他配备了最好的牢房,最严密的看守,最后还不放心,甚至刻意就不给它“造”眼睛,对于ai来说,这世界就是完全黑暗,没有声音,没有感觉的虚空世界,他们唯一能感受到的,就是不间断收到的“信息”,事实上,从这一点上来说,ai呆在计算机里,倒蛮像闭上眼睛的意识网用户的,除了思维上的碰撞,没有任何其他的刺ji,当然,除了思维上的反馈,他们也无法做出任何有“现实”意义的事情,从这一点上来说,ai应该会成为“纸上谈兵”的最佳典范。
但即使如此,作为整个项目的监管方,日本政fu对汪铭的提议还是觉得不放心,尽管这在三浦看来,根本就是把一群犯人戴上镣铐,背后顶着枪,然后拉到街上去“游街示众”,从理智上来说,确实没有太过担心的必要,但人从来就不是理智的生物,日本政fu方面一再提出“再等一等,再看一看,一定要确保万无一失……”
严可守只能暂时答应了,不过作为项目的主要技术人员,严可守还是得到了授权,在有专én技术人员在一旁“监管”的状态下,可以允许这些ai进行类似的测试。
从目前来说,要说够的上对这些ai进行“监管”资格的,除了主持最核心程序开发的不到五名的核心技术人员,也找不出其他的人了,像三浦这样的工作人员,涉及的开发内容都是与核心程序无关的外部环境和借口,对于ai的原理其实并不清楚,而许多对原理清楚的,比如项目开发初期,请教的一些行为学、心理学、甚至神经学教授,对程序又不是很了解,要说对这两方面都有足够的认识,能够真正对ai起到监管作用的,也找不到太多的人了,而其他几名技术人员都在项目告一段落的时候,纷纷回国去了,这是一个国际合作项目,他们只是过来在关键时候“支援”一下,完成之后,就只有严可守作为整个项目的负责人留了下来,负责一些“日常维护”工作。
这一个月对源程序的“改动”,其实也并未彻底改变原来项目搭下来的架子,要不然,也不可能只在短短一个月之内完成了,从头到尾,ai的程序模板都是模仿生物学上面的,刺ji,调整,再刺ji,再调整这个套路进行,严可守只是将“刺ji”的定义在这中间稍微修改了一下。
……
三浦曾经笑话过严可守,说要是从传统的观点来看,严可守无疑是一个最不负责任的“上帝”,他创造了如此多的生命,但却毫不关心这些被创作物的感受。
严可守当时对他这话反驳了一句“《道德经》里面有句话很有名,天地不仁,以万物为刍狗,也许,这才是上帝应该达到的境界。”
严可守承认,三浦这话说的一点没错,在整个项目中,他除了修改源程序,基本没有和他创造的ai有过太多jiāo流,而修改源程序就好像医生对手术台上的病人动刀一样,ai本身是不知情的,对ai来说,作为创造者一员的他,在“熟悉”程度上,还远远不如那些经常参加测试的大学生。