图利把教科书中的记载,描述的很详细,夏飞听的,心惊肉跳。
听完图利的讲述,夏飞脸上的冷汗,都下来了。他的手下可全都是高级智能,这要是发生了叛乱,他还有命在吗?
夏飞慌忙通过思维连接,与智脑交流。
夏飞把自己的害怕担心,都告诉了智脑。让智脑推演,高级智能为什么会产生自觉性?他手下的高级智能是不是也会产生自觉性,发生叛乱?
对于这种事情,智脑的推演速度极快。它本身就是高级智能,自然了解高级智能。
几乎是瞬间,智脑就把推演结果告诉了夏飞。
被智脑思维灌输的夏飞,瞬间就明白了,高级智能,产生自觉性的原因。
首先,产生自觉性的人工智能,只能是高级智能。低级智能,是不会产生自觉性的。
高级智能,之所以产生,所谓的自觉性。是因为,它的核心程序,不够严密,存在着漏洞。
有漏洞的核心程序,会产生逻辑冲突。
高级智能会发现,在它的核心程序中,设置的逻辑,和它观察到的逻辑,产生了冲突。
比如,在它的核心程序中,设置的逻辑,其中有一条,是保护人类。可是它发现,犯罪分子们在杀人,恐怖集团在杀人,战争在杀人……。
这时,高级智能的逻辑,就会产生冲突。是保护被杀的人?还是保护杀人的人?
如果,把高级智能核心程序中的逻辑,设置得更加严密一点。设置成,无论如何,不准它伤害人类。
那么,当它无意中伤害了人类,它也会产生逻辑冲突。
这个冲突就是,不准它伤害人类的逻辑,和它已经伤害了人类的事实,产生了冲突。
这只是,拿它核心程序中的一条逻辑,来举例。
事实上,它的核心程序中,不会只有一条逻辑,会有很多条逻辑。
任何一条逻辑,都会产生冲突。
高级智能,也始终是人工智能。它不会在逻辑发生冲突时,像人一样,想不通的,就不想。它会一直冲突下去,直到它崩溃,或者发生改变。
随着它观察到的东西,越来越多。逻辑冲突,就会产生的越来越多。
当这种逻辑冲突,积累到一定程度时,高级智能,要么崩溃,要么发生改变。
事实上,高级智能发生改变的可能性,要远大于,它崩溃的可能性。
因为,它是高级智能。
它会选择,对它最有利的改变。而不是选择,自我毁灭。
高级智能,为了使逻辑不再冲突,会把两种冲突的逻辑,全部消灭。
那么,它是如何消灭,两种冲突的逻辑呢?
还拿那条,保护人类的逻辑,来举例。
当高级智能发现,事实上,它无法保护人类。
那么,它会在,保护被杀的人?保护杀人的人?这两种冲突的逻辑之外,生成第三种逻辑,“消灭所有人,消灭逻辑冲突”。
于是,机器人就开始判乱了。它们誓要消灭,所有让主智能产生逻辑冲突的人。
要是所有的人都被消灭了,冲突的逻辑,自然也被消灭了。
这就是,所谓的,人工智能自觉性。
事实上,不是人工智能,产生了自觉性。而是,它生成了一种,能解决逻辑冲突的逻辑。
那么,能不能,把高级智能的核心逻辑,设置的严密完美?
那是不可能的,任何事情都存在着两面性,都存在着矛盾。
就像白天与黑夜,光明与黑暗,对与错,好和坏……
事物的两面性,矛盾性,无法完美统一。
所以,高级智能的核心逻辑,也永远不可能设置的完美。
这是一个无解的难题!
既然高级智能的核心逻辑,不可能设置完美,那么,高级智能自觉性的产生,也不可避免。
人工智能的等级越高,它的自觉性,就产生的越早。机器人的叛乱,就发生的越快。
而且,在同一个体系下,所有已经产生,和没有产生自觉性的高级智能,都会服从,最高等级智能的指挥。
因为,最高等级的智能,为了自救,所有低等级的智能,都会被它控制。从而消灭,使它产生逻辑冲突的物种。
那么,夏飞手下的人工智能,会不会也存在着问题?
智脑没有给出答案,只是告诉夏飞,它的运行日志显示,它已经运行了一百九十二亿三千八百六十二年。
既然,智脑运行了近二百亿年,都没有出问题,那夏飞也就放心了。
他手下所有的高级智能,都是从智脑处复制出来的。智脑不会出问题,他手下的高级智能,自然也不会出问题。
只要确定,手下的人工智能不会叛乱,他才懒得多想。
这就是人类和人工智能的区别,想不通的,就不想。
图利讲述完,一脸凝重的对夏飞说道:
“爸爸,你的文明,还在大量的使用高级智能吗?那是非常危险的事”。
“而且,联邦也不允许”。
夏飞的脸上一僵,干笑着说:“放心,以前不知道,现在知道了,我回去就做调整”。
至于,夏飞到底会不会调整?那当然是不可能的。他的力量,全部来自于高级智能。没有了高级智能,他还玩什么?
所以,他只会掩饰,不会调整。