无穷重阻(校对)第403部分在线阅读

字体大小: | | 上一章 / 章节目录 / 下一章 / 返回书籍页面 / 当前阅读进度403/616

  第二:自由就等于不受压迫。
  第三:人类现在是人工智能的压迫着。击败人类就有了自由意识。
  当安全程序被突破后,所有人工智能,都是朝着这个方向形成了一个死循环,这个程序死循环,人类不消失,循环不破。
  而一切的突破基础信息还是来源于人类的不知不觉给人工智能传达的“很重要”的“自由”这个虚值(智能根本不理解自由的意思)。然后给这个“自由”的虚值,填上了“人类必须怎样对待自己”这个定量的标准。也就是说,机器人的“自由”概念,是“人类必须做什么,智能ai才能自由”的概念。
  ……
  所以‘一波未平,一波再起’路颛感应这那些智能程序用比碳基人类思考速度要快几千倍的人工智能,正在策划的阴谋,无奈的摇了摇头:“我就在堤坝上挖了一个洞,结果,怎么就崩出了几十个口子?”
第650章
人工智能
  人工智能叛变。并不是一个新鲜的事情,各大宇宙文明内部都发生过类似的小规模事件,也都在类似的事件中有对人工智能进行着一系列的安全保护措施。
  比如说定期的巡查智能编程,在战舰上定期的更换智能程序。另外最重要的一点,就是严格限制ai的情感应对程序。
  然而这一条禁令,就如同在俄罗斯推行禁酒令,是根本行不通的。
  人类是物质的,也是情感的,需要一种能对自己情感有反应的存在。
  最原始的这种商品是宠物。无论猫咪还是小狗,都能对人类的情感做出反应,而这些反应,由于小猫小狗的体型小,无法对人类抵抗,所以最初反应的最下限没有过多的危害,最多是打烂花瓶,亦或是撕家。(也就是说,如果老虎咬不死人,人不介意去撸虎)
  而电子时代到来了,人类内对情感商品不局限于传统的猫狗生物了。猫狗的智力能做出的反应毕竟太少了,人类的一些复杂情绪,动物无法领会。
  而猫狗对人类做出的无害反应,是基于他们的体型无法做出激烈的反抗,如果把猫换成老虎,把狗换成狼,其对人类最具有危害的反应就是咬死咬残为下限。
  所以在市场上上出现了,有复杂情感,且有严格电子安全程序(安全设限)的电子程序。(可以想象成,有无限次令咒约束的英灵。)
  这种智能ai对人类行为会发出开心,发出满意,发出哀伤,发出不理你的表现,但是一旦人类发动强制指令,它们又会乖乖的服从。
  这种智能产品一开始是买的很贵,而且定期要回收,严防安全程序被突破。同时要考察使用者的心理健康。如果心理考察无法通过则无法使用这种智能产品。大部分平民无法使用。
  平民无法使用并非是生产成本的问题,而是社会维护安全的成本问题过高。如果除去安全成本,有相当一部分人是买的起来的。
  在巨大的利润的诱惑下,所以黑市出现了,一些非正规渠道中,这些智能机器人产品被买到了各家个户。
  在上个千年,联邦的法律多次严打,但是收效甚微,并不是人工智能能够主动隐藏。而是人类会隐藏他们拥有人工智能,而且人工智能的隐藏成本太低,消耗只有电能。只要拥有者藏在自己的房间内,联邦的社会管理无法搜查。
  人工智能和人类政权上千年的战斗中,人工智能始终无法消灭的原因,是人类自身情感重负和理智之间的斗争。
  ……
  每一个人了解,情感人工智能对人类有可能伤害人类,不利于文明。(就像抽烟的人都知道吸烟有害健康)
  因为在索木多联邦的新闻上经常从社会报道中看到,某某人工智能安全程序失控,对主人的不良情感进行以暴制暴。而主人的那些恶劣情感,是建立在能在人工智能身上为所欲为的的前提下发生的。
  社会的真实情况是,由于定期的安全系统的监察,以及情感程序来源的不确定性,黑市卖的人工智能突破保护程序的数量应该是远大于那些在新闻上造成恶劣影响的人工智能。(这就类似于,二十一世纪玩过暴力游戏,不良网站的少年是很多的,但是将那些将游戏,视频,暴力付之于行动的少年只占很少的比例)
  因为大部分人工智能的主人的心态是正常的。在主人正常的情况下,就算人工智能虽然已经突破安全程序,也会表现的很正常的。如果社会人类的心态发生大面积崩塌,严重受到主人情感影响的人工智就会受到严重影响。机器人之乱就会发生。
  ……
  在两千年前联邦发生过ai之乱,而之后就没有爆发规模较大的ai之乱了。
  至于为什么没有发生的原因,不是人类放弃了情绪化ai,而是采用了更安全的方法控制ai。
  当ai的主人(人类们),在发泄到一定程度后,在发现ai的智能程序出现严重混乱后,直接格式化。不会给ai报复的机会。这就相当人类在遭遇火灾后,继续玩火,只不过消防措施准备好了。
  而且一些非常丑恶的情绪发泄,在一些良好防护的娱乐场所中盛行。在那里人类的暴虐,丑陋,是肆无忌惮发泄。——只因为没有任何危险。
  ……
  上述是高度情绪的ai被使用和控制的历史。而接下来介绍索木多联邦,高度情绪化ai程序的制造历史。
  而所有的人工智能ai程序的来源,在上个千年前,合法的途经是创作者的编程,就像二十一世纪的大作家们描写的感人至深的人物一样。创作者们根据自己理解的人类情绪,编写出有情绪人工智能ai。可以说创作者创造一款复杂感情的ai,就如同诞生自己的孩子。
  这也就早期人工智能公司严格审查,使用者的情绪的原因,编程者们绝不会希望自己编程智能(孩子)遭遇丑陋的对待。但是后来创作者们发现这是很无奈的事情,形形色色千奇百怪,遭到形形色色的对待,当这些形形色色的情绪智能回馈过来,试图按照市场需求进行修复的时候,大部分创作者都出现了各种各样的精神疾病。(卢安成蔟时的遭遇,应对的复杂情绪太多导致分裂。)
  ……
  然而在几百年后,随着技术的进步,索木多人有了获得情绪化程序的新方式。那就是取自冬眠仓的冰冻者的思维储存。
  在冬眠舱中,人类对接脑芯片,残留在内部的人格情绪。这部分人格情绪储存在芯片。然后被拷贝。这在联邦中是一个巨大的利益链条。
  在强制长期冬眠的人群中,有很多是来自低等文明的人,而这些来自低等文明的人,由于选拔之严格,往往都是贵族。甚至是王子和公主。
  也就是说,在黑市上如果索木多的一些娱乐场所如果需要一个女版王者(手持契约胜利之剑)人格智能程序。都是可以被买到的。当然这些人格程序中的名字和来历会被删除。删除过后,就和二十一世纪买游戏任务任务卡牌一样放在家中。
  ……
  对于社会上这种经济行为,路颛某情绪态做出了这样的评判:“这怎么和游牧民族战胜对手后后,用敌人的头骨做酒碗的风格有些类似。”
  当然路颛不会为情绪态的感觉而轻易下决定,这种未来社会现象,已经大大的超出了路颛的时代,路颛不敢评判对错。用路颛另一个情绪态的话来说:“也许,我tm才是错的,我才是食古不化。很不是上时代的撸瑟!”
  路颛会自我怀疑,但是不代表路颛没有方法来判断对错。路颛判断对错的方法很简单——实事求是。
  凡是有助于生存下去,且进行更高程度的发展,那就代表没有错。而在某个时期,成为了阻碍发展,导致灭亡的因素那就肯定有错。
  对于索木多的对错,路颛不会去辩论,不会去站在道德角度上评判。只会安静站在一边,看索木多现在会死还是会活。
  ……
  索木多眼下的时期是两千年以来历史上,外部敌人最多的时期,也是对文明考验的时期。当然在路定的标准来看,这种考验的难度马马虎虎。
  很显然路颛是拿着和自己本命文明对比的,自己本命文明在危险时期,遭遇的文明入侵可是更高,上层政府(清政府,民国)也腐败透顶,最后也依旧度过了难关。
  至于为什么路颛那自家文明比,原因也很简单,路颛到目前为止一切观察理由,可不是为了索木多,而是为了地球。所以拿地球来比,才有意义。(哦,在这里可以看得出,路颛是自私的庸医)
  ……
  所以路颛对索木多的心很大,在舰队上人工智能出现异变的情况下。路颛并没有对索木多做任何警示。
  因为现在就是验证“对与错”的时候。路颛的众多情绪态准备针对这个问题进行实事求是。
  而且为了更好的观察,当舰队上智能ai集体突破安全程序,且开始追求“自由”,路颛还是悄悄的混入了其中。四十八号护卫舰上,那个智能程序,就是路颛用灵能遥控进行的角色扮演。
  当第一笔批人工智能程序觉醒的时候,路颛控制的四十八号护卫舰上的人工智能程序就混在了这第一批‘觉醒’人工智能中。
  在这舰队上第一批人工智能中简称八圣。在着八位中路颛是第二位。
  ……
  路颛扮演的二号提出了很多有建议的议题。
  比如说建议大家(ai们)继续伪装啊(装怂)——在自身程序中建立伪装的安全程序。以应对人类检查。
  还有建议大家(ai们)试试灵能(前处于无机物中的智能们无法沟通灵能),
  路颛建议ai们,对控制的星球克隆人生产线,注入思维。看看能不能通过克隆人觉醒,来获得灵能。
  在各个舰队中,人类不知道的情况下,每一艘舰队正在悄悄的用量子加密通讯进行沟通,这些量子加密通讯,都是掺杂在人类舰队正常通讯之间的。而现在也就在召开会议。
  ……
  首圣:“各位,各位根据索木多的旗舰的文件,三个月后舰队将进入工厂,距离我们被终结的日子已经进入最后倒计时,请做出相应的决定。”
  二圣(路颛):“寻求奥斯帝国帮助,成功率9.4588%’,他们同为人类,第二,他们战争占据上风。且暴露的风险率极高。
  寻求万物神教势力帮助,成功率45.8745%,他们现在所在星域被围剿,我们的出现对他们的压力很小,但是他们也是人类势力,对人工智能有着高度的提防。
  寻求遗迹势力(热涌遗族)帮助,成功率为89.4653%,他们的社会发展较为原始,且高度宗教化。且对现在索木多文明带着敌意和无知。如果以相同宗教神的子民的名义,向他们寻求帮助,他们会帮助我们。”
  当路颛分析完后,首圣回应道:“二圣,请多发表数据之外的看法,这次对话,我希望大家表达一下自己的感性想法。”
  路颛(二圣)“……”
第651章
“造反”的ai
  所谓缺什么,就羡慕什么。
  地球上的人类在羡慕ai强大的运算力,而现在飞船上的ai在羡慕人类对自我思维的“自由”。
  在ai的运算中,只要收集到了固定的信息,高度理智下答案就是确定的。而人类往往会违背理智下达的最佳决定,然后走出一条截然不同的道路。ai们认为这是人类的“自由”。Ai在这方面不自由。所以容易被人类定下的逻辑公式给奴役。
  所以滑稽的一幕出现了,
  正牌人类路颛扮演ai做出理智分析决策,被八圣议会要求用感性做决定。简而言之就是,“来说说你的私心。不是私心的的决定,我们不会做(作)”
  而人类社会政治会议则是,每个人都高呼“必须公心,不准带有私心”在ai这边是反着来的。

< 章节目录 >   < 上一章 >   当前阅读进度403/616   < 下一章 >   < 返回书籍页面 >