按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!
“所以你要找人帮忙?”因蒂克斯竟然也有承认自己技不如人的时候,天隐突然没来由地觉得开心。
“是的,冈崎令治可以给豪克一个近似于人类的躯壳,盖亚则可以完善豪克的学习能力,直到那个时候,豪克才是完整的……”因蒂克斯仰头望着天空,好像希望能看见豪克,但可惜是的,此时此刻豪克正在岛屿的另一端收集信息。
“为什么你要让豪克更像人呢?”天隐能够理解因蒂克斯想要令豪克程序更强大、更完整,但是作为程序的容器,什么都好吧,或者不如说不用人形容器更不会引起像小说和影视作品里的那种恐慌吧?
“在艾萨克?阿西莫夫(isaacasimov)的科幻小说,《我,机器人》里,有这样一段话我很喜欢——”
“eversincethefirstputertherehavealwaysbeenghostsicode;thathavegroupedtogethertoformunexpectedprotocolswhatmightbecal;thesefreeradicalsengenderquestionsoffreewill;creativity;andeventhenatureofwhatwemightcallthesoul。(自从第一台电脑问世以来,机器中就一直存在着灵魂。数据片段随机地组合在一起,产生出意料不到的附件,即所谓的行为。未曾料到的是,这些自由分子让人们开始怀疑电脑中是否存在自由意志、创造力、甚至我们称之为灵魂的东西。)”
“whathappensinarobot'sbrainwhenitceasestobeuseful?whyisitthatwhenrobotsarestoredinanemptyspacewillseekoutratherthanstandalone?howdoweexplainthisbehavior?randomsegmentsofcode?orisitsomethingmore?(当机器人的大脑被停止使用后,会发生什么?为什么当机器人被贮藏在空旷的地方时,他们会聚集起来,而不是各自孤立?我们如何解释这种行为呢?随机的代码段?或者是更复杂的东西?)”
“whendoesaperceptualschematicbeeconsciousness?whendoesadifferenceenginebeethesearchfortruth?whendoesapersonalitysimulationbeethebittermote。。。ofasoul?(感知系统什么时候形成了意识?差分机什么时候变得开始寻求真理了?人格模拟什么时候变成了灵魂苦涩的微粒?)”
“即便是机器,也是有可能产生灵魂的!我希望豪克可以拥有灵魂!”因蒂克斯突然站了起来,甩掉了头上的椰子壳,胡乱地揉着自己原本就缺乏秩序的头发,似乎在组织着语言,“柏拉图认为,人的灵魂由三个部分组成——理性、意志、*,姑且不论柏拉图的观点是否足够准确,至少结构非常清晰。”
“人工智能的理性可以通过特定的编程实现,其意志可以凭借交互学习形成,然而*,必须建立在互动的基础上……所以如果说豪克有机会自行生成灵魂,*,毫无疑问,会成为最大的障碍。”
这算是一个资深猥琐男的经验之谈?天隐眨眨眼睛,说实话,并不是很理解为什么因蒂克斯如此纠结于*这一点,还是老老实实准备扛第十包吧,听不懂的时候少说话才是王道,这就是所谓的沉默是金。
“你从刚刚开始就在用工兵铲,但是你会爱上你的铲子么?”
天隐摇摇头。
“你吃巧克力和看到心仪的女孩儿时大脑都会分泌多巴胺,但是你会想跟巧克力棒上床么?”
天隐再次摇摇头。
“由此可见,外形的亲和力很重要,所以,除非未来的某一天,四轴航拍飞行器和各类自律型模型飞机都能拥有足以产生灵魂的人工智能,否则豪克就只能孤独一生了。为了避免这种情况,有必要给予豪克一个人形的容器,而且要足够精细!”
“顺带说一下,无论人还是其他灵长类生物,*都是其繁衍后代的推动力。即便不是以寻常定义下的生育模式,我还是相信,拥有了*,豪克就会以某种方式将自己灵魂的特质复制、剥离、结合、培养,直至繁衍出下一代。”
“祝你成功!”虽然不是很理解因蒂克斯的理想,也完全不懂人工智能,但不知道是不是被因蒂克斯的热诚所打动,天隐发自肺腑地祝福着因蒂克斯,还有豪克。
“谢谢!”
“介不介意跟我讲讲其他有关人工智能的事情?”经历了这么多匪夷所思的事情之后,天隐觉得与其质疑、排斥、否认,不如好好地去信任、了解、尊重。
或许是感觉到了天隐的理解和善意,因蒂克斯此时此刻的心情非常的好,当然,运泥土什么的是敬谢不敏,不过聊聊天之类的还是没问题的,所以因蒂克斯点了点头,又坐了下来,之前丢下的椰子壳也重新戴回了头上。
“我们对于历史的思考是线性的,当我们考虑未来50年的变化时,我们参照的是过去50年发生的事情;当我们考虑21世纪能产生的变化的时候,我们参考的是20世纪发生的变化。然而却忽略了很重要的一点——未来的发展是建立在过去的基础上的,也就是说变化的幅度显然会高于过去。”
“个人经验使得我们对于未来预期过于死板,我们往往会受限于自己的想象力和逻辑能力,通常都是以过去的经验为原料拼凑出对未来的预测——但是必须得承认,我们知道的东西是不足以帮助我们预测未来的。当我们听到一个和我们经验相违背的对于未来的预测时,我们就会觉得这个预测是错的。”
因蒂克斯这段话令天隐想到杨之前说的话:人类最不谦逊的地方,就是对超出自己知识范围的一切加以排斥和否定。
“所以,无论我接下来要说什么,你都必须接受一个前提”,此时此刻,因蒂克斯的神情十分严肃,隐隐地有着科学家的态度和气势,“完整的agi,甚至asi,必定会出现,这已经不是一种假设,而仅仅是时间问题了……”
早就见过豪克了,也跟豪克说过话,已经没办法不相信agi会出现了吧?想到这里,天隐狠狠地点了点头。
“你们竟然敢在这里偷懒!希露德的菜田铺好了么!”身后突然爆出的吼声打断了天隐和因蒂克斯的聊天,这个声音的主人,毫无疑问是……一条鱼?
天隐回头看到的,就是一条大鱼,怒眼圆睁的、愤怒的大鱼……
世界ⅹⅶ
如果天隐对于海洋鱼类有些了解的话,就会知道眼前的大鱼是黄鳍金枪鱼;如果天隐的注意力不是全集中在人工智能上,就不会被吓一跳了。
眼前的严格来说不是愤怒的大鱼,而是扛着一条体型能给人留下深刻印象的黄鳍金枪鱼的阿尔忒弥斯,而阿尔忒弥斯,是愤怒的。
“竟然在闲聊!还不快点把希露德的菜田铺好!”说完,阿尔忒弥斯头也不回地走了。
原本因蒂克斯是想嘀咕两句的,但是看到了阿尔忒弥斯右手提着的满满一篓的牡蛎,实在是不想因为一时的口舌之快,而失去接来下的口福。
斜着眼睛偷偷地看了下一直在干活的天隐,好像也没有强要自己做事的意思,因蒂克斯于是心安理得地继续坐在相对凉爽的地上,毕竟热带的大太阳对皮肤十分地不好,而且不保持全身心的舒畅,又怎么能条理清晰的……聊天呢?
以上的各种邪门歪理因蒂克斯在一瞬间就想通了,然后毫无障碍地说服了自己,“牡蛎可是所有食物中含锌最丰富的啊,每100g含锌71。2mg,富含蛋白锌,是很好的补锌食物,像我这种懂得运用大脑的文明人,可是很需要锌元素的!”
“啊?”天隐对于因蒂克斯说服自己偷懒的理由不感兴趣,倒是很想听听关于人工智能的事情,“阿尔忒弥斯好像要咱们尽快把菜田做好哦,要不要我叫她回来确认一下?”
“啊!不,不用,啊哈,啊哈哈哈哈”,因蒂克斯一想到阿尔忒弥斯的鞭子就一阵寒颤,可以的话,还是不要自讨苦吃了,而且从天隐的眼神中也不难看出来他在想什么,“人、人工智能嘛,好说,好说……”
不知道从什么时候起,天隐有点习惯这种倾听的感觉了,一边听新鲜的东西一边重复机械式的工作,既可以增长见识又可以减轻疲劳,一次就能达到两种目的,对于这种效率,天隐很满意。
“提到人工智能,就不得不提到阿兰?麦席森?图灵(alanmathisonturing),就是他为人工智能提出了重要的衡量标准——‘图灵测试’。”
图灵测试太有名气了,天隐也是有耳闻的,该测试是让人类测试者通过键盘向一个人和一个机器发问,这个测试者不知道他问的是人还是机器。如果在经过一定时间的提问以后,这位人类测试者不能确定谁是人谁是机器,那就认为这个机器是具有智能的。
“这个测试实际上更像是判断一个智能程序是否达到了agi的程度,并且是第一类也就是类人的人工智能”,从因蒂克斯柔和的表情不难判断出,他此时此刻又想到了豪克,“然而,这个测试也是有着重大缺陷的。”
“缺陷?”在天隐看来,除了作为类人人工智能的判断方式这一点有些狭隘之外,图灵测试并没有明显的不足,不过天隐也知道,虽然因蒂克斯喜欢滔滔不绝外加偷懒,但是绝对不会说出任何没有依据或是没有经过严格论证的结论。
“首先,是作为评判者的测试人,要以何种智力水平为准?测试人需要掌握多大范围的知识?测试人本身倾向何种思维逻辑?如果以各项指标都处于平均位置的测试人的结论作为评判依据,通过测试的,显而易见是跟一般人类近似的人工智能;但是没通过测试的呢,它们一定就不是人工智能么,或者说它们就一定没有思维能力么?”
因蒂克斯一边说,一边捡了根树枝在地上画着,天隐扛着第12包泥经过的时候扫了一眼,发现是一个树形示意图。
“既然测试者本身是平均水准,那就意味着他很有可能不会理解高水准的人的逻辑,就像世界上没有多少人能理解爱因斯坦的相对论,但是你不能说爱因斯坦不具有智能,所以第二类agi和可能会出现的asi很有可能根本无法通过图灵测试,仅仅是因为,他们的思考方式不能被人所理解。”
说到这里,因蒂克斯轻轻地叹了一口气,好像曾经亲身经历过一般,而后在地上的树形图上画了个圈,转向了另一个分支,“其次,图灵测试的内容是极其多变且复杂的,而且很多问题完全没有令人信服的评判标准,比如,我和希露德同时掉海里了,亲爱的首领,你会救谁?”
这也叫问题?肯定是救希露德嘛!不过看因蒂克斯双眼里都充满了期待,天隐觉得有些话还是不说得好,而且,天隐脑中突然冒出一个很奇怪的想法,“如果我不会游泳,相救也救不了……”
啪!因蒂克斯用树枝狠狠地在地上抽了一下,“就是这个!我就是这个意思!或许测试者原本的意思,是想看看被测试对象在面对此类问题的时候会做出怎样的道德判断,然而他忽略了一点,就是很多看似是道德方面的问题,其实是可以用理性进行解答的。”
“根据休谟的观点,理性从本质上来看是无能的,其唯一的目的就是对观念进行比较,它无法区分行动中的善与恶;道德判断虽然可以区分行动的善恶,但是却不是基于某种确定的观念,而是建立在印象的基础上,换言之,这是一种因人而异的‘感觉’。”
“也就是说,提出道德问题的测试者,很大程度上是希望知道被测试对象是不是拥有‘感觉’,而不是真的想知道该对象究竟抱持何种观念。当测试人得到的是用理性判断出的答案时,比如你刚刚说的‘不会游泳,没法救人’,他们就会不自觉地产生一种负面的主观倾向,这种倾向,往往会令被测试对象无法通过测试。”
到这里天隐还是可以理解的,所以点了点头,示意因蒂克斯继续。
“这就是图灵测试的第二个缺陷,即测试人往往在不自觉的情况下偷换了测试目的——将检验被测试对象具不具有思考能力,替换成了被测试对象是不是像人一样思考,前者才是判断人工智能的标准,后者嘛,千年来世界各地的哲学家们都没法确切地定义,理论上,处于平均水准的测试人是不可能给出不存在的定义的。”
“那要是找不同水准的测试人来呢?”虽然觉得被誉为“人工智能之父”的图灵应该不会想不到,但是天隐还是提出了自己的想法,一方面,如杨所说,培养一个什么问题都能思考的大脑,另一方面第14包泥显得格外沉重,天隐需要转移一下注意力以缓解疲劳。
“即便扩大样本范围,根据性别、年龄、人种、职业、智力水平、道德水准的差异,找出足够多的人组成测试团队”,因蒂克斯每说一个词就在地上画一个小圈,而后画了一个大圈将所有的小圈都包括进去,又在大圈的下面标注了一个词——“human(人类)”。
“这个测试团队显然没有脱离人类的范畴,能够得出的结论,简而言之,就是被测试对象是否具有能被人理解的思考能力。除此之外,被测试对象是否拥有感觉,是否具有伦理观,是否有道德感,无法做出判断,因为人类本身就没有一个统一的道德与伦理标准。”
“而这,虽然不能完全说是图灵测试的缺陷,但也确确实实是图灵测试不能消弭的一个问题——无法令人信任人工智能,我们越是测试,越是发现无法测试的东西太多;我们越是发觉自己无知,就越是恐惧;我们越是不安,就越是容易陷入疯狂……”
后面的话因蒂克斯没有说下去,但是天隐完全可以猜到。正是这种源自未知的恐惧,令各类艺术创作中出现的人工智能几乎无一例外地都造成了骚动,都站在了人类的对立面,虽然在这些想象的产物中,人类总是能得到最好的结局,但是,假如有一天,真的要面对比豪克高等一个甚至几个数量级的人工智能时,结局一定能使最好的嘛?
这个问题好像也不是很难解决,天隐是这样想的:既然人类可以建立起数种被多数人认同的伦理道德,用来维持社会的平衡,那同样可以建立起适用于人工智能的伦理道德,或者是可以同时适用于人类和人工智能的伦理道德……
“人工智能的伦理道德……”天隐不知不觉地说出了声,虽然声音很小,但还是被因蒂克斯捕捉到了。
“你!你刚刚说什么!”因蒂克斯一跃而起,神情激动地一把抓住天隐,用力地摇着肩膀,“你刚刚说的,再说一遍!”
哗啦,第16包泥没能完成属于自己的长征,在半途就因为不可抗力而散落了一地。天隐不知道是不是自己说错了什么话,但还是小声地重复了一遍,“人工智能伦理道德……”
“是的!是的!没错!就是这个!哈哈哈!哈哈、哈哈哈哈哈!”因蒂克斯放开了天隐,一边敲着头上的椰子壳,一边狂笑着,“你,搞不好真的是个天才!人工智能伦理道德,同时适用于人类和人工智能,哈哈哈、哈哈,哈哈哈哈哈……这种东西,你竟然想得出来!哈哈哈哈哈哈……”
“我不会什么地方说错了吧?”如果说天隐有一些优点,那其中之最就是不会对自己的想法过度自负,经常会处于反思和自我否定的状态中,或许这就是杨对于天隐无比欣赏的地方吧。
“不!不不不!一点都没有错!”因蒂克斯高兴地手舞足蹈,“我怎么没有想到!本大爷怎么会忽略这么明显的一点!是的,不错,人工智能伦理道德,这是个非常值得期待的东西,很棒!简直太棒了!难道不是么?”
看着语无伦次的因蒂克斯,天隐觉得还是决定先把他丢一边,趁着自己还有力气多搬几包泥。其实天隐心里也是有点小小的开心的,毕竟自己无心的想法得到了认可,虽然因蒂克斯作为艺术家的资格屡屡受到质疑,但是从没有人轻视过因蒂克斯作为科学家的能力,能被科学家的因蒂克斯认同,天隐很高兴。
高兴归高兴,你不干活就算了,跟着我干嘛,一边去一边去!看着突然跟在自己后面的因蒂克斯,天隐一阵头大,这也太碍事了,但是估计说了他也不会听,所以天隐只在心中发着牢骚。
“快!”因蒂克斯突然大吼了一声,吓得天隐一哆嗦,险些把候补第16包淤泥掉到地上,“快问我一些问题,关于人工智能的道德伦理,什么都行!快!”
“你想制定出人工智能的道德伦理?”
“是的!”
“为了豪克?”
“是的!是的!”因蒂克斯连说两遍,不过令天隐愿意相信的,不是他肯定的语气,而是充满执着与疯狂的眼神,这是一种科学家应有的气势。
“如果如果人工智能伦理……”天隐觉得这么说顺畅一些,人工智能的道德伦理这个短语怎么感觉都怪怪的,“能够被接受的话……”
“对于人工智能的担忧与恐惧就会缩小到可以被接受的范围!”因蒂克斯立刻接上了天隐的话头,“也就是说,即便今后出现了完整的第一类agi,或者asi,只要人类和人工智能双方都能够遵从‘人工智能伦理’,那就不会出现过于严重的后果!”
“那该由谁,以什么方式制定‘人工智能伦理’呢?”
“那还用问?”因蒂克斯一脸惊奇地看着天隐,指了指天隐又指了指自己,“当然是你跟我啊,你提出了这个概念,我认可了这个概念,还有豪克可以检验这个概念,如此得天独厚的条件,自然是我们来做!”
姑且,由着因蒂克斯发疯吧,如果可以稍微不那么碍事的话,就更好了——这就是天隐此时心里想的东西,不过天隐低估了因蒂克斯的执着,也低估了自己的思考能力。此刻正在努力建造菜田的天隐,完全想不到,在不远的将来,他不仅仅成为了匹斯人的