财新传媒 财新传媒

阅读:0
听报道

计算机的处理能力随着时间推移大幅提升。某些理论认为这是技术发展整体加速的其中一个表现,并将不可避免地带来人类命运的激进变化。按照这种观点,人类似乎朝着一个转折点前进,未来要么属于机器或超人类或是整个加速过程因不可持续而崩溃。不管是哪种结果都是灾难性的。至少这样的一个转折点是破坏性的。或许有可能正如很多预言师所相信的那样,造成未来世界与过去的一切完全没有连贯性。

摩尔定律和智慧爆炸这两种理论是目前老生常谈的一种看法的核心所在,即认为科学发现的速度在不断加快,并将走向一个彻底改变世界的转折点。两种理论的出现都是因为对于计算机影响日益扩大的思考,二者都是在1965年发表的。戈登摩尔(Gordon E. Moore)是英特尔公司的创办人之一,他观察到自1958年集成电路发明以来,集成电路上的晶体管数量每两年(后更改为18个月)翻一倍。

数学家古德(I.J. Good)在1965年发表了一篇题为《有关第一台超智能机器的猜想》的文章中,预测计算机将从各方面都超过人类的智慧能力。超智能机器的一个显著特点是具备制造出更好机器的能力 。它们的出现会引发“智慧爆炸”,机器将设计出更智能的计算机,它们的进化将远远超出人类的智慧。古德写下了一句非常著名的话:“第一台超智能机器将是人类的最后一项发明。”

15年以后,另一位数学家,同时也是一位享有盛誉的科幻小说家弗诺文奇(Vernor Vinge)虚构了一个小说情节,背景是刚刚发生智慧爆炸后的世界。文奇认识到超智能奇迹能从很多方面改变生命和文化,以至于无法完全想象未来世界的样子。文奇用一个数学和自然科学使用的术语将人类历史的这个转折点定义为技术奇点。

那些相信这个故事情节的人有两个核心问题要问:技术奇点什么时候发生?它会使人类受益还是威胁人类生存?目前这个阶段,没人可以给出答案,但是年轻专家和有经验的科学家对这个问题思考了很久,并在想办法如何确保未来超智能计算机对人类“友好”。

有关技术奇点何时到来的讨论非常热烈,一些理论家预测将在最近的将来发生(150或100年后),另外有些人认为很遥远或根本不可能。雷库兹韦尔(Ray Kurzweil)是一位投资家和作家,其代表性观点认为技术奇点在近期将会发生,他预测计算机将在2028—2030年前后展示出人类水平的智慧,奇点将接踵而至。

对于技术奇点不可避免到来的这一趋势持批评意见的人,并不认为能开展各项任务的计算机构成智能机器。当然,计算机在某些方面已经超出了人类的能力,比如解决数学计算、模拟复杂系统、搜索大型数据库发现片断信息之间的联系等。

但是,人类智力的某些层面仍是当今计算机无能为力或难以企及的。计算机甚至不具备分辨真实环境中重要信息和非重要信息的基本能力。计算机系统不具备人类的学习能力,缺乏情感智慧,道德智慧以及意识。但是有很多的理论是关于如何通过计算机实现这些能力,也有相当多的理论解释为什么计算机永远不会具备这些能力。

乔治华盛顿(George Washington)大学教授威廉哈莱尔(William Halal)发起了技术调查,在其中他采访了一些知名专家关于各种技术事件什么时候会发生。他注意到在这些预测中,最乐观的专家和最悲观的专家总是针锋相对。27位专家认同技术奇点存在。他们被问及是否同意这样的说法,即“智能机器将超越人类并造成破坏”。在27名专家之中,45%同意这个观点。对于那些既同意也不同意的人,对自己观点正确与否的自信程度平均为63%。

就像流行音乐有经典老歌一样,各种领域的学术研究也有一些几十年来反复被阅读和引述的经典文章。在计算机科学领域,其中的两篇“经典之作”涉及对计算机智能进行评价的文章。

第一篇是阿兰图灵(Alan Turing)所写,他是计算机科学的奠基人之一,二战期间率领团队破解了纳粹军队的密码。图灵在1950年一篇名为《计算机和智能》的文章开头写下令人难忘的一句话:“机器能思考吗?”要知道,当时对于人工智能尚无明确定义。

图灵提出用一个测试将人类对这个问题的反应来与机器对此的反应进行对比。提问者不能直接面对被提问的人,而是通过文字信息的方式来沟通。如果提问者仅仅根据二者的回答无法区分到底是计算机还是人类的答案,那么图灵建议必须认为智能机器是能够思考的。图灵称他的思考试验为一个模仿游戏,现在人们通常称这种试验为“图灵测试”。

虽然很多人批评图灵测试不足以作为衡量人工智能的标杆,但是没人有更好的提议。有一种批评意见认为一个非常聪明的机器人可能会装糊涂,假装很傻地回答以欺骗专家,否则的话专家会知道它比人类了解的知识还多。

对于图灵测试最有意思的批评是关于人工智能的第二篇“经典老歌”。1980年哲学家约翰西尔勒(John Searle)发表了《思想、大脑、计划》的文章,认为即使计算机像人类一样答出了专家的问题,也不能代表它知道自己在做什么。他用了一个“中文房间”的思维试验来说明自己的观点。

想象自己在一个房间里,里面是计算机所能获取的所有关于中国语言的资料,人和机器都获得充分的时间去学习掌握这些资料,然后让计算机回答一个中国人提出的问题,西尔勒推测他自己能够根据翻译材料给出正确的答案,虽然,他并不是真的懂中文,由此可以相信计算机也可以在同样不懂符号含义的情况下给出正确答案。

西尔勒企图说明的是,从形式上掌握中文符号和充分理解中文意思是不同的。他的思考试验想要证明,操纵符号的计算机并不了解这些符号的意思,对符号的操纵不等于语意理解。

西尔勒认为他提出的是一个常识性的简单观点。但让他感到奇怪的是,“中文房间”的论点引起了无穷无尽的讨论。很多人则认为用于计算机工程的思维模型不足以生产出具备理解和意识能力的机器。

我对于人工智能导致技术奇点(通常也称之为超智能的到来)的研究前景持友好的怀疑态度。我对于无所不能的工程精神也持友好的态度,他们提议制造具有通用智能的机器,以便开展各种任务。但我非常怀疑我们是否对智能或意识的本性有足够多的了解,以至于能将其完全复制在芯片或其他材料里。

生物系统中某些人类智力特质是我们无法理解的,所需要的科学灼见也是现阶段我们尚未具备的。人类思想与身体的融合,以及对于外界环境改变所做的适应性反应及韧性,是很难通过非生物的方式加以复制的。

有人认为,将人类的脑力和先进的人工智能形式结合起来的超智能终将问世。某种程度上说,我认为这样的观点更实际些。但是,认为人和机器的能力相结合会带来智能爆炸或是技术奇点的观点仍然说得过去但不太可能。

当然,信息技术将产生新的思想种类,放大或取代人的思想去从事很多任务。虽然我对未来50~100年会发生技术奇点仍然持有怀疑,但是未来200年后是否会发生技术奇点,我无从判断。但是时间越长,机会越多,可以确保超智能机器人对人类和人类的价值观友好。认为科学家肯定终有一天会发现制造此类机器人或实现人类进化当然不是愚蠢的。但是,这很大程度上取决于在20年、200年还是1000年以后实现。

2009年,一群计算机专家举行会议,反思人工智能研究在社会层面上所取得的进步,他们对于智能爆炸和即将到来的奇点表示怀疑。仅仅5年之后,这次会议的联席主席巴特塞尔曼(Bart Selman)认为,因为最近在感知和机器学习方面取得的突破,在大部分人工智能研究人员的心目中,超智能的可能性正在上升。

超智能的可能性受到了极大的关注,特别是一些著名人物,比如宇宙学家斯蒂芬霍金(Stephen Hawking)、特斯拉的创立人伊隆马斯克(Elon Musk),他们认为人工智能的研究将对人类造成严重威胁。

有时候这种对于未来的消极担忧某种程度上转移了人们对于解决当下更为紧要的问题的注意力。但是,技术奇点可以作为人类无法自我掌控命运的象征。对于技术奇点的关注可以提醒商界领袖更加重视这个问题,人类发明的技术如何迈出了最初的几步,直至迫使人类交出控制权,从这个角度说来,技术奇点倒也是有用的。

接下页:无人驾驶更安全吗?我们是否应该将决策权交给机器?

[subtitle=无人驾驶更安全吗?]

无人驾驶更安全吗?我们是否应该将决策权交给机器?

杀人机器人只是把人类的决策权交给机器的一个例子。越来越多的非自主计算机和机器人有可能破坏了人(个人或企业)应为其行为负责的基本原则,并有可能为任何技术的部署造成的危害承担责任。谈到非军事机器人的用途将会使这一点更加清晰。大部分为家用目的开发的系统不应该被禁止。在许多情况下,他们的好处远远大于风险。尽管如此,它们稀释了负责任的人或企业代理这一核心原则,因此成为令人不安的先例。

截至2014年5月,一个无人驾驶的丰田汽车普锐斯车队——其改良的硬件和软件都由谷歌设计,成功在加州高速公路和城市街道行驶70万英里。这些无人驾驶车辆无一造成交通事故。对于谷歌汽车持续的媒体报道给人的印象是未来5~10年内消费者将可以购买到完全无人驾驶车辆。未来的汽车发展的前景是在疯狂的派对之后可以由无人驾驶车辆安全送到家,但谷歌的车并非如此,如果计算机司机对某些情况无法处理时,还是需要驾驶座上的操作者随时接管。在不到10秒钟的警报时间内,驾驶人员需要充分投入,如果万一有意外发生,则将被追究事故责任。这就是说谷歌计算机司机在驾驶时,驾驶座上的主人不能打盹或发短信。驾驶员无事可做,会感到无聊和注意力不集中,这将妨碍其短时间内对潜在危险做出反应的能力。

美国国家公路交通安全管理局估计,81%的碰撞事故都是由于人的某些原因。因此,提倡无人驾驶汽车的人普遍认为,这些车辆将显著降低死亡率。这种说法的准确性值得质疑。毫无疑问,造成事故的原因很多是司机在打盹、出神或干脆睡觉了。但是无人驾驶汽车因为计算机错误或计算机司机警告接管后车主无法掌控情况导致的事故可能更严重。

据谷歌的统计,当前的设计平均36000英里才会出现一次计算机司机出现严重错误需要人进行干预的情况。这听起来让人比较放心,因为一般的司机需要2或3年才能开够这么远的里程。然而,人类司机一般每50万英里才会出现事故,每130万英里可能发生伤人的事故,每9000万英里才可能导致人员死亡的事故。因此,难以证明依赖备份人类司机的无人驾驶汽车能否真正降低死亡率。但是一个简单的事实是无人驾驶汽车比人对紧急事件做出刹车的反应要快,这表明无人驾驶车会比有人驾驶车更加安全。

我们现在可以考虑这种可能性,车辆自动驾驶功能的确可能带来事故死亡人数减少,但在这些事件中死亡的人与人驾驶车造成的死亡是不一样的人。对于死亡的人本身的权衡将为法律和保险机构带来新问题。比方说,为了避免撞上公共汽车或旁观者,自动驾驶的车辆从桥上掉下去,导致车主身亡。这是令人不愉快的场景,但有些司机会主观上选择这么做。

伦理学家帕特里克林(Patrick Lin)在2013年发表的一篇文章指出,在“为了最大人群的最大利益”的道德数学背景下,也许应当给自动驾驶的车辆进行编程,选择让车主死亡而不是撞死2个路边的行人。但是用数学来决定对错令人不安。当然,这样的情况也颇不寻常。但是我们难道希望让机器人汽车来决定我们的死活吗?

当事故发生时谁将被追究责任?汽车制造商们在责任问题解决之前是不愿意营销自动驾驶车辆的。但是目前,法律将判定自动驾驶车辆的制造商为大多数事故负责。如果让司机为一起他们无法在很短时间内掌握方向盘的事故负责肯定会很不舒服。除了解决各种技术难题,发生事故后的责任和法律后果如何管理是完全自动驾驶车辆投入市场速度很慢的原因。在很多情况下,赔偿责任的问题不能且不应由生产商或工程师决定。立法机构、法院、保险机构必须为此做出决定。

所有这些问题都无法阻止有进取心的公司找到新的手段推销自动驾驶车辆。他们将上访州政府和游说制定新法律。在此期间,他们很可能会重新定义自动驾驶车辆,使用一些模糊的语言,如“驾驶辅助”等。目前,一些高端车辆已经采用了自动泊车和紧急制动等安全特性。

当然,制造商将确保他们的责任是有限的。即使责任问题没有完全解决,自动驾驶车辆对于一些特殊用途而言仍是有吸引力的选择。例如,一些老年人本身就不再相信自己能一直保持高度注意力,就很希望有一辆具备驾驶辅助的车辆,即使这意味着他们必须保持目光一直盯着前方的道路。但是,如果自动驾驶车辆造成一次严重的事故,则很可能导致这一行业倒退几十年。有时候,事故难以避免。工程师们当然会尽一切努力控制自动驾驶车辆造成事故的数量。他们知道,自动驾驶汽车的接受度将取决于公众是否愿意接受即使发生了一起可怕的事故,也能清楚地表明自动驾驶车辆比人驾驶的车辆要明显安全得多。

解决这些社会担忧,其中一种可能的办法是对完全自动化驾驶汽车提供无过错保险。如果自动驾驶汽车提供了真正的净优势,那么立法机关可以制定政策,放松这一行业的发展。可以肯定,如果有一项立法可以减少自动化系统因为设计师和工程师有时无法预见的情况导致的系统故障和事故所承担的责任,那么肯定会大大促进整个机器人行业的发展。

但是快速促进越来越自动化的机器人的发展到底有多重要呢?减少责任肯定会加快机器人技术发展,但有利有弊。这将开启绿灯,允许制造厂商推出尚未经过全面测试或已经知道缺陷的产品。公司将强调难以确定谁为复杂的智能系统负责,因为他们会去请愿减少为系统故障承担责任。什么时候回报才会大于风险?

实践伦理学家和社会理论家对于减轻企业和个人责任,问责制度,以及为越来越自动化系统行为负责等引起的内在危险十分担心。2010年,为了表达他们的担心,提出了五项规则以重申人类不能逃脱对于计算机物品的设计、开发或部署造成的道德责任。50多名技术和道德领域相关的学者签字表达对这五项规则的支持。出于本书的目的,只要说明其中的第一项规则就足够了:

规则1:设计、开发或部署计算机物品的人应当为该物品承担道德责任。这项责任是与其他设计、开发、部署或知情情况下将该物件作为社会技术系统的一部分进行使用的人共同承担。

如果第一条规则被编入法律,枪支制造商将为使用其枪支造成的谋杀案负责;香烟制造商将为吸烟者所患肺癌负责。虽然表达的方式略有不同,但这五项规则都过于宽泛,而且有点不切实际。这些规则的推广应用不会很容易,并将显著减缓机器人产业的发展。但是,它们强调了法律理论家和伦理学家对于减少机器人装置行为所负责任,或引入一些行为无法预测的机器人的担心。

这些规则,比如前面所述为计算机物品所提出的规则,是否可能或应当上升为责任法仍是一个悬而未决的问题。一个棘手的政策辩论仍摆在面前。是否应当减少对于计算机和机器人所应承担的责任,以激发这一潜在的变革行业的发展?还是应该维持现有的保护措施,即使这可能抑制了企业推出具有显著好处但存在较低不确定风险的新产品的意愿。

谷歌机器人汽车项目首次曝光于2009年,道奇战马在其电视广告里对谷歌汽车大肆抨击。在广告中,一个低沉的,不祥的声音宣告:“自动驾驶,自动停车入库,这是由一家搜索引擎公司驱动的无人驾驶车辆。我们已经看过那部电影。它最终的结局是机器人从我们的身体里汲取能量。”汽车肯定不会利用我们的身体作为燃料,但这个广告反复出现的图像一直在暗示,如果继续朝着自主化机器人的目标发展,那下一步则是滑下深渊,人类与其创造的物品之间将充满冲突。这样的恐惧引起了多少人的关注?

当然,完全自主化的人工智能系统远非今天的技术所能实现。即使有人相信有一天最终会实现,确保超能机器人系统对人类友好很可能会解决。但简而言之,很多市民,虽然对机器人感兴趣,仍然对机器人技术可能的走向感到不舒服。

接下页:转基因,为什么大众和专家讨论不到一个频道上?

[subtitle=转基因,为什么大众和专家讨论不到一个频道上?]

转基因,为什么大众和专家讨论不到一个频道上?

生物工程总体可归结成两类:自上而下(top-down)和自下而上(bottom-up)的方法。自上而下方法是对现有生物的全部基因组进行量身定制,制造出一个类似的具备一种或几种不同的特征或性质的生物。一种生物的基因材料与一种或多种来源的基因材料相结合成为一个从来没有的新生物的重组DNA代码。自下而上的方法是指将DNA片段连接起来重新制造一个全新的生物部件。一些科学家认为合成生物学只限于称呼自下而上的方法,虽然通常情况下,这个称呼也被用于自上而下的方法。

DNA片段重组是一种自上而下的方法,可以用来生产转基因食品和药品。最早发明的重组药品是合成胰岛素,大大降低了治疗糖尿病的药物成本。以前,大多数奶酪都是用牛犊的胃内膜生产,但是现在世界上大部分的奶酪都使用合成凝乳酶(胃内膜的活性成分)。

转基因作物具有抗虫害、抵御寒冷天气、生长快、高产、色泽好、营养价值高、货架时间更长等优点,美国市场上很容易买到。甚至有一些常见的转基因谷物品种可以用来生产低价的抗生素。但是,因为担心它们会搅混和污染原生物种,美国对于农场生产抗生素的谷物方面的测试制定了严格的限制。

美国的消费者很少知道他们吃的食物来自转基因作物。欧洲的科学家和消费者担心转基因食物对健康造成的风险可能在几代人之后会显现。这种担忧有一定的道理。转基因作物具有的一些特征比如抗杂草和抗害虫,对于农民而言十分具有吸引力,但是对于人类的长期影响还不得而知。

欧盟限制转基因产品的进口和销售,导致美国和欧洲之间的贸易紧张。在美国,有人呼吁给转基因食物添加标签,这样消费者至少可以避免选择转基因产品。但是说来容易做起来难。比如,一个农民对于地里种的是否是转基因种子根本不清楚。农民购买的种子可能是非转基因的,但也可能是鸟儿从转基因玉米地里衔来种子落到了原生玉米地里。

虽然很多人害怕转基因食品,但是目前仍然缺乏实质性的证据表明转基因食品会比传统食品危险。在某些情况下,转基因食品消除了常规生长的谷物或蔬菜带来的风险。比如,转基因作物能抗疾病或害虫,生长过程需要的化肥更少,因此对环境更友好。因为减少了化肥使用,人吃了未洗的水果和蔬菜中残余的化学品导致生病的可能性也减少了。问题是,美国和加拿大有明确的证据表明抗害虫的转基因作物会导致抗害虫的野草滋生,这就需要喷洒药性更强的除草剂。

欧盟已经批准了种植一种转基因玉米,但是也要求欧盟成员国政府对于本国种植转基因作物设定限制。欧洲特别关心转基因作物污染高价值的原生作物的可能性,当地人更加看重自然生长的水果和蔬菜的口感和质量。转基因作物味道更好的论点在味蕾更加挑剔的欧洲人那里行不通。因此,争论仍在继续,能产生长期影响的判决仍悬而未决。

除了刚才在讨论的植物和种子以外,鱼是什么情况呢?2010年美国食品和药品管理局(FDA)评估了供人类食用的首个转基因鱼案例。美国一家叫作水邦提(AquaBounty)的公司将一条太平洋Chinook三文鱼体内的生长激素控制基因转移到大西洋三文鱼中。Chinook比大西洋三文鱼生长速度快。该公司还在新鱼种中添加了第二种基因确保生长激素持续有效。

水邦提公司希望将这些生长周期短的转基因三文鱼推向市场以补充“寿司热”造成的三文鱼短缺。转基因动物可能比转基因植物危险更大,因为动物具有将疾病传导到人身体的能力。但是转基因动物与注射激素的牲畜(欧洲和美国几乎所有的牲畜都注射了生长激素)相比,究竟哪一种对人体健康造成的危险更大,目前还不清楚。

这种名字叫作水优势(AquaAdvantage)的转基因鱼在内陆的水池中生长。但是,环保主义者担心如果这些鱼逃到了海洋并与其他鱼类杂交,对其他的三文鱼物种会造成不利的影响。FDA自1995年以来对水邦提公司提交的关于允许转基因鱼进入市场销售的申请进行审核。2010年专家组发现这种三文鱼对于环境没有明显影响,可以食用。但是截至2014年秋天,FDA没有发布最终审评报告。也许他们有所顾虑,因为2008年他们批准了一个类似的审核,允许食用克隆动物产的奶和肉,招致成千上万的公民提出反对。

对于自下而上的基因工程方法,了解的人更少一些,因此安全性的争论声音也更小一些。但是这种方法带来的风险值得认真考虑,因为一些业余人士也能够亲手制造基因产品。自下而上的基因工程可以将标准的生物部件(生物砖块)组合起来制造一些承担具体任务的简单有机物系统。

生物砖块是具备独特结构的DNA序列,一些生物砖块与生物中的某些特别性状相对应。生物砖块基金已经注册了数千种生物砖块,该基金会也建议这些仍属于公开使用范围。这些标准的生物砖块相当于数千块不同的生物乐高积木块。生物砖块的使用正在将新生物系统制造转变成某种DIY工程。

每年,一群群大学生和教授通过国际基因工程机器大赛(IGEM)学习合成生物技术。参加大赛的每一个队都分到一个标准的生物部件工具箱,利用这个工具箱以及其他的部件,他们可以自己设计,整个团队要制造一个能够在活细胞中运行的生态系统。无害的实验室大肠杆菌株是这些新的生物系统最佳载体。

大肠杆菌存在于人体和所有温血生物中的肠道中,用于研究的菌株已经丧失了在肠道中生长的能力。大肠杆菌能够迅速繁殖,一夜之间就能长成,因此是研究最多,最容易理解的单细胞生命形式。有一个参加IGEM的团队制造了一个大肠杆菌新变体,能够改变其pH值。pH值被用来衡量一个物质的酸碱性,从而判断是否检测到砷的存在。换句话说,这个细菌可以作为有毒物质的探测器。

选择自下而上方法的合成生物学家的愿望是能够组装足够多的生物砖块,将生物学变成类似于电子组装的工程学。但是活细胞内部的更加复杂的活力是否可以通过简单的零部件组装流程来实现仍然不得而知。

围绕自下而上方法合成生物相关的伦理问题争论声音并不大,部分原因可能是这门科学还很年轻,而且也没有使用人类胚胎。正如下一章中所讨论的,任何使用人类胚胎以及胚胎细胞的项目都是一个敏感的底线问题,在美国尤为如此。

基本信息

    者:温德尔•瓦拉赫

社:江苏凤凰文艺出版社

出版日期:20172

    价:39.8

话题:



0

推荐

书摘君

书摘君

31篇文章 3年前更新

新鲜书讯速递,偶尔也炒炒冷饭。

文章