最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
打印 上一主题 下一主题
开启左侧

凯文·凯利:关于超人AI你们都错了!

[复制链接]
跳转到指定楼层
楼主
发表于 2017-4-28 19:05:29 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
本帖最后由 168主编 于 2017-4-28 19:06 编辑

KK说,超人AI更像是一种迷思,一种宗教崇拜。


编者按:国际象棋、游戏、围棋、德州扑克……AI正在慢慢地攻陷人类的领地。这些进展使得超智AI很快出现的声音再度喧闹起来。但在《失控》作者、著名的未来学家凯文·凯利(KK)看来,关于超智AI存在着5大迷思。他的思考角度跟奇点派有着很大的不同,值得大家好好看看。

据说未来计算机化的AI会比我们聪明得多,以至于它们会夺走我们的工作和资源,人类将走向灭绝。这是真的吗?
只要我举办AI方面的演讲,这就是我听到的最常见的问题。提问者非常恳切;他们的担忧部分源自于一些专家也向自己提出了同样的问题。这些家伙都算是目前最聪明的人了,比如霍金、Elon Musk、Max Tegmark、Sam Harris以及比尔·盖茨等。他们相信,这一场景非常有可能是真的。最近在一场讨论这些AI问题的会议上,一个由AI方面见识最多广的专家组成的9人小组一致认为这种超人智能必然会出现,而且距离我们并不遥远。
但在这个拥有超人力量的人工智能接管世界的场景下面,需要有5个假设作为铺垫,而如果对此进行逐一仔细核查的话,你会发现它们并没有任何迹象为依据。这些论断在将来也许是对的,但迄今为止并没有任何证据支持。超人智能很快就要出现背后的假设是:

  • 人工智能已经比人更聪明,而且在以指数的速度在增长。
  • 我们将会把AI变成像我们一样的通用智能。
  • 我们可用硅做出人类智能。
  • 智能可以无限扩展。
  • 一旦我们突破超级智能,后者将可以解决我们大多数的问题。

相对于这些正统的说法,我们发现支持下面这5种异端学说的证据似乎更足。

  • 智能不是单一的维度,所以“比人聪明”是个无意义的概念。
  • 人类并没有通用的思维,所以AI也不会有。
  • 用另一种媒体模拟人类思维会受到成本的约束。
  • 智能的维度不是无限的。
  • 智能只是发展的一个因素。

如果对超人AI接管世界的期望是建立在5个并没有证据根据的关键假设基础上的话,那么这个想法就更像是一种宗教信仰,是一种迷思。在文章的以下部分里,我将会展开阐述那5个相反假设的更多证据,并且证明超人AI的确只是一种迷思。
关于人工智能,最常见的误解始于对自然智能的常见误解。这种误解认为,智能是单一维度的。大多数技术人往往用Nick Bostrom在《超级智能》一书的方式来描绘智能,即智能是单个维度的增幅线状图。在这幅图里,一头是低等智能,比如小动物,而另一头则是高等智能,比如天才;就好像说智能好比用分贝表示的声级一样。当然,接下来很容易就会扩大想象,认为智能的响级会继续增长,最终超过我们自己的高等智能,然后成为超级响的智能——比如比我们声音响亮得多的轰鸣声,甚至连图都表示不了。
这一模型拓扑等价于阶梯,每一级的智能都会比此前的一级更高。低等动物位于比我们略低的阶梯,而更高级的智能最终将越过我们,爬上更高的台阶。什么时候会发生的时间标度不重要,重要的是排名,这个衡量智能不断增长的指标。
这种模型的问题在于它是虚构的,比如阶梯式的演进。达尔文主义之前的自然世界观就假设生命是阶梯式的,低等动物属于人类之下的梯级。即便是在达尔文之后,一个非常常见的观念是进化是“阶梯式”的,鱼进化为爬行动物,然后上升一个台阶进化到哺乳类动物,再到灵长类,最后到人,每一次都比上一级多进化(当然也更聪明)了一点点。所以智能的阶梯对应于生物的阶梯。但这些模型提供的是一个完全不科学的观点。
物种自然演进的一个更加精确的图表是一张向外辐射圆盘,就像上面基于DNA的这张,这是德克萨斯大学的David Hillis先设计出来的。这个系谱曼荼罗从中间最原生的生命形式开始,然后按照时间顺序向衍生。时间向外迁移所以今天生活在地球的最近的生命物种是出现在这个圆圈的边缘。这张图强调了进化很难被认识到的一个基础事实:现存的每一个物种都是平等演进的。人类跟蟑螂、蛤蚌、蕨类植物、狐狸和细菌一样都位于圆圈的外沿。这些物种每一个都经历了30亿年未曾间断过的成功繁殖。也就是说,今天的细菌和蟑螂跟人类一样是高度进化的。没有阶梯这一说。
类似地,智能也没有阶梯。智能不是一个单一的维度,而是许多认知类型和模式的综合,每一个都是连续统一体。就拿衡量动物智能这个非常简单的任务来说吧。如果智能是单个维度的话,那么我们就应该可以把鹦鹉、海豚、马、松鼠、章鱼、蓝鲸、猫以及大猩猩按照线性的顺序排列。我们目前还没有这样一条线的科学依据。原因之一也许是动物智能之间并没有区别,但这一点我们也看不到依据。在动物如何思考方面动物学充斥着显著的区别。但也许它们都着一样的“一般智能”呢?有这种可能性,但我们没有衡量手段,找不到衡量这种智能的单一指标。相反,对于不同类型的认知我们有很多不同的指标。
我们不画单条的分贝线,相反,一个更精确的智能模型可以是画出它的可能性空间,就像上面用达尔文编写的算法创造出来的生命的各种可能形式一样。智能是组合的连续统一体。由多个各自都是一个连续统一体的节点创造出来的,高维的、高度多样性的复合体。一些智能可能非常复杂,有很多的思考子节点。有的可能更简单一些,但是更加极端,处在空间的角落。这些我们称之为智能的复合体可被视为由许多种类型的乐器组成的交响乐。衡量它们的不仅只有响度,还包括音高、旋律、颜色、节拍等等。我们可以把它看成是一个生态体系。就这个意义而言,思维不同的组成节点是共存的、共同创造的。
用Marvin Minsky的话来说,人类思维就是社会思想。我们是在一个思想的生态体系里面运作的。我们包含了多种认知来进行很多类型的思考:演绎、归纳、符号推理、情绪智力、空间逻辑、短时记忆以及长时记忆。我们的整个神经系统也是一种有着自己认知模式的大脑类型。我们并不仅仅只是用大脑来思考,而是用整个身体在思考。
这些认知组合因人而异因物种而异。几千颗橡树子的确切位置松鼠能记住好几年,这项壮举可以远远将人类思维抛在脑后。所以在某种类型的认知上,松鼠是胜过人类的。这种超级能力是跟其他模式绑定在一起的,那些模式是产生松鼠思维必须的,而与人类的相比那些模式显然是黯淡无光的。动物王国里面比人类出色的认知特长还有很多,这些也是绑定进不同的系统里面的。
AI情况类似。人工思维在特定维度上已经超越了人类。你的计算器是数学天才;Google的记忆在特定维度已经超过了我们自己。我们设计AI让它们擅长特定模式。其中一些模式是我们能做的,但是它们做得更好,比如概率或者数学。有的则是我们根本就不能做的思维类型——比如记住60亿网页的每一个单词,这是一项任何搜索引擎都做得到的本领。在未来,我们会发明出我们或者任何生物都不具备的全新认知模式。当我们发明人工飞行物时我们是受到了飞行的生物模式(主要是拍打翅膀)的启发,但我们发明的飞行,也就是用螺栓拴在宽大固定翼的螺旋桨,对于我们的生物世界来说却是未知的飞行模式。这是一种不同的飞行。类似地,我们也会发明自然并不存在的全新的思维模式。在很多情况下,这些会是新的、狭隘的、“小型”的特定模式,针对的是特定工作——也许是某种类型的推理,只对统计和概率有用。
其他情况下新思维会是复杂的认知类型,我们可以用来解决光靠我们的智能无法解决的问题。商业和科学的一些最难的问题可能需要两步的解决方案。第一步是:发明新的思维模式用来跟我们的思维协作。第二步:结合起来解决问题。因为我们正在解决此前无法解决的问题,我们希望把这种认知称为比我们“更聪明”,但实际上它只是不同于我们。思维方式的不同是AI的主要好处。我认为有用的AI模型是把它视为外星智能(或者人工外星人)。相异性是其主要资产。
与此同时,我们会将这些各不相同的认知模式集成为更复杂、更综合的社会思维。其中一些复合体会比我们更加复杂,而因为它们能解决我们无法解决的问题,其中一些人希望称之为超人。但我们并不会把Google称为是超人AI,即便它的记忆比我们强,因为有很多事情我们干得比它好。当然,这些人工智能的综合体在很多维度上面能超过我们,但没有一个能够在我们做的所有事情上都做得比我们好。这就类似于人的体力。工业革命已有200年的历史,尽管所有的机器作为一类在需要体力方面的成就已经击败了个人(奔跑速度、举重、精密切割等等),但没有一台机器在所有事情上都能击败一位普通人。
即便AI的社会思维变得更加复杂,那种复杂度在此刻也是难以系统地衡量的。我们并没有好的可操作的复杂度指标,可以用来确定黄瓜是否就比波音747复杂,或者它们的复杂方式的不同。这是我们对聪明一样没有好指标的原因之一。想要确定头脑A比头脑B复杂是非常困难的,出于同样的原因,想要宣称头脑A比头脑B聪明也是一样的难。我们很快就会到达这样的时点,那就是“聪明”不会是单一的维度,而我们真正关心的是智能众多的其他运作方式——也就是所有那些我们尚未发觉的认知节点。
对人工智能的第二项误解是我们以为自己有通用智能。这一信念的再三重复影响了AI研究人员,导致他们制定出共同的既定目标,也就是要创造出通用人工智能(强人工智能,AGI)。然而,如果我们将智能视为提供一个大的可能性空间的话,那就不会有通用状态。人类智能并没有处在某个中心位置,被其他的特殊智能众星捧月。相反,人类智能是一种非常非常特殊的智能类型,已经过了数百万年的演进才促使我们这个物种得以在地球上生存。如果把所有可能的智能映射在进这个空间内的话,人类智能只会在这个空间内偏居一隅,就像我们的世界也只是坐落在浩瀚的银河系边缘上一样。
我们当然可以想象,甚至发明出瑞士军刀式的思维。这有点类似于一堆事情它都能做,但没有一样做得非常好。AI也将遵循所有制造或诞生出来的东西都必须遵循的工程准则:你不可能在每一个维度上都做到最优化。你只能进行取舍。一个通用单元是没有办法胜过专门的功能的。一个宏大的“做一切事情”的头脑在每一件事情上都无法做得跟专门的代理一样的好。因为我们认为我们人类的思维是通用的,所以往往认为认知不会遵循工程师的权衡取舍,以为开发出令所有的思维模式最大化的智能是有可能的。但我看不到这方面的迹象。我们根本还没有发明出足够多样化的思维来看清整个空间(指思维的可能性空间,迄今为止我们往往把动物思维贬视为单一类型,以为它们不过是在同一个维度上,只是幅度各不相同罢了。)
这种通用思维最大化的理念部分源自统一计算的概念。这一概念的正式提出是在1950年,也就是所谓的邱奇-图灵论题,这个猜想提出,任何满足特定阈值的计算都是等价的。因此所有计算,无论是发生在带许多快速或者缓慢部件的机器,或者甚至是发生在一个生物头脑里面的计算,它们都会有一个统一的核心,都是一样的逻辑过程。也就意味着你应该可以在任何可执行“统一”计算的机器模拟所有的计算过程(思维)。奇点派(Singularitans,认为机器智能超过人类即将到来的人,代表包括Ray Kurzweil、Elon Musk、霍金等)靠这一原则来支撑它们的期望——也就是我们将会制造出媲美人类思维的硅晶大脑,可以让人工大脑像人类一样思维,只是比我们聪明得多。对于这种期望我们应该持质疑的态度,因为它依赖的是对邱奇-图灵假设的误解。
这个理论的出发点是:“鉴于纸带(内存)和时间的无限性,所有计算都是等价的。”问题是在现实里,并没有计算机有无限的内存或者时间。当你在现实世界运行时,真正的时间会有很大的差异,往往是生死攸关之别。是,如果忽视时间的话所有思维都是等价的。是,你可以在任何想要的母体模拟人类的那种思维,只要你忽视时间或者存储、内存的现实约束的话。然而,如果你把时间考虑进去的话,那条原则就大不一样了:在差异巨大的不同平台上运行的两套计算系统是无法实时等价的。这个也可以重新复述成这个样子:拥有等价思维的唯一办法是将其运行在等价的基底上。你运行计算所在的“肉身(physical matter)”,尤其是随着它变得越来越复杂,会对可以实时完成好的认知类型产生极大影响。
这一条我还要进一步延伸:获得像人类那样的思维处理的唯一方式是在像人类那样的湿重组织(wet tissue)内运行计算。这也意味着在干的硅晶上运行的非常庞大复杂的人工智能会产生出庞大、复杂的、跟人类不一样的思维。如果有可能开发出利用像人类那样的神经元的人工湿重大脑的话,我的预测是它们的思维会更像我们的。这样一个湿重大脑的好处与我们造出的基底与人类的相似度成正比。创造湿件(wetware,人类神经系统)的成本高昂,而这种组织跟人类大脑组织越接近,则我们干脆造人的成本效益就越高。毕竟嘛,十月怀胎,这种办法需要的只是时间。
此外,如前所述,我们是用全身而不仅仅是大脑来思考的。我们有大量数据表明,我们肠道的神经系统是如何引导我们“理性”的决策过程,并且可以预测和学习的。我们对整个人体系统建模越多,就离复制它越近。一个运行在非常不同的身体(干的硅晶而不是湿的碳基)内的智能思考也会不同。
我认为这不是bug,相反们这是一项特性。就像我在第二点指出那样,与人的思维方式不同是AI最主要的资产。而这个正是“比人类聪明”这个说法误导人的又一个原因。
超人智能这个概念,尤其是智能会不断改进自己的观点,其核心理念是智能没有上限。我找不到这个的证据。再次地,把智能误解成单一维度帮助了这个理念,但我们应该把它理解成一个理念。按照目前科学的已知,在宇宙中还没有一个物理维度是无限的。温度不是无限的——冷和热都是有限度的。空间和时间是有限的。速度是有限的。数学数轴也许是无限的,但所有其他的物理属性都是有限的。显然推论本身也是有限的而不是无限的。那么问题来了,智能的极限在哪里呢?我们往往认为这种极限远远超过我们,远在我们“之上”,就像我们远在蚂蚁“之上”一样。单一维度的递归问题且抛开不谈,我们有什么证据证明我们就不是极限了呢?我们为什么就不能是最大值?或者也许极限离我们只有很短距离了呢?我们为什么会相信智能是一个可以无限扩展的东西呢?
把我们的智能看成是100万种智能类型之一,这种对智能的看待方式要好得多。所以尽管认知和计算的每一个维度都有极限,但如果存在好几百个维度的话,那么就会有无数的思维出现——尽管任何一个维度都不是无限的。随着我们开发或者遭遇无数思维各种各样的变体,我们自然会认为其中一些超过了我们。在最近写的《必然》这本书里面,我粗略描述了部分思维变体在一定程度上会超过我们。以下就是不完整清单:
今天的一些家伙可能想把这些实体都叫做超人AI,但这些思维绝对的多样性和相异性会将我们引领到有关智能的新表达和新洞察。
其次,超人智能的信徒假定智能会(以某个未经确认的单一指标)指数增长,也许是因为他们也假设它已经在呈指数增长了。然而,迄今为止并没有任何证据表明智能在指数增长——无论你如何进衡量。所谓指数增长我的意思是说人工智能在一定时间间隔内实现了能力翻番。证据呢?我找不到。如果现在没有的话,为什么我们就可以假设很快就会发生呢?唯一呈指数曲线发展的东西是AI的输入,也就是致力于产生智能的资源。但输出的效能并未呈摩尔定律增长。AI能力并没有每3年翻番,或者甚至每10年翻番都没有。
我问了很多AI专家,想找他们要智能的性能呈指数增长的证据,但他们都同意说我们并没有衡量智能的指标,此外,智能也不是这样运作的。当我问指数增长巫师Ray Kurzweil本人指数性AI的证据在哪里时,他回信说AI并不是爆发式增长而是按照水平提升的。他说:“计算和算法复杂度需要取得指数改进才能给层级增加额外的一层……所以我们可以预期线性地增加层级,因为这需要指数式的复杂度增加才能增加新的一层,在做这件事情的能力方面我们的确取得了指数式进展。我们现在距离大脑新皮质能做的事情已经没有那么多层的差距了(注:指深度学习的层次),所以对我来说我的2029年时间点(注:指奇点到来的时间)看起来还是很合适的。”
Ray的意思似乎是说,不是人工智能的能力在指数式增长,而是产生人工智能的努力在指数增长,而这种努力的产出是每次提高了一个层级。这与智能正在爆发的假设几乎是背道而驰的。这在未来可能还会变化,但人工智能显然目前还没有指数增长。
因此,当我们想象“智能爆发”时,我们不应该把它想象成级联爆发,而应该想象成新变体的分散剥落。是一次寒武纪大爆发而不是核爆炸。加速技术的结果不大可能是超人,而是异人(extra-human)。这超出了我们的经验,但未必就是“在我们之上”。
超级AI接管世界另一个未受挑战的信念是,一个超级的、近乎无限的智能可迅速解决我们悬而未决的重大问题,但这几乎没有证据支撑。
智能爆发的许多支持者期望它可以带来爆发式的进步。我把这种迷思成为“思考主义(thinkism)”。认为未来的进步水平只是受制于思考能力或者智能是谬误的。(可能我还要指出的是,很多喜欢思考的家伙都有那种想法,以为思考是包治百病的魔术配方。)
就拿治愈癌症或者长生不老来说吧。这些问题都不是光靠思考就能解决的。思考主义再多也发现不了细胞是如何老化的,或者染色体端粒是如何掉落的。任何智能,不管它的能力如何超级,都不能仅通过阅读目前全世界所有已知的科学文献然后苦思冥想出人体是如何工作的。任何超级AI都不能光靠思考所有目前和过去的核裂变试验然后在一天之内想出可行的核裂变。在弄清事物的运作机制方面,从未知走向已知除了思考以外还需要很多其他的东西。现实世界要进行无数的试验,每一次都会提交无数自相矛盾的数据,需要进行进一步的试验才能形成正确的工作假设。对潜在数据展开思考并不能提交出正确的数据。
思考(智能)只是科学的一部分,可能甚至只是一小部分。举个例子,我们还没有足够的合适数据来接近解决死亡问题。在有机体的问题上,这些实验大部分都需要日历时间。细胞缓慢的新陈代谢是没有办法加速的。这需要数年、数月或者至少数天的时间才能获得结果。如果我们想知道亚原子粒子发生了什么事情,光靠想是想不出来的。我们必须建造非常大型、非常复杂、非常精细的物理装置才能找出来。即便最聪明的物理学家比现在的聪明1000倍,如果没有对撞机的话,它们也知晓不了任何新东西。
超级AI无疑可以加速科学的进步。我们可以让计算机模拟原子或者细胞,我们可以通过多种因素加速它们,但在获得即时进展上有两个问题制约了仿真的用处。第一是仿真和建模比主体快是因为忽略了一些东西。而这正是模型或者仿真的本质。还要注意一点:测试、审查以及证明这些模型也必须以日历时间的节奏来发生,这样才能匹配主体的速度。对基础事实的测试是没有办法加速的。
仿真的这些简化版对于筛选出最有希望的路径是有用的,所以可以加速取得进展。但在现实当中一切都会有度;一切真实的东西产生的影响只能到一定程度,这正是现实的定义之一。随着给模型和仿真注入的细节越来越多,它们就会到达现实要比自己的100%仿真跑得更快的极限。这又是现实的另一个定义:体现所有细节和自由度的最快版本。如果你可以对细胞的所有分子以及人体的所有细胞进行建模,这种仿真的运行速度不会比人体快。你再怎么思考这个,不管是在真实的系统还是模拟系统进行,你还是要花时间去试验。
人工智能要想发挥作用就必须嵌入到世界里面,而这个世界将设定好它们的创新节奏。如果不进行实验,不开发原型,不经历失败,不跟现实互动的话,一个智能是可以思考但却不会有结果。所谓的“比人聪明”的AI出现1分钟、1小时、1天或者1年之后都不会马上有什么新发现。当然,发现的节奏会因为AI的进展而显著加速,这部分是因为外星人式的AI会提出人类想不到的问题,但即便是一个强大得多的智能(跟我们相比)也不能意味着马上就能取得进展。问题解决需要的东西远不止是智能。
光靠智能不仅解决不了癌症和长寿问题,就连智能问题本身光靠它也解决不了。奇点派常见的一个比方是,一旦你做出“比人聪明”的AI,那么突然之间它就能努力思考并发明出一个“比自己聪明”的AI,而后者在苦思冥想之后又能发明出一个更聪明的,这样能力爆发到几乎变得像上帝一样。我们没有证据表明仅靠思考智能就可以创造出水平上一个台阶的智能。这类思考主义只是一种信念。我们有大量证据表明,除了大量智能以外,我们还需要试验、数据、试错、怪异的质疑等等各种各样智力以外的东西来发明出成功的新思维。
我的这些说法也有可能是错的。因为下结论现在还早。我们也许会发现一个智能的统一指标;我们有可能会发现它在各个方向上都是没有极限的。因为我们对智能(更不用说意识了)是什么了解如此之少,某种类型的AI奇点出现的可能性是大于0的。我认为,所有证据表明,此类场景出现是不大可能的,但也不是不可能。
所以,尽管我不同意它的可能性,但对于OpenAI,以及担心超人AI的聪明人的更大目标——也就是我们应该开发出友好的AI并想办法给它灌输与我们相匹配的可自我复制的价值观,对这一点我是认同的。尽管我认为一个超人AI仍然是比较遥远的存在威胁(同时也是值得考虑的),但它的不可能性(基于我们目前已有的证据)不应该成为我们科学、政策以及发展的指导方针。小行星撞击地球的后果是灾难性的。其发生概率大于零,但我们不应该让小行星撞击地球的概率来支配我们在应对气候变化、推进太空旅行或者甚至是城市规划的努力。
类似地,迄今为止的迹象表明,AI很有可能不会成为超人,而是会成为众多的异人新思维,这些思维方式大部分都异于人类,但没有一个会是通用的,也没有一个会成为马上就能解决重大问题的上帝。相反,将来会出现无数有限智能,在我们不熟悉的维度上工作,其中许多都超过了我们的思维,它们会适时跟我们一起配合,去解决现有问题并创造出新问题。
我理解超人AI上帝的引人入胜。这就像是一个新的超人。但就像超人一样,这是个虚构的人物。在宇宙深处也许存在着这么一个超人,但可能性非常小。然而迷思也是有用的,而且一旦被发明出来就不会消失。超人的想法永远都不会死。超人AI奇点的想法现在已经诞生,也永远不会消亡了。但我们应该意识到在目前这还是只是一个宗教想法而不是科学点子。如果我们调查一下现有的有关智能,无论是人工智能还是自然智能方面的证据,我们只能得出结论说,我们有关虚构的超人AI上帝的猜测只不过是迷思罢了。
密克罗尼西亚的许多相互隔绝的孤岛在二战期间才第一次跟外界接触。外星人上帝坐在聒噪的鸟上飞过他们的天空,投下食物和商品到他们的岛上,然后一去不复返。岛上的宗教崇拜开始弥漫,祈祷上帝回来再扔下更多的货物。即便是现在,在50年之后,许多人仍然在等着货物回来。超人AI不过是又一次宗教崇拜的可能性是存在的。百年之后,当大家回望现在时,也许也会把此刻视为信徒期盼超人AI突然出现,然后带来价值无法想象的货品之时。10年又10年,他们痴心等待着超人AI的出现,确信它很快就会带着货物来到我们身边。
但是非超人式的人工智能已经到来,这是真的。我们不断地重新定义AI,提高它的难度,这在未来会禁锢住它,但就更广泛的外星智能——也就是各种智能、认知、推理、学习以及意识的连续体而言,AI已经渗透到了这个星球上,而且还会继续扩散、深化、变化并且增强。在改变世界的能力方面,此前没有任何一种发明能够与之匹敌,到本世纪末,AI将触及和重塑我们日常生活的一切。但是超人AI,无论是会让我们超级富足还是让我们沦为超级奴隶(或者兼而有之),这种迷思可能仍将存在——因为这种可能性实在是太具有神话性了,以至于我们难以舍弃。
本文来自翻译:backchannel.com


楼主热帖
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享 分享淘帖 赞 踩

168大数据 - 论坛版权1.本主题所有言论和图片纯属网友个人见解,与本站立场无关
2.本站所有主题由网友自行投稿发布。若为首发或独家,该帖子作者与168大数据享有帖子相关版权。
3.其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和168大数据的同意,并添加本文出处。
4.本站所收集的部分公开资料来源于网络,转载目的在于传递价值及用于交流学习,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
5.任何通过此网页连接而得到的资讯、产品及服务,本站概不负责,亦不负任何法律责任。
6.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源,若标注有误或遗漏而侵犯到任何版权问题,请尽快告知,本站将及时删除。
7.168大数据管理员和版主有权不事先通知发贴者而删除本文。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-4-29 08:05

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表