作者:马克·安德森
时间:2023 年 6 月 6 日
阅读时长:8分钟
人工智能时代来了,男孩们都吓坏了。
幸运的是,我来这里是为了带来好消息:人工智能不会毁灭世界,实际上可能会拯救世界。
首先,简要说明什么是人工智能:应用数学和软件代码来教计算机如何以类似于人类的方式理解、综合和生成知识。AI 是一种与其他任何计算机程序一样的计算机程序——它运行、接受输入、处理并生成输出。人工智能的输出在广泛的领域都很有用,从编码到医学到法律再到创意艺术。与任何其他技术一样,它由人拥有并由人控制。
对 AI不是什么的简短描述:杀手软件和机器人会突然复活并决定谋杀人类或以其他方式毁掉一切,就像你在电影中看到的那样。
对AI可能是什么的更简短描述:一种让我们关心的一切变得更好的方法。
为什么人工智能可以让我们关心的一切变得更好
几十年来和数千项研究中最有效的社会科学核心结论是,人类智力可以使广泛的生活结果变得更好。聪明的人几乎在每个活动领域都有更好的成果:学业成就、工作表现、职业地位、收入、创造力、身体健康、长寿、学习新技能、管理复杂任务、领导力、创业成功、冲突解决、阅读理解、财务决策、理解他人的观点、创造性艺术、养育结果和生活满意度。
此外,人类智能是我们几千年来用来创造我们今天生活的世界的杠杆:科学、技术、数学、物理、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、伦理,道德。如果没有在所有这些领域应用智能,我们仍然会生活在泥屋里,勉强维持生计农业的微薄生活。相反,在过去 4,000 年里,我们利用自己的智慧将生活水平提高了 10,000 倍。
人工智能为我们提供的是深刻增强人类智力的机会,使所有这些智力成果——以及许多其他成果,从创造新药到解决气候变化的方法,再到到达星星的技术——从这里变得更好。
人工智能对人类智能的增强已经开始——人工智能已经以多种计算机控制系统的形式出现在我们身边,现在正通过像 ChatGPT 这样的人工智能大型语言模型迅速升级,并且将从这里开始快速加速——如果我们愿意的话。
在人工智能的新时代:
- 每个孩子都会有一位无限耐心、无限富有同情心、无限知识、无限乐于助人的人工智能导师。AI导师将陪伴在每个孩子成长的每一步,用机器版的无限爱帮助他们最大限度地发挥潜力。
- 每个人都会有一个人工智能助理/教练/导师/培训师/顾问/治疗师,他们无限耐心、无限富有同情心、无限知识和无限帮助。人工智能助手将伴随生活中所有的机遇和挑战,最大限度地提高每个人的成果。
- 每个科学家都会有一个人工智能助手/合作者/伙伴,这将极大地扩展他们的科学研究和成果范围。每个艺术家、每个工程师、每个商人、每个医生、每个护理人员的世界里都会有同样的东西。
- 每一位人民领袖——首席执行官、政府官员、非营利组织主席、体育教练、教师——都将拥有同样的东西。领导者更好的决策对他们所领导的人的放大效应是巨大的,因此这种情报增强可能是最重要的。
- 整个经济体的生产力增长将急剧加速,推动经济增长、新产业的创建、新就业岗位的创造和工资增长,并导致全球进入一个物质更加繁荣的新时代。
- 科学突破以及新技术和药物将急剧扩展,因为人工智能帮助我们进一步解读自然规律并为我们的利益而收获它们。
- 创意艺术将进入黄金时代,人工智能增强的艺术家、音乐家、作家和电影制作人将有能力比以往更快、更大规模地实现他们的愿景。
我什至认为人工智能将在必要时通过大幅降低战时死亡率来改善战争。每场战争的特点都是由非常有限的人类领导人在巨大的压力和极其有限的信息下做出可怕的决定。现在,军事指挥官和政治领导人将拥有人工智能顾问,帮助他们做出更好的战略和战术决策,最大限度地减少风险、错误和不必要的流血。
简而言之,当今人们利用自然智能所做的任何事情都可以通过人工智能做得更好,我们将能够应对没有人工智能就无法应对的新挑战,从治愈所有疾病到实现星际旅行。
这不仅仅是智力的问题!也许人工智能最被低估的品质是它的人性化程度。人工智能艺术让那些缺乏技术技能的人们能够自由地创作和分享他们的艺术想法。与有同理心的人工智能朋友交谈确实可以提高他们处理逆境的能力。人工智能医疗聊天机器人已经比人类同行更具同理心。无限耐心和富有同情心的人工智能不会让世界变得更加严酷和机械化,而是会让世界变得更加温暖和美好。
这里的风险很高。机遇是深远的。人工智能很可能是我们文明所创造的最重要——也是最好的——东西,当然可以与电力和微芯片相提并论,甚至可能超越它们。
人工智能的发展和扩散——远非我们应该担心的风险——是我们对自己、对我们的孩子和对我们的未来所承担的道德义务。
有了人工智能,我们应该生活在一个更美好的世界中,现在我们可以做到。
那么为什么恐慌?
与这种积极观点形成鲜明对比的是,目前关于 AI 的公众对话充斥着歇斯底里的恐惧和偏执狂。
我们听到这样的说法,人工智能会以各种方式杀死我们所有人,毁掉我们的社会,夺走我们所有的工作,造成严重的不平等,并让坏人做出可怕的事情。
如何解释这种从近乎乌托邦到可怕的反乌托邦的潜在结果的差异?
从历史上看,每一项重要的新技术,从电灯到汽车,从无线电到互联网,都引发了道德恐慌——一种社会传染,让人们相信新技术将毁灭世界、社会,或两者兼而有之。悲观主义者档案馆的优秀人士记录了几十年来这些技术驱动的道德恐慌。他们的历史使这种模式清晰可见。事实证明,目前的恐慌对于人工智能来说并不是第一次。
现在,许多新技术确实导致了不良后果——而这些技术往往对我们的福祉大有裨益。因此,道德恐慌的存在并不意味着就没有什么可担心的。
但道德恐慌本质上是非理性的——它把可能合理的担忧夸大到歇斯底里的程度,讽刺的是,这使得面对真正严重的担忧变得更加困难。
哇,我们现在对人工智能有全面的道德恐慌吗?
这种道德恐慌已经被各种行为者用作动力,要求采取政策行动——新的人工智能限制、法规和法律。这些行为者就人工智能的危险发表了极其戏剧性的公开声明,助长并进一步煽动道德恐慌,他们都将自己描绘成公共利益的无私捍卫者。
但他们是吗?
他们是对还是错?
人工智能的浸信会和走私者
经济学家观察到此类改革运动的长期模式。此类运动的参与者分为两类——“浸信会”和“走私者”——借鉴1920 年代美国禁酒的历史例子:
浸信会
“浸信会”是真正的社会改革者,他们合理地感受到——即使不是理性的,也是深刻的和情感的——需要新的限制、法规和法律来防止社会灾难。对于禁酒,这些演员通常都是 虔诚的基督徒 ,他们认为酒精正在破坏社会的道德结构。对于人工智能风险,这些参与者是人工智能带来一种或另一种存在风险的真正信徒——把他们绑在测谎仪上,他们是认真的。
走私者
“走私者”是自私自利的机会主义者,他们通过实施新的限制、法规和法律来将自己与竞争对手隔离开来,从而在经济上获利。对于禁酒令来说,这些人是 名副其实的走私者 ,他们在合法酒类销售被禁止时向美国人出售非法酒类而发了大财。对于人工智能风险,如果监管壁垒建立起来,形成一个由政府支持的人工智能供应商组成的卡特尔,免受新初创企业和开源竞争的影响,这些首席执行官将赚更多的钱——“大而不能倒”银行的软件版本。
愤世嫉俗者会认为,一些明显的浸信会教徒也是走私者——特别是那些被大学、智囊团、活动团体和媒体付钱攻击人工智能的人。如果你领取薪水或接受资助以助长人工智能恐慌……你可能是一个走私者。
走私者的问题是他们赢了。浸信会是天真的理论家,走私者是愤世嫉俗的经营者,因此像这样的改革运动的结果往往是走私者得到他们想要的东西——监管捕获、竞争隔离、卡特尔的形成——而浸信会则感到困惑他们对社会进步的追求出现了如此大的错误。
我们刚刚经历了一个令人震惊的例子——2008 年全球金融危机后的银行业改革。浸信会告诉我们,我们需要新的法律和法规来解散“太大而不能倒”的银行,以防止此类危机再次发生。于是国会通过了2010年的《多德弗兰克法案》,该法案标榜为满足浸信会的目标,但实际上却被走私者——大银行——所利用。结果是,2008 年“大而不能倒”的银行现在规模要大得多。
因此,在实践中,即使浸信会是真诚的,即使浸信会是正确的,他们也会被操纵和唯利是图的走私者用作掩护,为自己谋取利益。
这就是目前人工智能监管过程中正在发生的事情。
然而,仅仅识别行为者并质疑他们的动机是不够的。我们应该考虑浸信会和走私者的论点。
AI 风险 #1:AI 会杀死我们所有人吗?
AI Risk #1: Will AI Kill Us All?
第一个也是最初的 AI 末日风险是 AI 将决定真正杀死人类。 The first and original AI doomer risk is that AI will decide to literally kill humanity.
对我们自己创造的技术会崛起并毁灭我们的恐惧已深深地融入到我们的文化中。希腊人在普罗米修斯神话中表达了这种恐惧——普罗米修斯给人类带来了火的破坏力,更广泛地说是技术(“techne”),普罗米修斯因此被众神判处永久酷刑。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》或《现代普罗米修斯》中为我们现代人提供了这个神话的版本,其中我们开发了永生技术,然后它崛起并试图摧毁我们。当然,如果没有詹姆斯·卡梅隆《终结者》电影中闪闪发光的红眼杀手机器人的静态图像,任何有关人工智能恐慌的报纸报道都是不完整的。
这个神话的假定进化目的是激励我们认真考虑新技术的潜在风险——毕竟火确实可以用来烧毁整个城市。但正如火也是现代文明的基础一样,火可以让我们在寒冷和充满敌意的世界中保持温暖和安全,这个神话忽视了大多数——所有的——更大的好处?– 新技术,在实践中激起了破坏性的情绪,而不是理性的分析。仅仅因为前现代人如此惊慌并不意味着我们必须如此;我们可以运用理性来代替。
我的观点是,人工智能将决定真正杀死人类的想法是一个深刻的类别错误。人工智能并不是像动物和我们那样经过数十亿年进化而参与适者生存之战的生物。它是数学——代码——计算机,由人们建造、由人们拥有、由人们使用、由人们控制。认为它会在某个时刻发展出自己的思想并决定它有动机导致它试图杀死我们的想法是一种迷信的手波。
简而言之,AI不想,它没有目标,它不想杀你,因为它不是活人。人工智能是一台机器——不会像你的烤面包机那样变得活跃起来。
现在,显然,杀手人工智能的真正信徒——浸信会——他们的可怕警告突然获得了大量媒体报道,其中一些人声称已经研究这个话题几十年了,并说他们现在被吓坏了。通过他们所学到的知识来思考。其中一些真正的信徒甚至是该技术的实际 创新者。这些参与者主张对人工智能实施各种奇怪和极端的限制,从禁止人工智能开发,一直到对数据中心的军事空袭和核战争。他们认为,因为像我这样的人不能排除人工智能未来的灾难性后果,所以我们必须采取预防立场,可能需要大量的身体暴力和死亡,以防止潜在的生存风险。
我的回答是他们的立场是不科学的——可检验的假设是什么?什么会证伪这个假设?我们如何知道何时进入危险区域?除了“你无法证明它不会发生!”之外,这些问题基本上都没有得到解答。事实上,这些浸信会的立场是如此不科学和如此极端——关于数学和代码的阴谋论——并且已经在呼吁身体暴力,以至于我会做一些我通常不会做的事情,并质疑他们的动机。
具体来说,我认为发生了三件事:
首先,请回想一下,约翰·冯·诺伊曼在回应罗伯特·奥本海默对他在制造核武器方面所扮演的角色(这有助于结束第二次世界大战并防止第三次世界大战)而著名的痛心疾首时,他的回应是,“有些人承认有罪,以声称自己犯了罪。” 一个人可以通过什么最引人注目的方式来宣称自己的工作的重要性,而又不会显得公然自夸?这解释了实际上正在构建和资助人工智能的浸信会教徒的言行之间的不匹配——注意他们的行为,而不是他们的言论。(杜鲁门在会见奥本海默后更加严厉:“别再让那个爱哭鬼进来了。”)
其次,一些浸信会实际上是走私者。有一整套“人工智能安全专家”、“人工智能伦理学家”、“人工智能风险研究员”的职业。他们是被雇来当厄运者的,他们的陈述应该得到适当的处理。
第三,加利福尼亚州因数以千计的邪教而闻名,从 EST 到人民圣殿教,从天堂之门到曼森家族。这些邪教中的许多(尽管不是全部)都是无害的,甚至可能为那些在其中找到家园的疏远的人服务。但有些确实非常危险,众所周知,邪教很难跨越最终导致暴力和死亡的界限。
现实是,“人工智能风险”已经发展 成为一种邪教,突然出现在全球媒体关注和公众对话的光天化日之下,这对湾区的每个人来说都是显而易见的,但在湾区之外可能并非如此。这个邪教不仅吸引了边缘人物,还吸引了一些实际的行业专家和不少富有的捐赠者——包括直到最近的萨姆·班克曼-弗里德( Sam Bankman-Fried)。它还发展出了一整套的邪教行为和信仰。
这种邪教就是为什么会有一群听起来如此极端的人工智能风险厄运者——这并不是说他们实际上拥有使他们的极端主义合乎逻辑的秘密知识,而是他们让自己陷入了疯狂,而且真的……极其极端。
事实证明,这种类型的邪教并不新鲜——西方有一个长期存在的千禧年主义传统,它产生了末日邪教。人工智能风险崇拜具有千禧年末日崇拜的所有特征。来自维基百科,由我补充:
“千禧年主义是一个团体或运动[人工智能风险厄运者]相信社会即将发生根本性转变[人工智能的到来],之后一切都将改变[人工智能乌托邦、反乌托邦和/或世界末日] 。只有戏剧性的事件[人工智能禁令、对数据中心的空袭、对不受监管的人工智能的核打击]才被认为能够改变世界[阻止人工智能],并且这种变化预计将由一群虔诚和奉献的人带来或幸存。 。在大多数千禧年情景中,即将到来的灾难或战斗[人工智能启示录,或其预防]将随之而来的是一个新的、纯净的世界[人工智能禁令],信徒将在其中得到奖励[或至少承认一直以来都是正确的] ]。”
这种末日邪教模式如此明显,令我惊讶的是更多的人看不到它。
不要误会我的意思,邪教听起来很有趣,他们的书面材料通常富有创意且引人入胜,而且他们的成员经常参加晚宴和电视。但他们的极端信仰不应该决定法律和社会的未来——显然不是。
AI 风险 #2:AI 会毁掉我们的社会吗?
第二个广泛讨论的 AI 风险是 AI 会通过产生如此“有害”的输出来破坏我们的社会,使用这种末日毁灭者的术语,对人类造成深远的损害,即使我们不是字面上的杀了。
简短版本:如果杀人机器人没有抓住我们,仇恨言论和错误信息就会。
这是一个相对较新的厄运担忧,它从我上面描述的“人工智能风险”运动中分离出来,并在某种程度上取代了它。事实上,人工智能风险的术语最近从“人工智能安全”——担心人工智能会杀死我们的人使用的术语——变成了“人工智能协调”——担心社会“危害”的人使用的术语。最初的人工智能安全人士对这种转变感到沮丧,尽管他们不知道如何将其放回盒子里——他们现在主张将实际的人工智能风险主题更名为“AI notkilleveryoneism”,该主题尚未被广泛采用,但至少是清楚的。
人工智能社会风险主张的性质的提示是它自己的术语“人工智能一致性”。与什么对齐?人类价值观。谁的人类价值观?啊,这就是事情变得棘手的地方。
碰巧,我也曾经历过类似的情况——社交媒体的“信任与安全”之战。现在 显而易见的是,社交媒体服务多年来一直承受着来自政府和活动人士的巨大压力,要求禁止、限制、审查和以其他方式压制各种内容。对“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的同样担忧正在从社交媒体环境直接转移到“人工智能联盟”的新领域。
我从社交媒体战争中学到的重要教训是:
一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都至少将某些内容定为非法。其次,某些类型的内容,例如儿童色情内容和煽动现实世界暴力的内容,几乎每个社会都几乎普遍认为是禁止的(无论合法与否)。因此,任何促进或生成内容(语音)的技术平台都会受到一些限制。
另一方面,滑坡并不是谬论,而是必然性。一旦建立了限制极其可怕的内容的框架——例如,针对仇恨言论、特定的伤害性词语,或错误信息、明显虚假的说法,如“教皇已死”——范围广泛的政府机构和激进分子的压力将令人震惊团体和非政府实体将开始行动,要求对他们认为对社会和/或他们个人偏好构成威胁的任何言论进行更严格的审查和压制。他们这样做的方式甚至包括赤裸裸的 重罪。在实践中,在我们精英权力结构中安装的独裁大厅监视器的热情支持下,这个循环显然可以永远持续下去。十年来,这种现象在社交媒体上层出不穷,而且除了某些 例外,这种现象还在不断变得更加激烈。
这就是现在围绕“人工智能联盟”形成的动力。它的支持者声称有智慧来设计人工智能生成的对社会有益的言论和思想,并禁止人工智能生成的对社会有害的言论和思想。其反对者声称,思想警察极其傲慢和自以为是 — — 至少在美国,常常是彻头彻尾的犯罪行为 — — 事实上,他们正在寻求成为一种直接从《纽约时报》的书页上撕下来的新型政府、企业、学术融合的独裁言论独裁政权。乔治·奥威尔的《1984》。
由于“信任与安全”和“人工智能联盟”的支持者都集中在全球人口中非常狭窄的部分,而这正是美国沿海精英的特征——其中包括许多在科技行业工作和撰写文章的人——许多人我的读者中的一些人会发现自己准备好争辩说,需要对人工智能输出进行严格限制,以避免破坏社会。我现在不会试图说服你放弃这一点,我只是简单地说,这就是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你获胜。
如果你不同意通过不断强化的语音代码强加给社交媒体和人工智能的流行的利基道德,你还应该意识到,关于允许人工智能说什么/生成什么的斗争将变得更加重要——比围绕社交媒体审查制度的斗争要大得多。人工智能很可能成为世界上一切事物的控制层。如何允许它运作可能比其他任何事情都更重要。你应该意识到,一小群孤立的党派社会工程师正在试图确定这一点,他们打着古老的幌子,声称他们正在保护你。
简而言之,不要让思想警察压制人工智能。
AI 风险 #3:AI 会抢走我们所有的工作吗?
自从机械织布机等机械出现以来,数百年来,对机械化、自动化、计算机化或人工智能导致的失业的恐惧一直是一种反复出现的恐慌。尽管历史上每一项新的重大技术都带来了更多的就业机会和更高的工资,但每一波恐慌都伴随着“这次不同”的说法——这是它最终会发生的时候,这是最终会发生的技术。给人类劳动带来重击。然而,它永远不会发生。
最近,我们经历了两次这样的技术驱动的失业恐慌周期——2000 年代的外包恐慌和2010 年代的自动化恐慌。尽管在过去的几十年里,许多知名人士、专家甚至科技行业高管都在议论大规模失业已经临近,但到 2019 年底(就在新冠疫情爆发之前),世界上的工作岗位数量比历史上任何时候都高。
不过这个错误的想法不会消亡。
果然,它回来了。
这一次,我们终于拥有了能够取代所有工作并使人类工人变得多余的技术——真正的人工智能。当然,这一次历史不会重演,人工智能将导致大规模失业 — — 而不是经济、就业和工资的快速增长 — — 对吗?
不,这不会发生——事实上,如果允许人工智能在整个经济中发展和扩散,可能会带来有史以来最戏剧性和持续的经济繁荣,相应地创纪录的就业和工资增长——与恐惧完全相反。原因如下。
自动化扼杀就业的厄运者不断犯的核心错误被称为“劳动力谬误”。这种谬论是错误的观念,即在任何给定时间,经济中都有固定数量的劳动要做,要么机器做,要么人做——如果机器做,人们就没有工作可做。
劳动块谬误自然地源于天真的直觉,但天真的直觉在这里是错误的。当技术应用于生产时,我们的生产力就会增长——通过减少投入而增加产出。结果是商品和服务的价格下降。随着商品和服务价格下降,我们支付的费用减少,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济需求,推动了新生产——包括新产品和新产业——的创造,从而为以前被机器取代的人们创造了新的就业机会。其结果是经济规模更大,物质更加繁荣,产业更多,产品更多,就业机会更多。
但好消息还不止于此。我们的工资也更高。这是因为,在个体工人的层面上,市场将薪酬设定为工人边际生产率的函数。技术注入企业的员工将比传统企业的员工更有生产力。雇主要么会付给该工人更多的钱,因为他现在的生产力更高了,要么另一个雇主纯粹出于自身利益而付钱。结果是,技术引入一个行业通常不仅会增加该行业的就业机会,还会提高工资。
总而言之,技术使人们变得更有生产力。这导致现有商品和服务的价格下降,工资上涨。这反过来又会导致经济增长和就业增长,同时刺激新就业机会和新产业的创造。如果允许市场经济正常运行,如果允许技术自由引入,这就是一个永远向上的循环,永远不会结束。因为,正如米尔顿·弗里德曼(Milton Friedman)所说,“人类的欲望和需求是无穷无尽的”——我们想要的总是比我们拥有的更多。技术注入的市场经济是我们更接近提供每个人可能想要的一切的方式,但永远不会完全实现。这就是为什么技术不会、也永远不会摧毁就业机会。
对于那些没有接触过这些想法的人来说,这些想法是如此令人兴奋,以至于你可能需要一些时间才能理解它们。但我发誓我不是在编造它们——事实上你可以在标准经济学教科书中读到所有关于它们的内容。我推荐亨利·哈兹利特(Henry Hazlitt)的《经济学一课》中的“机器的诅咒”一章,以及弗雷德里克·巴斯夏(Frederic Bastiat)的讽刺性《蜡烛制造商请愿书》 ,该书因其与照明行业的不公平竞争而遮蔽了太阳,而照明行业在我们这个时代已经现代化了。
但你可能会想,这次不同了。这一次,有了人工智能,我们就拥有了可以取代所有人类劳动的技术。
但是,使用我上面描述的原则,想想如果所有现有的人类劳动力都被机器取代意味着什么。
这将意味着经济生产力的起飞速度绝对是惊人的,远远超出任何历史先例。现有商品和服务的价格将全面下降至几乎为零。消费者福利将会飙升。消费者的消费能力将会飙升。经济中的新需求将会爆发。企业家将创造一系列令人眼花缭乱的新产业、产品和服务,并尽快雇用尽可能多的人员和人工智能来满足所有新需求。
假设人工智能再次取代劳动力呢?这个循环将会重复,推动消费者福利、经济增长、就业和工资增长甚至更高。这将直接螺旋上升到亚当·斯密或卡尔·马克思都不敢梦想的物质乌托邦。
我们应该如此幸运。
AI 风险 #4:AI 会导致严重的不平等吗?
说到卡尔·马克思,对人工智能抢走工作的担忧直接延伸到下一个声称的人工智能风险,那就是,好吧,马克,假设人工智能确实抢走了所有工作,无论是好是坏。当人工智能的拥有者获得所有经济回报而普通人却一无所获时,这是否会导致巨大且严重的财富不平等?
碰巧,这是马克思主义的一个核心主张,即生产资料的所有者——资产阶级——将不可避免地从从事实际工作的人——无产阶级那里窃取所有社会财富。这是另一个无论被现实反驳多少次都不会消失的谬论。但无论如何,让我们把一根木桩刺穿它的心脏吧。
这个理论的缺陷在于,作为一项技术的所有者,将其保留给自己并不符合您自己的利益 - 事实上相反,将其出售给尽可能多的客户才符合您自己的利益。对于任何产品来说,世界上最大的市场是整个世界,包括我们 80 亿人。因此,在现实中,每一项新技术——即使是一开始销售给高薪大公司或富裕消费者的稀有空气——都会迅速扩散,直到它掌握在尽可能大的大众市场,最终掌握在地球上的每个人手中。
典型的例子是埃隆·马斯克 (Elon Musk) 2006 年为特斯拉制定的所谓“秘密计划” ——他自然而然地将其公开发布:
第一步,建造[昂贵]跑车 第二步,用这笔钱建造一辆负担得起的汽车 第三步,用这笔钱建造一辆更便宜的汽车 ……这当然正是他所做的,结果成为世界上最富有的人。
最后一点是关键。如果埃隆今天只向富人出售汽车,他会变得更富有吗?不,如果他只为自己制造汽车,他会比这更富有吗?当然不是。不,他通过向尽可能大的市场——世界——销售产品来最大化自己的利润。
简而言之,每个人都得到了东西——正如我们过去所看到的,不仅有汽车,还有电力、无线电、计算机、互联网、移动电话和搜索引擎。此类技术的制造商非常积极地降低其价格,直到地球上的每个人都能负担得起。这正是人工智能领域已经发生的事情——这就是为什么你不仅可以低成本使用最先进的生成人工智能,甚至可以免费使用 Microsoft Bing 和 Google Bard 的形式——而且这种情况将会继续发生。并不是因为这些供应商愚蠢或慷慨,而是因为他们贪婪——他们想要最大化市场规模,从而最大化他们的利润。
因此,所发生的情况与技术推动财富集中化相反——技术的个人客户,最终包括地球上的每个人,都被赋予了权力,并获得了大部分所产生的价值。与现有技术一样,构建人工智能的公司(假设它们必须在自由市场中运作)将激烈竞争以实现这一目标。
马克思当时错了,现在也错了。
这并不是说不平等不是我们社会的问题。事实上,它不是由技术驱动的,而是由相反的方向驱动的,即最抵制新技术的经济部门,这些部门有最多的政府干预来阻止人工智能等新技术的采用——特别是住房、教育和医疗保健。人工智能和不平等的实际风险不是人工智能会造成更多的不平等,而是我们不会允许人工智能被用来减少不平等。
AI 风险 #5:AI 会导致坏人做坏事吗?
到目前为止,我已经解释了为什么人工智能最常提出的五个风险中的四个实际上并不真实——人工智能不会复活并杀死我们,人工智能不会破坏我们的社会,人工智能不会导致大规模失业,人工智能不会造成不平等现象的毁灭性加剧。但现在让我们谈谈第五点,也是我实际上同意的一点:人工智能将使坏人更容易做坏事。
从某种意义上说,这是一个同义反复。技术是一种工具。从火和石头开始,工具可以用来做好事——做饭和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以用来做好事,也可以用来做坏事。很公平。毫无疑问,人工智能将使犯罪分子、恐怖分子和敌对政府更容易做坏事。
这导致一些人建议,好吧,既然如此,我们就不要冒险了,在这种情况发生之前我们现在就禁止人工智能吧。不幸的是,人工智能并不是像钚那样难以获得的深奥物理材料。恰恰相反,它是世界上最容易获得的材料——数学和代码。
AI猫显然已经泄露出去了。您可以从数以千计的免费在线课程、书籍、论文和视频中学习如何构建人工智能,并且优秀的开源实现与日俱增。人工智能就像空气一样——它将无处不在。逮捕如此严厉的极权主义压迫需要达到何种程度——一个世界政府监视和控制所有计算机?穿着长筒靴的暴徒乘坐黑色直升机夺取流氓 GPU?– 我们将不再有一个需要保护的社会。
因此,有两种非常简单的方法可以解决坏人利用人工智能做坏事的风险,而这些正是我们应该关注的。
首先,我们有成文的法律,将任何人利用人工智能所做的大部分坏事定为犯罪。侵入五角大楼?这是犯罪行为。从银行偷钱?这是犯罪行为。制造生物武器?这是犯罪行为。实施恐怖活动?这是犯罪行为。我们只需专注于在可能的情况下预防这些犯罪,在无法的情况下起诉它们。我们甚至不需要新的法律——我不知道有哪一个人工智能的实际不良用途已经被提议为非法的。如果发现新的不良用途,我们将禁止该用途。量子ED。
但你会注意到我在那里所说的——我说我们应该首先集中精力在人工智能辅助犯罪发生之前预防它们——这样的预防难道不意味着禁止人工智能吗?那么,还有另一种方法可以防止此类行为,那就是使用人工智能作为防御工具。人工智能在怀有不良目标的坏人手中变得危险,而在怀有良好目标的好人手中却变得强大——特别是那些致力于防止坏事发生的好人。
例如,如果您担心人工智能会生成假人和假视频,答案是构建新系统,让人们可以通过加密签名验证自己和真实内容。在人工智能出现之前,真实和虚假内容的数字化创建和修改就已经出现了。答案不是禁止文字处理器和 Photoshop(或人工智能),而是利用技术构建一个真正解决问题的系统。
因此,第二,让我们大力努力将人工智能用于良好的、合法的、防御性的目的。让我们将人工智能运用到网络防御、生物防御、追捕恐怖分子以及我们为保护我们自己、我们的社区和我们的国家安全所做的一切事情中。
当然,政府内外已经有很多聪明人在这样做——但如果我们将目前专注于禁止人工智能徒劳的前景的所有努力和智力运用到使用人工智能来防止坏人做坏事,我认为毫无疑问,一个充满人工智能的世界将比我们今天生活的世界安全得多。
不以最大的力量和速度追求人工智能的实际风险
最后一个、真实的人工智能风险可能是最可怕的:
【手动屏蔽,有需求请看原文】
本段大意是美国在AI上不能落后于中国,举了5G、一带一路、TikToc等例子。你会发现,最顶尖的投资人对中国(虽然他只说Party)也是有偏见的。
什么是要做?
我提出一个简单的计划:
大型人工智能公司应该被允许尽可能快速、积极地构建人工智能,但不允许实现监管俘获,不允许建立一个政府保护的卡特尔,由于人工智能风险的错误声明而免受市场竞争的影响。这将使这些公司的惊人能力带来最大的技术和社会回报,这些公司是现代资本主义的瑰宝。 初创人工智能公司应该被允许尽可能快速、积极地构建人工智能。他们既不应该对抗政府对大公司的保护,也不应该接受政府的援助。他们应该被简单地允许竞争。如果初创公司没有成功,它们在市场上的存在也将不断激励大公司做到最好——无论哪种方式,我们的经济和社会都会获胜。 应该允许开源人工智能自由扩散并与大型人工智能公司和初创公司竞争。开源不应该存在任何监管障碍。即使开源没有打败公司,它的广泛可用性对于世界各地想要学习如何构建和使用人工智能成为技术未来一部分的学生来说也是一个福音,并将确保人工智能可供每个有能力的人使用。无论他们是谁或拥有多少钱,都可以从中受益。 为了抵消坏人利用人工智能做坏事的风险,政府应与私营部门合作,积极参与各个潜在风险领域,利用人工智能最大限度地提高社会的防御能力。这不应仅限于人工智能带来的风险,还应包括营养不良、疾病和气候等更普遍的问题。人工智能可以成为解决问题的极其强大的工具,我们应该拥抱它。 为了防止中国实现全球人工智能主导地位的风险,我们应该共同利用我们的私营部门、科学机构和政府的全部力量,推动美国和西方人工智能达到绝对的全球主导地位,包括最终在中国内部。我们赢了,他们输了。 这就是我们如何使用人工智能来拯救世界。
是时候建造了。
传奇与英雄
我以两个简单的陈述作为结束。
人工智能的发展始于 20 世纪 40 年代,与计算机的发明同时进行。第一篇关于神经网络(我们今天的人工智能架构)的科学论文发表于 1943 年。过去 80 年里,整整一代代人工智能科学家出生、上学、工作,甚至在许多情况下去世,都没有看到我们现在所获得的回报。他们每一个人都是传奇。
如今,越来越多的工程师——其中许多人很年轻,可能有祖父母甚至曾祖父母参与了人工智能背后的想法的创造——正在努力使人工智能成为现实,反对散布恐惧和厄运的围墙。试图将他们描绘成鲁莽的恶棍。我不相信他们是鲁莽或恶棍。他们都是英雄,每一个人。我和我的公司很高兴能够尽可能多地支持他们,我们将 100% 与他们和他们的工作站在一起。
原文链接:[Why AI Will Save the World | Andreessen Horowitz](https://a16z.com/ai-will-save-the-world/) |