全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
AI 减速Web3 加速舆论话语与政治
go
lg
...
就是一种恶,只有像 Meta 研发的「
Llama
2」一样的开源语言大模型才是绝对的正确: 的起点,记忆中你青涩的脸」。OpenAI 董事会与 Sam Altman 对于内部斗争实情的隐藏导致我们依然无法获悉罢免的根本原因。路线之争?沟通不畅?我不知道,也不感兴趣。与其千篇一律地猜测背后的「真相」,不如从后现代主义的视角聚焦于部分 Web3 从业者对于这一事件的讨论,观察这些讨论背后 Web3 的话语与政治。因为在很大程度上,话语的构建遮蔽了太多的细节,有利于自己的话语才会被纳入到叙事当中。但人与事是复杂的,而非简单的意识形态、主义所能涵括。 当世界顶级科技公司罢免公告发出时,舆论一片倒向所谓 OpenAI 的灵魂人物 Sam Altman 与 Greg Brockman,而投资者的行动也表明 Altman 对 OpenAI 的重要性。这场内斗已经被媒体与舆论塑造为「政变」,而首席技术官 Ilya Sutskever 则被视为「政变」的幕后推手。AI 界的大事,Web3 也并未闲着,以 Coinbase 前 CTO Balaji Srinivasan、Coinbase 联创兼 CEO Brain Armstrong、a16z 普通合伙人 Sriram Krishnan 为代表的 Web3 从业者极力主张「去中心化 AI」,拒绝有效利他主义,拒绝减速。在这种情形中,一种新的对立与话语表述悄然诞生,AI 在减速,而 Web3 则将自己建构为代表进步主义的加速与人类历史的未来。 一、「制造敌人」:Web3 有效加速主义的话语政治 在 OpenAI 董事会罢免 Sam Altman 的消息爆出来后,笔者留意到以 Balaji Srinivasan、Brain Armstrong 为代表的 Web3 有效加速主义者对 OpenAI 董事会的鄙夷。在他们的话语体系中,有效利他主义、AI 末日论是有效加速主义的对立面。「好」与「坏」、「中心化」与「去中心化」、「AI」与「Web3」、「国家」与「去国家化」同样构成了整套话语表述。事实上,「中心化」、「极权」、「专制」、「草台班子」、「减速」等话语建构构成了 Web3 的道德基础,而代表着进步的「加速」则赋予了 Web3 革命的天然正当性。 什么是有效加速主义(Effective Accelerationism,网络上一般简写为 e/acc)?笔者在此择选一个被普遍接受的含义,而它更多指向了右翼加速主义: 有效加速主义是一种基于热力学第二定律的信念,即宇宙本身是一个创造生命并不断扩张的优化过程。这种扩张的引擎是技术资本。该发动机无法停止。进步的车轮只会朝一个方向转动。 这一流派以 Nick Land 为代表,它启发了美国新保守主义运动。没错,它们是保守的而非激进的,尽管它们拥抱现代技术,但却否定了具有普世价值的民主、人权与自由。 有效加速主义尊崇自然律,认为技术就像自然界一样可以无限地增熵,并且否认这是一种意识形态与运动,而是对真理的承认。在他们看来,技术资本(Technocapital,Viviana Rojas 于 2012 年提出)是一个不可阻挡的物理过程。 有效加速主义是对技术官僚控制的打击,是对末日论者和减速论者的打击,他们希望我们消耗更少的自由能,创造更少的熵。自上而下的控制只会降低文明的维度。 有效加速主义忽略了一点,这个世界是由人所构建的,文明是由人所创造的,而文明的本质是负熵,它不断地在做熵减。成熟的文明意味着建立了一套社会秩序,这个秩序必然是稳定的,将不可控的、不确定性的事物纳入可控的秩序当中,或是压缩在社会最阴暗的角落。近代科学诞生以来,人类社会便加速世俗化进程,科学对于世界有依据的认识战胜了宗教的不可知论。因为科学在自己的边界内无法证伪,也意味着科学的知识都是为人类可以掌握的。文明同样如此。换言之,有效加速主义的逻辑自洽在哲学上存在挑战。 有效加速主义者往往是彻头彻尾的科技精英,他们掌握着这个时代与未来走向最核心的话语与权力。在他们看来,历次工业革命与技术变革人类都可以适应,那么人类也将适应 AI。加速!加速!加速!这是有效加速主义者的口号,任何妨碍技术无限进步的都该反对。而对于 Web3 有效加速主义者来说,「加速」还要与「去中心化」合谋。我们知道,任何政治构建都是讲故事,不同的政治斗争实质上就是不同「故事」(政治阐述)之间的对抗。当某个故事及其话语体系被广泛接受时,权力也就随之而生。有效加速主义者将人工智能末日论与减速论并列,并将其塑造为自己的对立面,一个不同于自我意识形态的他者,来述说自己的政治叙事。民族国家注定走向衰亡,加密与去中心化的政治叙事就要成为绝对的真理与历史的终结。 在 OpenAI 事件刚爆发之际,对安全、公司治理结构的合理猜测成为有效加速主义者的话柄。他们的政治叙事即「去中心化」、「去国家化」、「去中心化治理」,这迎合了 OpenAI 董事会被质疑的「奇葩」、「独裁」、「不透明」的治理结构。 11 月 18 日,Balaji 的第一篇关于 OpenAI 的推文写道:「末日论者最终信任的是中央集权国家,就像自由主义者在 911 事件后相信《爱国者法案》一样;而有效加速主义则信任去中心化网络」,「从根本上说,末日论者相信哈里斯能够监管超级智能。同时,有效加速主义认为创建模型的技术专家比那些甚至不了解模型并且讨厌技术的国家主义者更有能力减轻任何负面影响」。在此,Balaji 认为,AI 领域的技术专家与进行「监管」的国家应是对立的,AI 领域可以进行自监管,而无需国家的介入。 随后,Balaji 试图在 AI 与 Web3 之间建立同盟。他声称「如果董事会可以这样对待 Sam,他们也可以这样对待任何 OpenAI 客户。人工智能需要去中心化。」「如果事实证明,狂热的人工智能末日论者导致了像 GDB 这样的新一代人才外流,那么每一个有价值的人工智能组织都会立即将末日论者从控制岗位上清除出去。 」OpenAI 董事会已经被塑造为一个「狂热的 AI 末日论者」,他期望着所有 AI 企业都是与之相对的道德圣人,「在毁灭者毁灭你之前,先除掉他们」。 「又「唯一的出路就是加速 + 去中心化」,Balaji 给出了方向,并就此加深了对「国家主义」的反动:「如果您从事 AI 领域,请转向去中心化。 人工智能领域的每个人都上了一堂课:(a)对公司拥有主权;(2)技术的去中心化;(3)独立于国家主义意识形态。要想有效加速,我们需要去中心化! 现在,每个人都看到了单点故障的风险。如果董事会可以这样对待 Sam,他们也可以这样对待任何 OpenAI 客户。因此,人工智能要去中心化。 」 作为《网络国家》的作者,Balaji 再次开始了他的表演:「AI 末日论者的逻辑就是智能炸弹客的逻辑。任何能降低 p(doom) 的东西都是好的。比如禁止计算、让公司破产或炸毁数据中心。这些激进的卢徳分子(指的是 19 世纪初英国手工业工人中参加捣毁机器的人)不会止步于毁掉他们自己的 AI 公司。他们也想控制你的公司。 与许多意识形态一样,AI 末日论也演变成了类似共产主义的东西。他们需要控制全世界的 AI,从而控制全世界的计算,进而控制全世界,以『拯救』世界。令人惊讶的是,他们的总体计划让哈里斯负责从超级智能中拯救我们。」 在政治口号喊出来后,Balaji 将矛头转向 OpenAI 的另一个标签「非营利组织」:「非营利组织毁了旧金山,现在又毁了旧金山最好的公司。他们名副其实,非营利组织无利可图。是的,有些原则上的例外。比如 EFF。它做得很好。但我们需要重新考虑非营利组织的激增问题」。是的,他们为了自己的政治叙事,也否定了「非营利组织」。Web3 不再谈论 OpenAI 作为非营利组织的「理想主义」初衷,不再颂扬「造福人类」的理想,只是轻描淡写一句不负责任的话:「它变了」。是啊,变了,多么大的转折,要么更好、要么更差,非此即彼。非营利组织不重要、变了多少不重要、如何变得不重要,重要的是变了,话语的影响就在于此。 更有意思的是,Balaji 的功利主义似乎让他迷失了自己,他的目标只剩下「网络国家」。Twitter 成为了 Balaji 口中对抗另一个主权国家的利器,他过分地褒扬了马斯克,却忘记了这是一个最大的独裁者,Balaji 在赞扬一个他所极力反对的人与事: 「减速论者有国家,但我们有网络。」 过去一年,网络在从国家手中夺回社交、加密货币和 AI 方面取得了重大进展。首先,马斯克收购了 Twitter,解雇了唤醒者,解除了华盛顿特区对社交媒体的核心控制。然后,公民记者揭露了 FTX,摧毁了华盛顿特区对加密货币的理想控制点。现在,有效利他主义也发生了内讧,破坏了他们对 AI 的关键文化控制点。因此,我们有机会争取言论自由、去中心化货币和开源 AI。」Balaji 称,「在每一件事中,Twitter 都是关键」,「即使 FBI 要求 Twitter 进行审查,马斯克也没有对 Twitter 进行审查;Twitter 上的加密社区曝光了 FTX,即使国会为 SBF 开脱;Twitter 上的有效加速主义斥责有效利他主义,即使有效利他主义试图通过行政命令破坏 AI」。 Balaji 说的一点都没错,OpenAI 事件能有如此大的传播离不开 Twitter。他与技术圈名人响马都从发生学的角度指出这场舆论的另一个制造剂——舆论发生的场域 Twitter。是的,没有中心化而又独裁的 Twitter,怎么会有 Balaji 口中与国家进行夺权的「网络」? 为什么「有效利他主义」被这群 Web3 大佬所厌恶?那自然离不开 SBF 与他的 FTX 帝国。SBF 在大学时期就深信有效利他主义,「赚最多的钱,捐给更多的人」。但 FTX 的暴雷对整个加密行业造成了巨大的冲击,「恨一个人也要恨他的信仰」,「有效利他主义」从此「臭名昭著」。在 Brian Amerstrong 看来, 如果这真的是 OpenAI 的有效利他主义、减速论、AI 安全政变...OpenAI 的所有优秀员工都应该辞职,加入 Sam / Greg 的新公司(如果他们有新公司的话)」。这一次,跳过掌权的非营利性董事会,去除减速论 / 有效利他主义,保持创始人的控制权,避免无意义的监管,只管建设,加速。你们正在创造美丽新世界,不要感到内疚,要为了自己的动机而夺取它。 这种减速思维摧毁了谷歌,而 OpenAI 曾经是谷歌的解药(如果属实,现在也倒在了同样的力量之下)。有效利他主义毁掉了加密货币的大量价值,现在又毁掉了人工智能。旧金山也是问题的一部分。很多问题都可以追溯到马克思主义思想。你必须清除公司存在的这种风险——讽刺的是,这才是它们本应担心的真正安全风险。 如 Balaji 的自我矛盾一样,Brian Armstrong 也有一番宏论,他认为「OpenAI 董事会的存在不是为了赚钱或使股东价值最大化」可能是个「错误」。 除此之外,a16z 普通合伙人 Sriram Krishnan 也持同样观点:「有效利他主义可能才是我们这里很多人应该关注的坏人(villain)。 Web3 有效加速主义用极具对立性的「话语」来述说自己的政治诉求,但却遮蔽了很多人与事的多样性与复杂性。 二、AI 无国界?OpenAI 有「国家」 在这场话语建构当中,Web3 在去中心化、有效加速主义方面的话语建构来源之一就是对 AI 界对安全的考量。AI 安全涉及到现代国家治理术、技术资本主义与生命政治,在现代国家治理中,任何技术议题也就理所当然地要迎合国家意志,因此有效加速主义者的话语建构也就无法脱离整体的国家议程。 本文暂不追溯太远,但自 2021 年以来,拜登 - 哈里斯政府就一直致力于控制与管理 AI 风险。OpenAI 在这一议程中也起到重要作用,推动了美国 AI 风险管理框架的建立与实施。 早在 2019 年 6 月,OpenAI 曾回复美国商务部国家标准与技术研究院(NIST)应如何制定美国与国际 AI 标准,并指出将特别关注「可靠、稳健与可信」的系统,希望提高人工智能系统可预测性、稳健性和可靠性。OpenAI 认为,AI 的安全性包括「确保系统在与人类交互时不会对人类造成身体伤害;确保系统将与人类核实与其即将采取的行动相关的关键决策;确保 AI 系统提出的建议尊重人类的限制和系统运行的大环境」。它们主张,美国需制定 AI 技术国际标准,「让监管基础设施为大规模、多用途的 AI 系统做好准备」。 拜登政府组建后,美国国家人工智能研究资源工作组于 2021 年 6 月成立,旨在帮助创建和实施国家 AI 研究资源蓝图。随后,NIST 召开 AI RMF(AI 风险管理框架)研讨会,AI RMF(AI 风险管理框架)正式提上议程。2022 年 3 月,NIST 就 AI RMF 草案征求意见。OpenAI 此时对 NIST AI 风险管理框架初稿进行评论,表示将响应 NIST 的要求,并指出 NIST 应考虑将与人类价值观和意图保持一致纳入其指导原则,即确保与人类价值观与意图保持一致的 AI 系统能够可靠地按照人类意图行事。 2022 年 11 月,GPT-4 的诞生进一步加快了拜登政府对 AI 领域的风险管理。2023 年 1 月 25 日,美国国家标准与技术研究院(NIST)正式发布 AI 风险管理框架(RMF),以提高 AI 的可信度,确保组织能够以不同方式思考 AI 及其风险。3 月,NIST 启动「可信与负责任的 AI 资源中心」,以促进 AI RMF 的实施。 2 月,拜登政府发布一项关于促进种族平等的行政命令,其中表示要「促进科学公平,消除人工智能等新技术设计和使用中的偏见」,保护公众免受算法歧视。随后,美国联邦贸易委员会、消费者金融保护局、平等就业机会委员会与司法部民权司发表联合声明,决定监督自动化系统开发与使用,并指出自动化系统可能在数据集、不透明、设计与使用等方面助长非法歧视且违反联邦法律。 5 月 4 日,哈里斯会见 Alphabet、Anthropic、微软和 OpenAI 四家科技公司 CEO,以强调负责任的 AI 创新,在抓住机遇之前降低其风险。5 月 23 日,拜登 - 哈里斯政府发布公告,并对自 2019 年以来尚未更改过的 AI 研发计划进行更新——《国家人工智能研发战略计划:2023 更新》。该路线图将推进负责任的 AI 研究、开发与部署,并再次强调需在抓住 AI 机遇之前首先管理其风险。同时,联邦政府的投资重点将是促进负责任的美国创新、服务于公共利益、保护人民权利和安全以及维护民主价值观的 AI 研发。在这份文件中,美国国家科学基金会还宣布拨款 1.4 亿美元,新建 7 个国家人工智能研究所,使全国机构总数达到 25 个。 6 月,拜登与技术和社会交叉领域的专家进行 AI 的前景与风险圆桌讨论 7 月,哈里斯召集消费者、劳工与民权领袖讨论 AI 的相关风险。 随后,拜登召集亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等 7 家公司,宣布拜登 - 哈里斯政府已获得这些公司的自愿承诺,以帮助实现安全、可靠和透明的 AI 技术发展。他们承诺: 在向公众推出产品之前确保其安全; 构建将安全放在首位的系统; 赢得公众的信任。 10 月 30 日,拜登签署《关于安全、可靠和可信地开发和使用 AI 的行政命令》,明确表示将限制硅谷在 AI 产品经过全面测试之前发布产品的倾向。 基于拜登在 10 月 30 日的行政命令,哈里斯在 11 月 1 日访问英国时宣布美国正在通过商务部在 NIST 内建立美国人工智能安全研究所,以实施 NIST AI RMF。同时,美国也已发布首份关于美国政府使用 AI 的政策指南草案,包括《人工智能权利法案蓝图》、AI RMF、负责任地将 AI 和自主权用于军事用途的政治宣言、与 AI 相关的慈善组织发起的倡议、防 AI 欺诈、内容认证国际规范等。 拜登 - 哈里斯政府在 AI 方面的议程涉及人工智能安全、生物武器风险、国家安全、网络安全、隐私、偏见、公民权利、算法歧视、刑事司法、教育、工人权利和研究等各方面。而 Web3 有效加速主义者将一箩筐的内容全都将其作为国家的叙事范畴当作讨伐的对象,在这里,只需要否认国家、中心化与集权就可以选择性地无视复杂多样的全球性问题。似乎,只要获得一片中立的领土建立「网络国家」就可以一劳永逸地躲避世俗世界的喧嚣。 三、被遮蔽的真实:OpenAI 的「末日论者」与「加速主义者」 拿去滤镜,来看看真实的人吧。有媒体报道,越来越多的人工智能业内人士正在猜测人工智能将给人类带来灾难性后果的概率,并计算末日的「p(doom)」。那么,作为 OpenAI 的前 CEO,Sam Altman 是一个有效加速主义者吗?在 Web3 有效加速主义者的话语中,Sam Altman 是「加速主义」的代表,「造福全人类」的董事会只有成为「有效利他主义者」、「减速论者」。 OpenAI CTO、DALL-E 与 ChatGPT 团队领导者 Mira Murati 在今年 2 月《时代》杂志采访时公开表示: 我们甚至对 ChatGPT 的出现感到些许不安,我很好奇它会在哪些领域开始为人们带来实用性,而不仅仅是新奇与纯粹的好奇; 关于社会影响还有很多问题,我们需要考虑很多伦理与哲学问题。重要的是我们要引入不同的声音,比如哲学家、社会科学家、艺术家和人文学者。 [AI] 可能被滥用,接下来的问题是如何在全球范围内管理这项技术的使用。如何以符合人类价值观的方式管理人工智能的使用? 尽管 AI 带来了很多不确定性,但 Mira Murati 总体是乐观的。 为大多数人所知并造成恐慌的是 2023 年 3 月,马斯克等人呼吁的暂停至少 6 个月的比 GPT-4 更强大的人工智能系统训练公开信。或许,AI 技术的发展似乎超出了这些科技精英的预料。 真正从事技术研发的 OpenAI 首席科学家 Ilya Sutskever 曾说,「在某些时候,一些别有居心的人可以利用他们向任何愿意付费的人提供的模型很容易造成巨大伤害」。 在 11 月《卫报》发布的纪录片《Ilya:塑造世界的 AI 科学家》中,Ilya 提问了 AI 技术是否会对人类有益的问题。该视频首先展映 Ilya 的担忧:「AI 会使网络攻击更加极端,会创造完全自动化的 AI 武器,无限稳定的独裁政权」。因此,对他来说,「第一批 AGI 的信念与愿望尤为重要,对它进行正确的编程尤为重要,如果不这样做,那么进化和自然选择的本质就会偏向那些将自身生存置于首位的系统」,「并不是说它们会伤害人类,而是因为它会太强大」。Ilya 举了人对待动物的例子进行类比: 人类在修高速公路时不会征求动物的同意,人与 AGI 的关系也是如此,AGI 是真正自主并代表自己运作的。很多机器学习专家并未意识到神经网络和 AI 的计算速度将在未来几年突破几十万倍,而他们并没有足够的时间来确保他们构建的 AGI 能够深深地关心人类。 只不过多思考了一些人类的未来处境,Ilya 就成了要被清除出去的人工智能末日论者,但他从未说 AI 会毁灭人类,只是反思 AI 的强大会带来相应的危险。「AI 末日论」的形象塑造不得不归功于《卫报》给 Ilya 给他制作的纪录片——显而易见的末日感。 作为加速主义者,Sam Altman 在 Web3 有效加速主义者的话语构建中也有着天然的正当性。作为 Web3 项目 Worldcoin 的创始人,他也是 Web3 最有机会拉拢的对象。但 Sam Altman 完全信奉有效加速主义吗?也不尽然,他的思想中也有着出于人类关怀的减速思考。 今年 2 月,Sam Altman 发表「Planning for AGI and beyond」。在这篇文章中,Sam Altman 承认 AGI 会带来的「严重误用、严重事故与社会混乱的风险」,也表示 AI 需要持续迭代以解决当前问题,并通过「逐步过渡」确保人类可以逐步适应: 目前,我们认为成功应对人工智能部署挑战的最佳方法是通过快速学习和仔细迭代的紧密反馈循环。社会将面临人工智能系统可以做什么、如何消除偏见、如何应对工作岗位流失等重大问题。最佳决策将取决于技术所采取的路径,与任何新领域一样,迄今为止大多数专家的预测都是错误的。 Sam Altman 也是开源、民主与去中心化的忠实拥趸: 我们认为世界上更多地使用人工智能会带来好处,并希望促进人工智能的发展(通过将模型放入我们的 API、将其开源等)。我们相信,民主化的访问也将带来更多更好的研究、去中心化的权力、更多的利益,以及更多的人贡献新的想法。 但这并不是 Sam Altman 的全部,他追求技术的进步,也并未否认「安全」的重要性: 重要的是,我们认为在人工智能的安全性和能力方面,我们往往必须同时取得进展。把它们分开来谈,是一种错误的对立;它们在很多方面都是相关的。我们最好的安全工作来自于与能力最强的模型合作。尽管如此,重要的是要提高安全进展与能力进步的比例。 他表示 OpenAI 正在建立一种激励措施,使其与良好的结果保持一致。具体而言: 协助其他组织提高安全性; 对股东的回报设定上限; 在安全需要时取消对股东的股权义务; 赞助世界上最全面的全民基本收入实验; 在发布新系统之前接受独立审计; 同意限制用于创建新模型的计算增长率; 建立 AGI 工作何时应停止训练、决定模型可以安全发布或从生产使用中撤出模型的公共标准; 世界主要政府对一定规模以上的培训有深入的了解; ... 这篇文章的最后,Sam Altman 表示「人类的未来应由人类自己决定,与公众分享进步的信息很重要」,AGI 有能力一直加速,届时「世界可能会与今天截然不同,而且风险可能会非常大」。他认为「较慢的起飞更容易确保安全,而且在关键时刻协调 AGI 减速的努力很可能非常重要(即使在我们不需要这样做来解决技术调整问题的世界里,减速可能也很重要,因为这样可以给社会足够的时间来适应)」。 再举一例。今年 3 月,Sam Altman 在接受 ABC News 采访时也表示,AI 将能重塑社会,但对当前的发展「有点害怕」。他认为,监管机构与社会应尽可能参与 ChatGPT,并表示会与政府官员保持「定期联系」。Altman 表示,「我特别担心这些模型可能会被用于大规模虚假信息」与「进攻性网络攻击」。他从不担心 AI 模型不需要人类便可自己做出决定并策划统治世界。「这是一种很大程度上由人类控制的工具」,值得担心的是哪些人会控制 AI。Altman 仍然希望不断开发越来越强大的系统,将其融入日常生活与经济,「成为人类意志的放大器」。在 Altman 看来,GPT-4 的推理能力仍然不足,持续完善并构建一个由人控制的推理引擎或许是他选择进一步开发 GPT-5 的原因。Altman 相信,AI 的技术进步并不会消解社会与人的意义。 今年 5 月,Sam Altman 在美国参议院司法小组委员会上发表讲话,指出 AI 可以解决人类最大的问题,但也警告说 AI 的力量足以以不可预测的方式改变社会,「政府的监管干预对于减轻风险至关重要」。Altman 称,「我最担心的是我们科技行业对世界造成重大伤害」,「如果这项技术出了问题,它可能会变得非常糟糕」。 事实上,通过对 Mira Murati、Ilya Sutskever 与 Sam Altman 的话语分析,我们可以发现 Ilya 并非是一个 AI 末日论者,他只是从科技与人文的视角表达了自己对人类未来的思考;Sam Altman 也在认可着相应的监管、安全、减速与利他主义。显而易见的是,Balaji、Brian 等人为了自己目的而进行的话语建构,有效加速主义者在塑造一个虚假的、符合其意识形态的 Sam Altman 与 OpenAI 内斗叙事。AI 要让人类生活变得更美好,但有效加速主义者只能依靠中本聪的政治叙事表现自己的「目的」与「手段」。 故事的主角 Sam Altman 也坚信着 AI 并非全知全能的上帝,而是由人所控制的工具。他的 Worldcoin 是多么地理想主义,一个去中心化的项目依然要实现比特币的理想,确保全民基本收入;但 Web3 有效加速主义却裹挟着精英的傲慢,他们垄断着资本(Coinbase、a16z)、加密叙事(去中心化)与话语政治(去国家化),或许他们才是真正的独裁者。 余论 在 AI 科学家眼中,人才是目的。但在 Web3 有效加速主义的眼中,「加速」是手段,「去中心化」是目的。 很显然,为了制造出一个的革命对象,Web3 有效加速主义者只有宣称「加速」、「技术的无限进步」、「去中心化」。在他们所遵循的线性的、进步的时间中,技术才是主体,人都是需要随之适应的「他者」。拉克劳的话语政治表明技术终将与资本融合,而技术进步的话语权永远掌握在少数精英手中,作为硅谷的圣经,「有效加速主义」也确实是这样做的。他们在建构一种话语政治,这并非齐泽克口中的拒绝「讲故事」的怪物,怪物是非人的,而这个世界依旧建立在普遍人性之上,难以像希特勒一样对这个世界进行毁灭性的打击而后重建。因为有叙事,才有了话语政治。 在有效加速主义者看来,任何妨碍加速的因素都应反对;那么对 Web3 有效加速主义者来说,所有妨碍去中心化的因素就都应反对。不管你是理想主义的、非营利的、利他的,只要与「加速」、「去中心化」的叙事不合,都是要被扔进垃圾桶进行唾骂的对象(在这里,加速或许都已成为一种政治言说的工具)。通过建构起一个「有效利他主义的」、「减速的」 AI 来证明 Web3 才是目的论的终点。在 Web3 看来,尽管 AI 从业者创造了颠覆性的 GPT-4,但依然是活在传统中的碳基生物,瓦解中心化结构与民族国家的 Crypto 与 Web3 才是终极的答案。但除了比特币、DeFi 与区块链,他们已然面临着叙事的枯竭,只能选择与 AI 联合。加密从诞生开始就建立了自己敌人,若不能去中心化,不断地塑造对立,自身也就失去了存在的合理性。在这个世界上,「自我」永远要找到一个对立的「他者」,来证明自己存在的意义。 有效加速主义标榜着自己代表着建设与进步,在无形中将「减速」塑造成停滞乃至退步。但或许并非如此,因为减速依然在前进。它们为了自己的目的淡化了一个真相,那就是 AI 的技术发展是停不下来的。AI 科学家们从未否认过加速,历史正在加速,但人需要一定的减速来思考如何在这个地球上与机器共存下去。这也是执着于「加速 + 去中心化」的 Web3 有效加速主义者令人不解之处,即加速本身消解人的意义,但他们却又要求用去中心化治理来解决关于人的问题。加速追求的是效率,但去中心化却是低效的。在此,不妨引用一位 Twitter 用户对 Balaji 推文的评论: 又要加速,又要去中心化,一对奇怪的矛盾。 归根到底,他们将叙事拉回到了「去中心化」这个手段上,而从未真正去考虑「人」这个根本问题。这世界上少数的有效加速主义在持续创造新的历史,在这个普遍而又均质的时间中,整个世界都与之一起加速,跟不上的人将被淘汰,他们既没有此岸也没有彼岸,残忍又现实。 但我们依然要勇敢地面对现代世界的真相。正如 Balaji 所言,AGI 代表着上帝回来了。这个上帝是无所不能、全知全能的,只是他现在仍然被人类所控制。这一观念的背后,反映着宗教在现代世界的让步。「造神」,真正将科学塑造为宗教,所有人都是 AI 的信徒。AI 科学家们怕了,因为 AGI 可能真的代表上帝回来了。 当 Sam Altman 回归,OpenAI 乱局尘埃落定,恐怕也再难起波澜。在 OpenAI 政变事后分析的 Twitter Space 中,Balaji 称「Ilya、Adam 与 Emmett 都是天才技术专家,只是他们的道德观与 Sam 和 Greg 不同。这不是财务、技术与战略上的分歧。这是道德上的分歧。」这一刻,Balaji 的言辞也趋于缓和。他的话语少了不少叙事而客观了起来,他声称自己虽然不认识 Ilya,但认识 Adam D'Angelo, 「他一直是一个非常正直的人。从各种迹象来看,Emmett Shear 也是。因此,现在每家 AI 公司都需要选择自己的信念。有效利他主义 or 有效加速主义?」 Web3 也不得不接受一个真相,AI 科学家们并未接受 Cardano 开源大模型的邀请、去中心化 AI 叙事,他们并未买 Web3 的账,无论是前往微软还是回归 OpenAI,他们依然拥抱着传统 AI 科技公司。 参考文献 1. 硅谷 101:《揭秘 OpenAI 成长史:理想主义,冲突,抉择与权力斗争》,2023 年 4 月; 2. https://effectiveacceleration.tech/ 3. 文理两开花:《硅谷的新图腾:「有效加速主义」(e/acc)这面大旗举的起来吗?》,2023 年 8 月; 4. 吴冠军:《话语政治与怪物政治——透过大众文化重思政治哲学》,《探索与争鸣》,2018 年第 3 期; 5. 阿列克斯·威廉姆斯、尼克·斯尔尼塞克撰文,蓝江译:《加速主义宣言:超越资本主义对技术的压制》,2018 年 3 月。 来源:金色财经
lg
...
金色财经
2023-11-22
大模型套壳:无奈还是创新?
go
lg
...
国内某大厂,称其大模型是套壳Meta的
LLaMA
,即著名的羊驼。概括一下就是说:你要改名就改吧,但别玩掩耳盗铃的花样,免得其他小公司做一堆多余的适配工作…… 这条朋友圈很快就引起一众吃瓜群众的好奇,可谓是一石激起千层浪。业内外纷纷猜测,虽然没有指名道姓的说破,但贾扬清说的“某大厂”其实就是前不久刚发布了Yi-34B大模型的零一万物。 没错,就是“AI教父”李开复的新作。 作为李开复AI团队的第一个大模型,Yi-34B得名于340亿的参数量,也是基于GPT的架构,且在Hugging Face和C-Eval的两个开源大模型排行榜上都取得了第一的好成绩。然而就在发布后不久,Hugging Face社区就给零一万物留言了,要求其修改大模型张量。理由也很简单:除了两个重命名的张量外,Yi完全使用了
Llama
的架构。 消息一出就引起不少人的驻足围观,嘲讽零一万物的,支持李开复的都大有人在,当然更多的还是在吃瓜。不过综合这几天的消息来看,外界争论的焦点主要有二:1.为什么现在还有套壳的?2.为什么是李开复? 一、关于套壳 国产大模型套壳是个被吐槽已久的现象,真可说是“冰冻三尺,非一日之寒”。比零一万物更早的,今年五月亮相的科大讯飞“星火1.0”,在发布会现场被人问到“你是谁发明的”时,得到的回答“我是OpenAI发明的”,迅速引起轩然大波,对科大讯飞的口诛笔伐也随之而来。但很快科大讯飞就表态,星火之所以这么说是因为他们和OpenAI用的训练数据集大同小异。而根据机器学习与AI科学中的经典理论“垃圾进,垃圾出”,即输出数据的质量与输入数据的质量是成正相关的。如果用错误的、无意义的数据训练大模型,大模型自然也一定会输出错误、无意义的结果。经过半年多的发展,星火现在已经进化到了3.0版本,虽然还是免不了这样那样的非议,但就实际表现来看,它不像是套壳的产品。 前面说过零一万物公司的做法似乎介于“套壳”和“借鉴”之间,但国产大模型套壳也不是最近一两天才有的。三月百度的文心一言首秀后,与之配套的文生图也同样引起广泛质疑,认为其实质上是把汉语机翻成英语,再将单词输入至Stable Diffusion生成了图像。最明显的莫过于“车水马龙”,被机翻成了“car、water、horse、dragon”四个词,之后再以此为提示词生成了如下所示的怪异图片。 尽管百度表示,文心一言完全是百度自研的大模型,文心一言的文生图能力来自文心跨模态大模型ERNIE-ViLG,但外界对此的质疑始终没有打消,直到半年多后的今天依然如故。最明显的一点,车水马龙的本意是“车如流水,马如游龙”,即使要翻译为英语也绝非将四个字一一对照的翻译为car、water、horse、dragon。如果不是套壳,它为什么要符合英语而不按照中文的意思来呢? 当前各家企业基本都有算力、人才和资金方面的缺口,导致一些只想挣快钱的团队也想走捷径。另一个原因同样不能忽视,就是当前大模型创业的时间窗口已经非常紧张了。毕竟有目共睹的,大模型这把火已经烧了近一年,该入局的玩家早已入局,整个行业的格局已经基本形成。 九月时的格局,现在应该更多 事实上,在贾扬清发朋友圈后不久零一万物就做出了回应,他们承认Yi-34B的结构设计的确是基于GPT的成熟结构,借鉴了
LLaMA
的公开成果,但是这是为了与行业主流保持一致,更有利于适配和迭代。不过外界似乎对此并不买账,因为这种解释涉及一些很重要也很基本的问题:到底该怎样明确地界定“套壳”和“借鉴”?在开源产品的基础上进行修改、调整,究竟算不算一种“套壳”行为? 从技术层面上来说,判断一个项目是“借鉴”还是“套壳”,关键在于评估所做的改进或优化是否具有实质性和原创性。在借鉴的过程中,开发者会在原有大模型的基础上做出显著的增值,例如引入新的数据处理技术、优化算法性能,或者开发基于某个行业或应用的特定功能。同时在借鉴时,开发者通常都会明确指出他们的改动是基于哪款开源大模型,并说明他们所做的改进和创新,这种做法也符合开源社区的原则和精神。相对地,如果改动仅限于浅显的表层,没有提供任何新的技术见解或实质性的性能改进,那就可以被视为套壳。 这么看来,这次零一万物的Yi-34B究竟是借鉴还是套壳? 从目前已有的信息来看,零一万物公司的做法似乎介于“套壳”和“借鉴”之间。他们确实在一定程度上依赖了
LLaMA
的架构,但也在数据处理、训练方法等方面进行了自己的工作和创新。例如使用了自建的数据管线,从3PB原始数据中精选到3T token的高质量数据,以及在在网络宽度和深度上测试了不同的方法。但同时,这些改进不那么容易通过大模型的架构或代码直观的发现,通常都在大模型的内部,而不是直接体现在大模型的基础架构上。 这么看下来,将零一万物的做法完全归类为“套壳”可能有失公允。但如果就此视为完全独立地“借鉴”同样不妥,原因在于其架构与
LLaMA
架构的确有很高的相似性。当一个新款大模型在核心架构上,与现有的开源大模型高度相似甚至一致时,即使在其他方面有所创新和改进,也很难被完全视为独立的“借鉴”。 二、为什么要套壳 大厂的地位难以撼动,国外同行又不断推陈出新,留给国内大模型初创企业的时间日益紧张。在市场上同类竞品越来越多的情况下,客户何必偏偏苦守一个研发缓慢,前景又不甚明朗的大模型呢?市场对于快速解决方案的需求迫在眉睫。客户的需求不能等,要的是现在就能用的解决方案,而不是几年后的尽善尽美。迫于如此压力,有点团队选择使用开源大模型作为基础,对其进行部分的改进和定制以适应市场的需求。毕竟即使人财物全部齐备,创新和自研的过程也是漫长且充满不确定性的,“科研的道路上充满了沮丧”是不争的客观事实。同时因为AI领域正在快速发展和变化,市场和技术的不确定性意味着巨大的研发风险。 在三月GPT-4上线后,很多对手都以此为目标,然而殊不知对手可不会原地不动的等着被超越。国内第一个亮相的文心一言,以自己的实际表现说明了何为“刚上台就过时”。在技术飞速发展的时代背景下,许多团队可能比三月的百度更惨,自研的产品甚至连过时的机会都没有。九月底OpenAI推出了DALL·E 3,紧接着就是GPT-4V和语音交互功能,在多模态层面迈出了一大步。而本月初开发者大会的一系列“王炸”更新,相信很多人至今记忆犹新,OpenAI轻描淡写的GPTs,直接扼杀了想在“局部领域”突围的国产大模型。 尽管OpenAI看似强大到无所不能,好在还是有对手的。 对于初创企业来说,在保持技术创新的同时,也要考虑到商业化的可行性和市场的接受度。而有着成熟框架且得到市场广泛认可的开源大模型,无疑成了一种可靠的,可以马上投入使用的方案。并且成熟的开源框架通常有一个庞大的社区支持,这意味着团队在遇到问题时可以获得更多的帮助。同时社区中的其他开发者可能已经解决了一些常见问题,团队可以直接借鉴这些解决方案,避免重复劳动。这么看下来,零一万物的作为似乎又情有可原。 就在贾扬清发朋友圈的同时,网上对零一万物的非议也随之出现,其中不乏尖酸的讽刺,比较有代表性的如“国内要发展高新科技其实很简单,只要美国别封锁就可以了”,以及“套壳羊驼是看得起Meta,OpenAI算老几,我们都不拿正眼看的。”在此既不想黑零一万物也不想洗白,只想说明一下,在当前套壳的国产大模型企业中,也不排除的确有一些有长期技术路线的企业。不过众所周知的,用爱发电是不可能长久的。 来源:金色财经
lg
...
金色财经
2023-11-17
先进封装概念大涨 华海诚科20CM涨停
go
lg
...
,已适配并可承载 SAMCV 大模型、
Llama2
等百亿级大模型运算,可广泛应用于 AIoT 边缘视频、移动机器人等场景。
lg
...
金融界
2023-11-17
灰度报告:本轮行情的刺激因素——业内竞争与传统金融进场
go
lg
...
去中心化借贷平台之一。来源:DeFi
Llama
。 加密货币的估值现在折扣了更乐观的前景,这意味着如果传入的消息变得不那么有利,那么失望的风险就会更大。 幸运的是,最新数据继续向积极方向发展。 例如,10月份消费者价格通胀低于预期,我们预计这将提高美联储完成紧缩政策的可能性(报告发布后债券收益率大幅下降)。 我们认为,美联储加息对加密货币估值造成了压力,结束这一过程可能有助于支持市场复苏。 我们相信,如果实际利率达到顶峰,并且我们继续看到美国市场现货 ETF 批准取得进展,加密货币估值可能会继续复苏。 图表 4:较低的实际利率应支持加密货币复苏 来源:Bloomberg。实际利率为 2 年 TIP 收益率。数据截至 2023 年 11 月 14 日。 来源:金色财经
lg
...
金色财经
2023-11-16
云天励飞发布14nm Chiplet大模型推理AI芯片
go
lg
...
卡,已适配并可承载SAM CV大模型、
Llama2
等百亿级大模型运算,可广泛应用于AIoT边缘视频、移动机器人等场景。
lg
...
金融界
2023-11-15
两连板美格智能(002881),涨幅偏离值累计达20%而异动上榜
go
lg
...
组上,成功运行了一系列大语言模型,包括
LLaMA-2
、通义千问Qwen、百川大模型、RedPajama、ChatGLM2、Vicuna。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-11-15
人工智能ETF(159819):AI PC、手机、人形机器人重磅来袭,人工智能不断加速突破
go
lg
...
布骁龙8 Gen3,其可支持Meta
Llama
2大模型上训练的聊天机器人。此外,近期小米新机14系列也点燃了市场热情,新机搭载了前面提到的骁龙8 Gen 3芯片,据小米官方消息,小米14系列开售仅5分钟,销量就超过了上一代首销总量的6倍,创下小米手机新的销售纪录。AI在手机端的落地有望加速释放市场空间。 综合来看,人工智能的影响逐步扩大,在多个领域的应用正加速落地,商业化前景可期。从股价走势看,目前AI板块处于相对低位,布局具备一定性价比。人工智能ETF(代码:159819,联接基金A/C:012733/012734)紧密跟踪中证人工智能主题指数。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-11-10
中国一家“独角兽”正在崛起!阿里巴巴融资、拜登禁令前“储芯” 广招在美中国公民入队
go
lg
...
Platforms Inc.备受推崇的
Llama
2。Hugging Face为各个类别中表现最好的法学硕士运行排行榜,该公司在周末发布了评估结果,将中国模式列为预训练基础法学硕士的第一名。 “
Llama
2一直是黄金标准,也是对开源社区的巨大贡献,”61岁的Lee受访时说道。“我们希望不仅为中国,而且为全球市场提供更好的选择。” 值得关注的是,在刚刚过去的周末里,亿万富翁马斯克(Elon Musk)推出了一款名为Grok的AI聊天机器人。在中国,百度(Baidu)展示了其Ernie LLM版本,据称该版本与ChatGPT母公司OpenAI的技术相当。阿里巴巴已经投资至少3个AI领域企业,其中包括01.AI。 报道提到,中美AI公司基本上不会相互竞争,因为美国的技术在中国无法获得。尽管如此,中美之间日益紧张的地缘局势使AI的发展变得更加复杂。拜登政府2022年禁止向中国客户出售英伟达公司最先进的AI芯片,理由是担心该技术可用于训练军事应用的AI模型,从而导致国家安全。 就在10月,美国进一步收紧了这些限制,禁止英伟达销售其专为中国设计的稍微不太先进的芯片。 Lee将这样的情况描述为“令人遗憾”,但表示01.AI储备了可预见未来所需的芯片。这家初创公司今年早些时候开始积聚半导体,甚至从Sinovation Ventures借钱进行采购。他强调:“我们觉得必须这样做。” 如今,01.AI已经在规划其业务战略,超越刚刚推出的开源模式。该初创公司将与客户合作开发针对特定行业或竞争情况量身定制的专有替代方案。例如,Yi-34B因训练中使用的340亿个参数而得名,但这家初创公司已经在研究超过1000亿个参数的模型。 “我们的专有模型将以GPT-4为基准,”Lee说,他指的是OpenAI模型。他说,提供英文和中文系统将成为银行、保险公司和贸易公司等跨国公司的优势,01.AI计划未来添加更多语言。 Lee表示,他的风投公司有限合伙人向他提出一些关于如何平衡首席执行官双重角色的问题。他指出,如果他每周花40个小时在Sinovation Ventures,那么每周还有128个小时。“我还有86个小时在01.AI上工作,同时也不能忽视我的创新工场职责,”他说,并暗示他可能每天分配6个小时来睡觉和生活中的其他事情。
lg
...
圈内人
2023-11-06
恒生科技30ETF上涨2.08%,恒生科技指数强势走高
go
lg
...
Meta、OpenAI陆续发布多模态版
Llama2
(AnyMAL)、GPT-4V,进一步推动AI在多模态领域持续进步和应用持续落地。国内应用虽然相比海外虽然存在一定代际差距,但随着大模型备案落地、应用持续升级迭代以及海外映射,国内应用有望随产业趋势发展,具备相对长期成长空间。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-11-02
拜登政府发布新的AI行政命令 称确保AI将为美国人服务
go
lg
...
penAI的GPT,Meta的开源模型
Llama
2等大模型开发者必须分享安全测试结果。 而且,美国政府还计划要求各机构解决失业问题,并就 AI 对劳动力市场的影响编写一份报告。白宫希望鼓励更多工人在 AI 生态系统中工作,提供研究资源、关键信息和技术援助。 目前,美国政府已公布《AI 权利法案蓝图》、《NIST AI 风险管理框架》、《国家 AI 研发战略规划》、《国家 AI 研究资源路线图》等 AI 相关法律规定。另外,拜登政府早前还与Meta、谷歌、OpenAI、英伟达和Adobe等多家 AI 公司之间达成一系列监管协议。 另外,白宫称,在美国推进这一形成命令的同时,过去的几个月中,美国已广泛地就 AI 治理框架与其他国家地区进行磋商,涉及的国家和地区20余个:包括澳大利亚、巴西、加拿大、智利、欧盟、法国、德国、印度、以色列、意大利、日本、肯尼亚、墨西哥、荷兰、新西兰、尼日利亚、菲律宾、新加坡、韩国、阿联酋和英国。 白宫强调,拜登最新发布的 AI 行政命令,是美国在安全、可靠和可信赖 AI 方面向前迈出的重要一步。下一步,美国政府需要将采取更多行动,并继续与国会合作寻求两党立法,帮助美国在负责任的科技创新方面发挥引领作用。 来源:金色财经
lg
...
金色财经
2023-11-01
上一页
1
•••
42
43
44
45
46
•••
65
下一页
24小时热点
一文秒懂!巴菲特在他的“最后一次”股东大会上说了哪些“金句”?
lg
...
股神巴菲特宣布2025年卸任CEO,大佬们怎么看?
lg
...
金价自高位回调 分析师:仍具上行潜力,美联储会议或成下一催化剂
lg
...
特朗普“百日政绩”创尴尬纪录,“甩锅”拜登遭美股“狠狠打脸”
lg
...
马斯克的欧洲危机进一步加深!特斯拉4月遭遇“毁灭性”销售数据
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
32讨论
#链上风云#
lg
...
91讨论
#VIP会员尊享#
lg
...
1929讨论
#CES 2025国际消费电子展#
lg
...
21讨论