全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
雄心、恐惧和金钱:硅谷的AI争夺之战是如何被点燃的
go
lg
...
人现在每周使用它。 OpenAI击败了
Anthropic
公司的有效利他主义者。虽然谷歌的佩奇乐观派们急忙发布了自己的聊天机器人Bard,但人们普遍认为他们在与OpenAI的竞争中失利。ChatGPT发布了三个月后,谷歌股价下跌了11%。马斯克做的东西还没有踪影。 但这只是开始。
lg
...
金融界
2023-12-11
Footprint Analytics x Future3 Campus联合发布AI与Web3研究报告
go
lg
...
推动了人们对更多生成式人工智能的关注,
Anthropic
(Amazon)、DeepMind(Google)、Llama 等模型也随后进入人们的视野。与此同时,各行各业的从业者也开始积极探索 AI 会如何推动他们所在领域的发展,或者寻求通过与 AI 技术的结合在行业中脱颖而出,进一步加速了 AI 在各个领域的渗透。 1.2 AI 与 Web3 的交融 Web3 的愿景从改革金融体系开始,旨在实现更多的用户权力,并有望引领现代经济和文化的转变。区块链技术为实现这一目标提供了坚实的技术基础,它不仅重新设计了价值传输和激励机制,还为资源分配和权力分散提供了支持。 图 2:Web3 发展历程 早在 2020 年,区块链领域的投资公司 Fourth Revolution Capital(4RC)就曾指出,区块链技术将和 AI 结合,通过对金融、医疗、电子商务、娱乐等全球行业的去中心化,以实现对现有行业的颠覆。 目前,AI 与 Web3 的结合,主要是两大方向: 利用 AI 去提升生产力以及用户体验。 结合区块链透明、安全、去中心化存储、可追溯、可验证的技术特点,以及 Web3 去中心化的生产关系,解决传统技术无法解决的痛点或者激励社区参与,提高生产效率。 市场上 AI 与 Web3 的结合有以下的一些探索方向: 图 3:AI 与 Web3 结合全景图 数据:区块链技术可以应用在模型数据存储上,提供加密数据集,保护数据隐私和记录模型使用数据的来源、使用情况,以及校验数据的真实性。通过访问和分析存储在区块链上的数据,AI 可以提取有价值的信息,并用于模型训练和优化。同时,AI 也可以作为数据生产工具,去提高 Web3 数据的生产效率。 算法:Web3 中的算法可以为 AI 提供更安全、可信和自主控制的计算环境,为 AI 体统提供加密保障,在模型参数上,内嵌安全防护栏,防止系统被滥用或者恶意操作。AI 可以与 Web3 中的算法进行交互,例如利用智能合约执行任务、验证数据和执行决策。同时,AI 的算法也可以为 Web3 提供更智能化和高效的决策和服务。 算力:Web3 的分散式计算资源可以为 AI 提供高性能的计算能力。AI 可以利用 Web3 中的分散式计算资源进行模型的训练、数据分析和预测。通过将计算任务分发到网络上的多个节点,AI 可以加快计算速度,并处理更大规模的数据。 在本文中,我们将重点探索如何利用 AI 的技术,去提升 Web3 数据的生产效率以及使用体验。 Web3数据现状 2.1 Web2 & Web3 数据行业对比 作为 AI 最核心的组成部分“数据”,在 Web3 跟我们熟悉的 Web2 很着很多的区别。差异主要是在于 Web2 以及 Web3 本身的应用架构导致其产生的数据特征有所不同。 2.1.1 Web2 & Web3 应用架构对比 图 4:Web2 & Web3 应用架构 在 Web2 架构中,通常是由单一实体(通常是一家公司)来控制网页或者 APP,公司对于他们构建的内容有着绝对的控制权,他们可以决定谁可以访问其服务器上的内容和逻辑,以及用户拥有怎样的权益,还可以决定这些内容在网上存在的时长。不少案例表明,互联网公司有权改变其平台上的规则,甚至中止为用户提供服务,而用户对此无法保留所创造的价值。 而 Web3 架构则借助了通用状态层(Universal State Layer)的概念,将一部分或者全部的内容和逻辑放置在公共区块链上。这些内容和逻辑是公开记录在区块链上的,可供所有人访问,用户可以直接控制链上内容和逻辑。而在 Web2 中,用户需要帐户或 API 密钥才能与区块链上的内容进行交互。用户可以直接控制其对应的链上内容和逻辑。不同于 Web2,Web3 用户无需授权帐户或 API 密钥就能与区块链上的内容进行交互(特定管理操作除外)。 2.1.2 Web2 与 Web3 数据特征对比 图 5:Web2 与 Web3 数据特征对比 Web2 数据通常表现为封闭和高度受限的,具有复杂的权限控制,高度成熟、多种数据格式、严格遵循行业标准,以及复杂的业务逻辑抽象。这些数据规模庞大,但互操作性相对较低,通常存储在中央服务器上,且不注重隐私保护,大多数是非匿名的。 相比之下,Web3 数据更加开放,访问权限更广泛,尽管成熟度较低,以非结构化数据为主,标准化较为罕见,业务逻辑抽象相对简化。Web3 的数据规模相对 Web2 较小,但它具有较高的互操作性(比如 EVM 兼容),并可分散或集中存储数据,同时强调用户隐私,用户通常采用匿名方式进行链上交互。 2.2 Web3 数据行业现状与前景,以及遇到的挑战 在 Web2 时代,数据如石油的“储量”般珍贵,访问和获取大规模数据一直是极大的挑战。在 Web3 中,数据的开放性和共享性一下子让大家觉得“石油到处都是”,使得 AI 模型能够更轻松地获取更多的训练数据,这对于提高模型性能和智能水平至关重要。但对 Web3 这个“新石油” 的数据处理依然有很多问题待解决,主要有以下几个: 数据来源:链上数据“标准”繁杂分散,数据处理花费大量人工成本 处理链上数据时,需要反复执行耗时而劳动密集的索引过程,需要开发者和数据分析师花费大量时间和资源来适应不同链、不同项目之间的数据差异。链上数据行业缺乏统一的生产和处理标准,除了记录到区块链账本上的,events,logs,and traces 等都基本上是项目自己定义和生产(或生成)的,这导致非专业交易者很难辨别并找到最准确和可信的数据,增加了他们在链上交易和投资决策中的困难。比如,去中心化交易所 Uniswap 和 Pancakeswap 就有可能在数据处理方法和数据口径上存在差异,过程中的检查和统一口径等工序进一步加大了数据处理的复杂性。 数据更新:链上数据体量大且更新频率高,难以及时地处理成结构化数据 区块链是时刻变动的,数据更新以秒甚至毫秒级别计。数据的频繁产生和更新使其难以维持高质量的数据处理和及时的更新。因此,自动化的处理流程是十分重要的,这也是对于数据处理的成本和效率的一大挑战。Web3 数据行业仍处于初级阶段。随着新合约的层出不穷和迭代更新,数据缺乏标准、格式多样,进一步增加了数据处理的复杂性。 数据分析:链上数据的匿名属性,导致数据身份难以区分 链上数据通常不包含足够的信息来清晰识别每个地址的身份,这使得数据在与链下的经济、社会或法律动向难以联动。但是链上数据的动向与现实世界紧密相关,了解链上活动与现实世界中特定个体或实体的关联性对于特定的场景比如数据分析来说十分重要。 随着大语言模型(LLM)技术引发的生产力变更讨论,能否利用 AI 来解决这些挑战也成为 Web3 领域的一个焦点关注之一。 AI 与 Web3 数据碰撞产生的化学反应 3.1 传统 AI 与 LLM 的特征对比 在模型训练方面,传统 AI 模型通常规模较小,参数数量在数万到数百万之间,但为了确保输出结果的准确性,需要大量的人工标注数据。LLM 之所以如此强大,部分原因在于其使用了海量的语料拟合百亿、千亿级以上的参数,极大地提升了它对自然语言的理解能力,但这也意味着需要更多的数据来进行训练,训练成本相当高昂。 在能力范围和运行方式上,传统 AI 更适合特定领域的任务,能够提供相对精准和专业的答案。相比之下,LLM 更适合通用性任务,但容易产生幻觉问题,这意味着在一些情况下,它的回答可能不够精确或专业,甚至完全错误。因此,如果需要和客观,可信任,和可以追溯的结果,可能需要进行多次检查、多次训练或引入额外的纠错机制和框架。 图 6:传统 AI 与大模型语言模型 (LLM)的特征对比 3.1.1 传统 AI 在 Web3 数据领域的实践 传统 AI 已经在区块链数据行业展现了其重要性,为这一领域带来了更多创新和效率。例如,0xScope 团队采用 AI 技术,构建了基于图计算的群集分析算法,通过不同规则的权重分配来帮助准确识别用户之间的相关地址。这种深度学习算法的应用提高了地址群集的准确性,为数据分析提供了更精确的工具。Nansen 则将 AI 用于 NFT 价格预测,通过数据分析和自然语言处理技术,提供有关 NFT 市场趋势的见解。另一方面,Trusta Labs使用了基于资产图谱挖掘和用户行为序列分析的机器学习方法,以增强其女巫检测解决方案的可靠性和稳定性,有助于维护区块链网络生态的安全。另一方面,Trusta Labs 采用了图挖掘和用户行为分析的方法,以增强其女巫检测解决方案的可靠性和稳定性,有助于维护区块链网络的安全。Goplus 在其运营中利用传统人工智能来提高去中心化应用程序(dApps)的安全性和效率。他们收集和分析来自 dApp 的安全信息,提供快速风险警报,帮助降低这些平台的风险敞口。这包括通过评估开源状态和潜在恶意行为等因素来检测 dApp 主合同中的风险,以及收集详细的审计信息,包括审计公司凭证、审计时间和审计报告链接。Footprint Analytics 则使用 AI 生成生产结构化数据的代码,分析 NFT 交易 Wash trading 交易以及机器人账户筛选排查。 然而,传统 AI 拥有的信息有限,专注于使用预定的算法和规则执行预设任务,而 LLM 则通过大规模的自然语言数据学习,可以理解和生成自然语言,这使其更适合处理复杂且巨量的文本数据。 最近,随着 LLM 取得了显著进展,人们对 AI 与 Web3 数据的结合,也进行了一些新的思考与探索。 3.1.2 LLM 的优势 LLM 相对于传统人工智能具有以下优势: 可扩展性:LLM 支持大规模数据处理 LLM 在可扩展性方面表现出色,能够高效处理大量数据和用户互动。这使其非常适合处理需要大规模信息处理的任务,如文本分析或者大规模数据清洗。其高度的数据处理能力为区块链数据行业提供了强大的分析和应用潜力。 适应性:LLM 可学习适应多领域需求 LLM 具备卓越的适应性,可以为特定任务进行微调或嵌入行业或私有数据库,使其能够迅速学习和适应不同领域的细微差别。这一特性使 LLM 成为了解决多领域、多用途问题的理想选择,为区块链应用的多样性提供了更广泛的支持。 提高效率:LLM 自动化任务提高效率 LLM 的高效率为区块链数据行业带来了显著的便利。它能够自动化原本需要大量人工时间和资源的任务,从而提高生产力并降低成本。LLM 可以在几秒内生成大量文本、分析海量数据集,或执行多种重复性任务,从而减少了等待和处理时间,使区块链数据处理更加高效。 任务分解:可以生成某些工作的具体计划,把大的工作分成小步骤 LLM Agent 具备独特的能力,即可以生成某些工作的具体计划,将复杂任务分解为可管理的小步骤。这一特性对于处理大规模的区块链数据和执行复杂的数据分析任务非常有益。通过将大型工作分解成小任务,LLM 可以更好地管理数据处理流程,并输出高质量的分析。 这一能力对于执行复杂任务的 AI 系统至关重要,例如机器人自动化、项目管理和自然语言理解与生成,使其能够将高级任务目标转化为详细的行动路线,提高任务执行的效率和准确性。 可访问性和易用性:LLM 以自然语言提供用户友好互动 LLM 的可访问性使更多用户能够轻松与数据和系统进行互动,让这些互动更加用户友好。通过自然语言,LLM 使数据和系统更容易访问和交互,无需用户学习复杂的技术术语或特定命令,例如,SQL,R,Python 等来做数据获取和分析。这一特性拓宽了区块链应用的受众范围,让更多的人能够访问和使用 Web3 应用和服务,不论他们是否精通技术,从而促进了区块链数据行业的发展和普及。 3.2 LLM 与 Web3 数据的融合 图 7:区块链数据与 LLM 的融合 大型语言模型的培训需要依赖大规模数据,通过学习数据中的模式来建立模型。区块链数据中蕴含的交互和行为模式是 LLM 学习的燃料。数据量和质量也直接影响 LLM 模型的学习效果。 数据不仅仅是 LLM 的消耗品,LLM 还有助于生产数据,甚至可以提供反馈。例如,LLM 可以协助数据分析师在数据预处理方面做出贡献,如数据清洗和标注,或者生成结构化数据,清除数据中的噪声,凸显有效信息。 3.3 增强 LLM 的常用技术解决方案 ChatGPT 的出现,不仅向我们展示了 LLM 解决复杂问题的通用能力,同时也引发了全球范围的,对在通用能力上去叠加外部能力的探索。这里包括,通用能力的增强(包括上下文长度、复杂推理、数学、代码、多模态等)以及外部能力的扩充(处理非结构化数据、使用更复杂的工具、与物理世界的交互等)。如何将 crypto 领域的专有知识以及个人的个性化私有数据嫁接到大模型的通用能力上,是大模型在 crypto 垂直领域商业化落地的核心技术问题。 目前,大多数应用都集中在检索增强生成(RAG)上,比如提示工程和嵌入技术,已经存在的代理工具也大多都聚焦于提高 RAG 工作的效率和准确性。市场上主要的基于 LLM 技术的应用栈的参考架构有以下几种: Prompt Engineering 图 8:Prompt Engineering 当前,大多数从业者在构建应用时采用基础解决方案,即 Prompt Engineering。这一方法通过设计特定的 Prompt 来改变模型的输入,以满足特定应用的需求,是最方便快捷的做法。然而,基础的 Prompt Engineering 存在一些限制,如数据库更新不及时、内容冗杂、以及对输入上下文长度(In-Context Length)的支持和多轮问答的限制。 因此,行业内也在研究更先进的改进方案,包括嵌入(Embedding)和微调(Fine-tuning)。 嵌入(Embedding) 嵌入(Embedding)是一种广泛应用于人工智能领域的数据表示方法,能高效捕获对象的语义信息。通过将对象属性映射成向量形式,嵌入技术能够通过分析向量之间的相互关系,快速找到最有可能正确的答案。嵌入可以在 LLM 的基础上构建,以利用该模型在广泛语料上学到的丰富语言知识。通过嵌入技术将特定任务或领域的信息引入到预训练的大模型中,使得模型更专业化,更适应特定任务,同时保留了基础模型的通用性。 用通俗的话来讲,嵌入就类似于你给一个经过综合训练的大学生一本工具书,让他拿着拥有特定任务相关知识的工具书去完成任务,他可以随时查阅工具书,然后可以解决特定的问题。 微调(Fine-tuning) 图 9:Fine Tuning 微调(Fine-tuning)与嵌入不同,通过更新已经预训练的语言模型的参数,使其适应特定任务。这种方法允许模型在特定任务上表现出更好的性能,同时保持通用性。微调的核心思想是调整模型参数,捕捉与目标任务相关的特定模式和关系。但微调的模型通用能力上限仍然受限于基座模型本身。 用通俗的话来讲,微调就类似于给经过综合训练的大学生上专业知识课程,让他掌握除了综合能力以外的专业课知识,能自行解决专业板块的问题。 重新训练 LLM 当前的 LLM 虽然强大,但不一定能够满足所有需求。重新训练 LLM 是一种高度定制化的解决方案,通过引入新数据集和调整模型权重,使其更适应特定任务、需求或领域。然而,这种方法需要大量计算资源和数据,并且管理和维护重新训练后的模型也是挑战之一。 Agent 模型 图 10:Agent 模型 Agent 模型是一种构建智能代理的方法,它以 LLM 作为核心控制器。这个系统还包括几个关键组成部分,以提供更全面的智能。 Planning,规划:将大任务分成小任务,这样更容易完成 Memory,反思:通过反思过去的行为,改进未来的计划 Tools,工具使用:代理可以调用外部工具获取更多信息,如调用搜索引擎、计算器等 人工智能代理模型具备强大的语言理解和生成能力,能够解决通用问题,进行任务分解以及自我反思。这使得它在各种应用中都有广泛的潜力。然而,代理模型也存在一些局限性,例如受到上下文长度的限制、长期规划和任务拆分容易出错、输出内容的可靠性不稳定等问题。这些局限性需要长期不断的研究和创新,以进一步拓展代理模型在不同领域的应用。 以上的各种技术并不是相互排斥的,它们可以在训练和增强同一个模型的过程中一起使用。开发者可以充分发挥现有大语言模型的潜力,尝试不同的方法,以满足日益复杂的应用需求。这种综合使用不仅有助于提高模型的性能,还有助于推动 Web3 技术的快速创新和进步。 然而,我们认为,虽然现有的 LLM 已经在 Web3 的快速发展中发挥了重要作用,但在充分尝试这些现有模型(如 OpenAI、Llama 2 以及其他开源 LLM)之前,我们可以从浅入深,从 prompt engineering 和嵌入等 RAG 策略入手,谨慎考虑微调和重新训练基础模型。 3.4 LLM 如何加速区块链数据生产的各个流程 3.4.1 区块链数据的一般处理流程 当今,区块链领域的建设者逐渐认识到数据产品的价值。这一价值覆盖了产品运营监控、预测模型、推荐系统以及数据驱动的应用程序等多个领域。尽管这一认知逐渐增强,但作为数据获取到数据应用中不可或缺的关键步骤,数据处理往往被忽视。 图 12:区块链数据处理流程 将区块链原始非结构化数据,如 events 或 logs 等,转换为结构化的数据 区块链上的每一笔交易或事件都会生成 events 或 logs,这些数据通常是非结构化的。这一步骤是获取数据的第一入口,但数据仍然需要被进一步处理以提取有用信息,得到结构化的原始数据。这包括整理数据、处理异常情况和转化为通用格式。 将结构化的原始数据,转换为具有业务意义的抽象表 在得到结构化原始数据后,需要进一步进行业务抽象,将数据映射到业务实体和指标上,比如交易量、用户量等业务指标,将原始数据转化为对业务和决策有意义的数据。 从抽象表中,计算提取业务指标 有了抽象的业务数据后,可以在业务抽象的数据上进行进一步计算,就可以得出各种重要的衍生指标。例如交易总额的月增长率、用户留存率等核心指标。这些指标可以借助 SQL、Python 等工具实现,更加有可能帮助监控业务健康、了解用户行为和趋势,从而支持决策和战略规划。 3.4.2 区块链数据生成流程加入 LLM 后的优化 LLM 在区块链数据处理中可以解决多个问题,包括但不限于以下内容: 处理非结构化数据: 从交易日志和事件中提取结构化信息:LLM 可以分析区块链的交易日志和事件,提取其中的关键信息,如交易金额、交易方地址、时间戳等,将非结构化数据转化为的带有业务意义的数据,使其更易于分析和理解。 清洗数据,识别异常数据:LLM 可以自动识别和清洗不一致或异常的数据,帮助确保数据的准确性和一致性,从而提高数据质量。 进行业务抽象: 将原始链上数据映射到业务实体:LLM 可以将原始区块链数据映射到业务实体,例如将区块链地址映射到实际用户或资产,从而使业务处理更加直观和有效。 处理非结构化链上内容,打标签:LLM 可以分析非结构化数据,如 Twitter 情感分析结果,将其标记为正面、负面或中性情感,从而帮助用户更好地理解社交媒体上的情感倾向。 自然语言解读数据: 计算核心指标:基于业务抽象,LLM 可以计算核心业务指标,如用户交易量、资产价值、市场份额等,以帮助用户更好地了解其业务的关键性能。 查询数据:LLM 可以通过 AIGC,理解用户意图,生成 SQL 查询,使用户能够以自然语言提出查询请求,而不必编写复杂的 SQL 查询语句。这增加了数据库查询的可访问性。 指标选择、排序和相关性分析:LLM 可以帮助用户选择、排序和分析不同的多个指标,以更好地理解它们之间的关系和相关性,从而支持更深入的数据分析和决策制定。 产生业务抽象的自然语言描述:LLM 可以根据事实数据,生成自然语言摘要或解释,以帮助用户更好地理解业务抽象和数据指标,提高可解释性,并使决策更具合理性。 3.5 目前用例 根据 LLM 自身的技术以及产品体验优势,它可以被应用到不同的链上数据场景,技术上从易到难可以将这些场景分成四类: 数据转换:进行数据增强、重构等操作,如文本摘要、分类、信息抽取。这类应用开发较快,但更适合通用场景,不太适合大量数据的简单批量化处理。 自然语言接口:将 LLM 连接知识库或工具,实现问答或基本工具使用的自动化。这可以用于构建专业聊天机器人,但其实际价值受其所连接的知识库质量等其他因素影响。 工作流自动化:使用 LLM 实现业务流程的标准化和自动化。这可以应用于较复杂的区块链数据处理流程,如解构智能合约运行过程、风险识别等。 协助机器人与助手辅助系统:辅助系统是在自然语言接口的基础上,集成更多数据源和功能的增强系统,大幅提高用户工作效率。 图 11:LLM 应用场景 3.6 LLM 的局限性 3.6.1 行业现状:成熟应用、正在攻克的问题以及尚未解决的挑战 在 Web3 数据领域,尽管已经取得了一些重要的进展,但仍然面临一些挑战。 相对成熟的应用: 使用 LLM 进行信息处理:LLM 等 AI 技术已成功用于生成文本摘要、总结、解释等工作,帮助用户从长篇文章、专业报告中提取关键信息,提高了数据的可读性和可理解性。 使用 AI 解决开发问题:LLM 已经应用于解决开发过程中的问题,例如替代StackOverflow 或搜索引擎,为开发者提供问题解答和编程支持。 有待解决与正在探索的问题: 利用 LLM 生成代码:行业正在努力将 LLM 技术应用于自然语言到 SQL 查询语言的转换,以提高数据库查询的自动化和可理解性。然而,过程中会有很多困难,比如在某些情境下,生成的代码要求极高的准确性,语法必须百分之百正确,以确保程序能够无 bug 运行,并获得正确的结果。难点还包括确保问题回答的成功率、正确率,以及对业务的深刻理解。 数据标注问题:数据标注对于机器学习和深度学习模型的训练至关重要,但在 Web3 数据领域,特别是处理匿名的区块链数据时,标注数据的复杂性较高。 准确性和幻觉(Hallucination)问题:AI 模型中幻觉的出现可能受多因素影响,包括有偏见或不足的训练数据、过度拟合、有限的上下文理解、缺乏领域知识、对抗性攻击和模型架构。研究人员和开发者需要不断改进模型的训练和校准方法,以提高生成文本的可信度和准确性。 利用数据进行业务分析和文章输出:将数据用于业务分析和生成文章仍然是一个具有挑战性的问题。问题的复杂性、需要精心设计的提示(prompt)、以及高质量的数据、数据量、减少幻觉问题的方法都是待解决的问题。 根据业务领域自动索引智能合同数据以进行数据抽象:自动为不同业务领域的智能合同数据建立索引以进行数据抽象仍然是一个未解决的问题。这需要综合考虑不同业务领域的特点,以及数据的多样性和复杂性。 处理时序数据,表格文档数据等更复杂的模态:DALL·E 2 等多模态模型非常擅长在文字生成图像、语音等常见模态。而在区块链以及金融领域需要特别地对待一些时序数据,而非简单地把文本向量化就能解决。联和时序数据与文本,跨模态联合训练等,是实现数据智能分析以及应用的重要研究方向。 3.6.2 为何只靠 LLM 不能完美解决区块链数据行业的问题 作为语言模型,LLM 更适用于处理对流畅度要求较高的场景,而在追求准确性方面,可能需要对模型进行更进一步的调整。在将 LLM 应用于区块链数据行业时,以下框架可提供一些参考。 图 13:区块链数据行业下 LLM 输出的流畅性、准确性和用例风险 在评估 LLM 在不同应用中的适用性时,关注流畅度和准确性是至关重要的。流畅度指的是模型的输出是否自然、通顺,准确性则表示模型的答案是否准确。这两个维度在不同应用场景中有不同的要求。 对于流畅度要求较高的任务,如自然语言生成、创意写作等,LLM 通常能够胜任,因为其在自然语言处理方面的强大性能使其能够生成流畅的文本。 区块链数据面临着数据解析、数据处理、数据应用等多方面的问题。LLM 拥有卓越的语言理解和推理能力,使其成为与区块链数据互动、整理和概括的理想工具。然而,LLM 并不能解决所有区块链数据领域的问题。 在数据处理方面,LLM 更适合快速迭代和探索性处理链上数据,不断尝试新的处理方法。然而,LLM 在生产环境中的详细核对等任务方面仍存在一些限制。典型的问题是 token 长度不够,无法应对长上下文的内容。耗时的 prompt,回答不稳定影响下游任务进而导致成功率不稳定的问题,以及执行大批量任务的效率不高。 其次,LLM 处理内容的过程中很可能出现幻觉问题。据估计,ChatGPT 的幻觉概率约为 15% 至 20%,而由于其处理过程的不透明性,很多错误难以察觉。因此,框架的建立和专家知识的结合变得至关重要。此外,LLM 结合链上数据还是有很多挑战: 链上数据实体类型多、数量庞大,以何种形式投喂给 LLM,有效地运用在具体的商业化场景,类似其他垂直行业,需要更多研究和探索。 链上数据包括结构化和非结构化数据,目前行业大多数数据解决方案,都是基于对业务数据的理解。解析链上数据的过程中,用 ETL 去过滤,清洗,补充和复原业务逻辑,进一步把非结构化数据整理为结构化数据,可以为后期多种业务场景提供更高效的分析。比如,结构化的 DEX trades,NFT marketplace transactions,wallet address portfolio 等,就具有前面提到的高质量,高价值,准确和真实等特点,可以给通用 LLM 提供高效的补充。 被误解的 LLM LLM 可以直接处理非结构化数据,因此结构化数据将不再被需要? LLM 通常基于海量文本数据预训练而来,天然适合处理各类非结构化的文本数据。然而,各个行业已经拥有大量结构化数据,尤其 Web3 领域中解析后的数据。如何有效的利用这些数据,增强 LLM,是一个行业的热门研究课题。 对于 LLM,结构化数据仍然具有以下的优势: 海量:大量的数据储存在各种应用背后的数据库和其他标准格式里面,特别是私有数据。每个公司和行业都还有大量 LLM 没有用于预训练的墙内数据。 已有:这些数据不需要重新生产,投入成本极低,唯一的问题是怎么用起来。 高质量和高价值:领域内长期积累的,蕴含专家的专业知识,通常都沉淀到了结构化数据里面,用于产学研。结构化数据的质量是数据可用性的关键,其中包括数据的完整性、一致性、准确性、唯一性和事实性。 高效率:结构化数据以表格、数据库或其他规范格式存储,模式是预先定义的,并且在整个数据集中保持一致。这意味着数据的格式、类型和关系都是可预测和可控的,使得数据的分析和查询更加简单和可靠。而且,行业已经有成熟的 ETL 及各种数据处理和管理工具,使用起来也更加高效和便捷。LLM 可以通过 API,把这些数据使用起来。 准确性和事实性:LLM 的文本数据,基于 token 概率,目前还不能稳定的输出确切的答案,产生的幻觉问题一直是 LLM 要解决的核心根本问题。对于很多行业和场景,会形成安全和可靠性问题,比如,医疗,金融等。结构化数据,正是可以辅助和矫正LLM 这些问题的一个方向。 体现关系图谱,和特定业务逻辑:不同类型的结构化数据,可以以特定的组织形式(关系型数据库,图数据库等),输入到 LLM,解决不同类型的领域问题。结构化数据使用标准化的查询语言(如 SQL),使得对数据进行复杂的查询和分析变得更加高效和准确。知识图谱 (Knowledge Graph) 可以更好地表达实体之间的关系,也更容易进行关联查询。 使用成本低:不用 LLM 每次重新从底层重新训练整个底座模型,可以结合 Agents 和LLM API 等 LLM 赋能方式,更快更低成本的接入 LLM。 目前市场上还有一些脑洞大开的观点,认为 LLM 在处理文本信息和非结构化信息方面的能力极强,只需将原始数据,包括非结构化数据,简单导入到 LLM,就能达到目的。这个想法类似于要求通用 LLM 解数学题,在没有专门构建数学能力模型的情况下,大多数 LLM 可能会在处理简单的小学加减题时出错。反而,建立类似数学能力模型,和图像生成模型的 Crypto LLM 垂直模型,才是解决 LLM 在 Crypto 领域更落地的实践。 4.2 LLM 可以从新闻、推特等文字信息推测内容,人们不再需要链上数据分析来得出结论? LLM 虽然可以从新闻、社交媒体等文本中获得信息,但直接从链上数据中获得的洞察仍然是不可或缺的,主要原因有: 链上数据是原始的第一手资讯,而新闻和社交媒体中的信息可能存在片面性或误导性。直接分析链上数据可以减少信息偏差。尽管利用 LLM 进行文本分析存在理解偏差的风险,但直接分析链上数据可以减少误读。 链上数据包含全面的历史交互和交易记录,分析可以发现长期趋势和模式。链上数据还可以展现整个生态系统的全貌,如资金流向、各方关系等。这些宏观的洞察有助于更深入地理解状况。而新闻和社交媒体信息通常更零散且短期。 链上数据是开放的。任何人都可以验证分析结果,避免信息的不对称。而新闻和社交媒体未必都如实披露。文本信息和链上数据可以相互验证。综合两者可以形成更立体和准确的判断。 链上数据分析仍是不可或缺的。LLM 从文本中获取信息具有辅助作用,但不能取代直接分析链上数据。充分利用两者优势才能取得最佳效果。 4.3 利用 LangChain、LlamaIndex 或其他 AI 工具,在 LLM 的基础上构建区块链数据解决方案非常容易? LangChain 和 LlamaIndex 等工具为构建自定义的简单 LLM 应用提供了便利,使快速搭建成为可能。然而,将这些工具成功应用于实际生产环境中涉及到更多的挑战。构建一个高效运行、保持高质量的 LLM 应用是一项复杂的任务,需要深入理解区块链技术和 AI 工具的工作原理,并有效地将它们整合在一起。这对于区块链数据行业来说,是一项重要但具有挑战性的工作。 在这个过程中,必须认识到区块链数据的特性,它要求极高的精准性和可重复校验性。一旦数据通过 LLM 进行处理和分析,用户对其准确性和可信度有很高的期望。这与 LLM 的模糊容错性之间存在着潜在的矛盾。因此,在构建区块链数据解决方案时,必须仔细权衡这两方面的需求,以满足用户的期望。 当前市场上,虽然已经有了一些基础工具,但这个领域仍在快速演进和不断迭代。类比于 Web2 世界的发展历程,从最初的 PHP 编程语言到更成熟、可扩展的方案如 Java、Ruby、Python,以及 JavaScript 和 Node.js 等,再到 Go 和 Rust 等新兴技术,都经历了不断的演变。AI 工具也在不断变化,新兴的 GPT 框架如 AutoGPT,Microsft AutoGen,及最近OpenAI 自己推出的 ChatGPT 4.0 Turbo 的 GPTs 和 Agents 等只是展示了未来可能性的一部分。这表明,区块链数据行业和 AI 技术都还有许多发展空间,需要不断努力和创新。 当前在应用 LLM 时,有两个陷阱需要特别注意: 期望值过高:很多人认为 LLM 可以解决一切问题,但实际上 LLM 有明显的局限性。它需要大量的计算资源,训练成本高昂,而且训练过程可能不稳定。对 LLM 的能力要有现实的期望,明白它在某些场景下表现出色,如自然语言处理和文本生成,但在其他领域可能无法胜任。 忽视业务需求:另一个陷阱是强行应用 LLM 技术,而不充分考虑业务需求。在应用 LLM 之前,务必明确具体的业务需求。需要评估 LLM 是否是最佳技术选择,并做好风险评估和控制。强调 LLM 的有效应用需要根据实际情况慎重考虑,避免误用。 尽管 LLM 在许多领域都具备巨大潜力,但开发者和研究者在应用 LLM 时需要保持谨慎,采取开放的探索态度,以找到更适合的应用场景并最大程度地发挥其优势。 关于Footprint Analytics Footprint Analytics是一家区块链数据解决方案提供商。借助尖端的人工智能技术,我们提供 Crypto 领域首家支持无代码数据分析平台以及统一的数据 API,让用户可以快速检索超过 30 条公链生态的 NFT,GameFi 以及 钱包地址资金流追踪数据。 关于Future3 Campus Future3 Campus是由万向区块链实验室和HashKey Capital共同发起的Web3.0创新孵化平台,重点聚焦Web3.0 Massive Adoption、DePIN、AI三大赛道,以上海、粤港澳大湾区、新加坡为主要孵化基地,辐射全球Web3.0生态。同时,Future3 Campus将推出首期5000万美金的种子基金用于Web3.0项目孵化,真正服务于Web3.0领域的创新创业。 来源:金色财经
lg
...
金色财经
2023-12-06
与AI安全完全无关 OpenAI闹剧只是科技界的权力斗争
go
lg
...
供了机会,让他们可以访问OpenAI、
Anthropic
、Google、Meta和许多其他开发者的AI模型,”该发言人说,“Quora本身并不从事训练模型的业务,我们的任务是让那些训练模型的人能够接触到大量受众。” 奥特曼被解职后,德安吉洛几乎没有进行过公开表态,但随着围绕他的冲突和动机传言四起,他在X上再次转发了Replit CEO马萨德的一篇帖文。“我与亚当·德安吉洛相识多年,”马萨德写道,“虽然我已经有段时间没和他说过话了,但认为他疯了或者他因为某些功能重迭或其他传言而怀恨在心的想法似乎是错误的。” 虽然奥特曼被罢免震惊了业界,但这并不是德安吉洛第一次突然间撤换公司领导者。2012年,他在Quora的联合创办人切弗(Charlie Cheever)也被罢免了。在回答Quora上的一个关于切弗从业状况的问题时,德安吉洛说,“我们认为”,让这位联合创办人脱离公司日常事务是“最好的决定”。 据一位知情人士透露,切弗对关系破裂几乎毫无察觉。事情来得太突然,以至于员工们哭着去切弗家探望,打听他为何离职。该人士说,关于这一决定或做此决定的原因,似乎没有进行过沟通,甚至对员工也是一样。自那以后,两位联合创办人几乎断了联络。 此后的10年,德安吉洛继续将Quora打造成一个分享各种知识的平台——尽管要实现Quora投资人拉博伊斯(Keith Rabois)在2010年的豪言壮语“Quora将成为2005年后估值最高的公司,句号。”中提出的远大目标还有很长的路要走。根据PitchBook的资料,Quora已从硅谷大佬那里筹集了约3亿美元,但在投入营运近15年后,它仍未上市或被收购。根据PitchBook的资料,截至2019年,该公司的估值为20亿美元。 六年前,在回答Quora上的一个问题时,德安吉洛说,随着技术“变得越发强大”,他预计AI可以“透过各种方式”帮到他的初创公司,包括帮“人们写出更好的答案”。但他同时表示,如果AI发展到了“可以做任何人类可以做的事情”的程度,那么一切都会变得没有定数。 “我认为,在那个世界里,某种形式的知识共享将非常重要,但AI的安全性是更大的问题,”他写道,“我觉得有些人现在考虑安全问题是件好事,但我个人认为,对那个世界心怀忐忑,而不是随着它的临近而去适应它,这是没有意义的。”第二年,他加入了OpenAI董事会。
lg
...
金融界
2023-12-04
加密与AI的碰撞:机遇、代表性项目及未来
go
lg
...
AI、Google Deepmind、
Anthropic
及许多其他公司,都在进行各自的研究和运营。 5、加密和人工智能领域的当前机遇 现在我们已经了解了AI和加密协同效应的有关基础知识,下面我们可以更详细地研究一下该领域的一些领先项目。虽然其中的大多数仍在积极努力地启动引导他们的网络、获取忠诚用户群及更广泛的来自加密社区的关注,但他们都奔走在行业的最前沿,是这个快速增长行业的优秀代表。 (1)Bittensor:去中心化人工智能模型网络 Bittensor是迄今为止Crypto & AI生态中最受欢迎也是最完善的项目。Bittensor是一个去中心化网络,旨在通过为众多分散的商品市场或“子网”创建一个平台,统一使用一个单一的代币系统,让人工智能领域更加民主化。它的使命是通过采用独特的激励机制和先进的子网架构,打造一个与OpenAI等AI领域的大型超级企业相媲美的网络。Bittensor系统可以视为是一台由区块链驱动的机器,可以有效地将AI功能带到链上。 该网络由两个关键参与者管理:矿工和验证者。矿工向网络提交预训练的人工智能模型,并因其贡献而获得奖励,而验证者则确保模型输出的有效性和准确性。这种设置创造了一个竞争环境,激励矿工不断改进他们的模型,以获得更好的性能和更高的TAO(网络的原生代币)回报。用户通过向验证者发送查询来与网络进行交互,验证者然后将这些查询分发给矿工。验证器对这些矿工的输出进行排序,并将排名最高的响应返回给用户。 Bittensor的模型开发方法是独一无二的。与许多人工智能实验室或研究机构不同,Bittensor由于训练模型的成本高且复杂并没有这么做。该网络依赖于去中心化训练机制。验证者(Validator)的任务是使用特定的数据集评估矿工生成的模型,并根据某些标准(如准确性和损失函数)对各模型打分。这种去中心化评估方式确保了模型性能得以持续改进。 Bittensor架构包括Yuma共识机制,这是一种工作量证明(PoW)和权益证明(PoS)的独特混合机制,它将资源分配到网络的子网中。子网是一个个独立的经济市场,每个市场都专注于不同的人工智能任务,如文本预测或图像生成,并且可以根据其功能选择加入或退出Yuma共识。 Bittensor是人工智能去中心化的重要一步,它提供了一个平台,可以以去中心化的方式开发、评估和改进各种人工智能模型。其独特的结构不仅激励了高质量人工智能模型的创建,还使人工智能技术的使用更加民主化,有望改变各个领域的AI开发和使用方式。 (2)Akash:开源超级云 Akash网络是一个创新的开源超级云平台,旨在安全有效地进行计算资源买卖。它的愿景是为用户提供部署自己的云基础设施以及购买和出售未使用的云资源的能力。这种灵活性不仅使云资源的使用更加民主化,还为需要扩展操作的用户提供了具成本效益的解决方案。 Akash系统的核心是一种逆向拍卖机制,用户可以根据自己的计算需求提交出价,供应商之间可以竞争提供服务,这通常会致使价格明显低于传统云系统。该系统的底层支撑是成熟可靠的Kubernetes和Cosmos等技术,确保平台安全可靠地托管应用程序。Akash的社区驱动方法确保其用户在网络的发展和治理中拥有发言权,使其成为真正的以用户为中心的公共服务。 Akash的基础设施是使用一种简单易用的、基于YAML的SDL来定义的,它允许用户跨多个领域和供应商创建复杂的部署。该特性与领先的容器编排系统Kubernetes相结合,不仅保证了部署的灵活性,还保证了应用程序托管的安全性和可靠性。此外,Akash提供持久存储解决方案,即使在重新启动后也能确保数据存留,这对于管理大型数据集的应用程序来说特别有好处。 总的来说,Akash网络作为一个去中心化的云平台脱颖而出,针对当前云服务供应商的垄断性问题提供了独特的解决方案。其利用了全球数百万数据中心中未充分利用的资源,这种模式不仅降低了成本,还提高了云原生应用程序的速度和效率。由于不需要重写专有语言,也不受供应商的限制,Akash为各种云应用程序提供了一个通用平台。 (3)Render:计算访问扩展平台 Render网络是一个区块链平台,旨在解决媒体生产中日益增长的计算需求,特别是在增强现实、虚拟现实和AI增强媒体等领域。它利用未使用的GPU周期将需要计算能力的内容创建者与拥有可用GPU资源的供应商连接起来。这种利用区块链技术的去中心化方法,确保了安全有效地处理基于GPU的任务,例如AI驱动的内容创建和优化。 Render网络的核心服务是其与人工智能的集成,这在内容创建和流程优化方面都起着至关重要的作用。该网络支持人工智能相关任务,使艺术家能够使用AI工具来生成资产并增强数字艺术品。这种集成允许创建超高分辨率的3D世界和优化的渲染过程,如AI去噪。此外,Render网络对人工智能的使用还扩展至大型艺术收藏管理和渲染工作流程优化,从而拓展了创作过程的可能性。 Render网络生态作为GPU资源市场,为艺术家、工程师和节点运营商等各方利益相关者提供服务。它使计算能力的使用更加民主化,使个人创作者和大型工作室能够负担得起复杂的渲染项目。该生态系统内交易使用RNDR代币进行,创造了一个以渲染服务为中心的充满活力的经济。随着人工智能继续重塑数字内容创作,Render网络将成为促进数字媒体领域新型创意表达和技术创新的关键参与者。 (4)Gensyn:去中心化计算平台 Gensyn是一个AI结合加密货币的项目,专注于攻破最先进的人工智能系统固有的计算挑战和资源限制。该项目旨在克服由构建基础模型所需的巨大资源需求而导致的AI发展障碍。Gensyn采用的方法是创建一个去中心化的区块链协议,以有效利用全局计算资源。 Gensyn的诞生背景突出了人工智能系统日益增加的计算复杂性,超过了可用计算供应。例如,训练像OpenAI GPT-4这样的大模型需要大量的资源,这给所有相关方造成了巨大障碍。这一动态催生了对能够有效利用所有可用计算资源的系统的需求,以应对当前解决方案的局限性,当前的解决方案要么过于昂贵,要么不足以胜任大规模人工智能任务。 Gensyn旨在通过创建一个去中心化协议来解决这个问题,该协议以一种经济高效的方式连接和验证链下深度学习任务。该协议面临着几大挑战,包括任务验证、市场动态、事前评估、隐私问题以及对深度学习模型高效并行化的需求。该协议旨在建立一个无需信任的计算网络,为提供参与激励,并提供一种方法来验证计算任务是否按承诺执行。 Gensyn协议是用于深度学习计算的第一层无需信任协议,奖励参与者贡献计算时间及执行ML任务。它使用了多种技术来验证完成的任务,包括概率学习证明、基于图形的pinpoint协议和Truebit类型的激励游戏。该系统涉及了各方参与者,如提交者(Submitter)、求解者(Solver)、验证者(Verifier)和告密者(Whistleblower),各参与者在计算过程中都有特定角色。 在实践中,Gensyn协议从任务提交到合约仲裁和结算包含了若干阶段。该协议旨在为机器学习(ML)计算创建一个透明的低成本市场,实现可扩展性和效率。该协议还为拥有强大GPU的矿工提供了一个机会,可以将他们的硬件用于机器学习计算,与主流供应商相比,成本可能更低。这种方法不仅解决了人工智能领域的计算挑战,还使人工智能资源的获取更加民主化。 (5)Fetch:人工智能经济开源平台 Fetch.ai的时间比前面提到的一些项目的时间还要长,其网站上提供各种各样的服务。Fetch核心上是一个人工智能(AI)和加密货币相结合的创新项目,旨在彻底改变经济活动和流程的执行方式。Fetch服务基于它的AI智能体,它被设计成模块化的构建块,可以被编程执行特定的任务。这些智能体能够自主连接、搜索和交易,从而创造动态市场,改变传统的经济活动格局。 Fetch的一项关键服务就是能够使传统产品与AI相结合。这是通过将它们的API与Fetch.ai智能体集成来实现的,集成过程很快,并且不需要更改底层业务应用程序。AI智能体可以与网络中的其他智能体相结合,为新的用例和商业模式开辟了可能性。此外,这些智能体还具有代表用户进行谈判和交易的能力,这让它们能够通过部署盈利。 另外,这些智能体还可以从机器学习模型中提供推论(inference),允许用户将他们的见解变现并强化他们的机器学习模型。 Fetch还引入了Agentverse,这是一种简化AI智能体部署的无代码管理服务。就像传统的无代码平台(Replit)越来越受欢迎,以及Github Copilot这样的服务让普通大众都能写代码一样,Fetch正在以自己独特的方式进一步推动web3开发的民主化。 通过Agentverse,用户可以毫不费力地启动他们的第一个智能体,这大大降低了使用先进人工智能技术的准入门槛。就人工智能引擎和智能体服务而言,Fetch利用大语言模型(LLM)来发现并将任务执行发送给适当的AI智能体。该系统不仅可以将AI应用和服务货币化,还可以作为构建、上市、分析、托管等智能体服务的综合平台。 该平台通过搜索、发现和分析等功能增强了效用。智能体可以在Agentverse中注册,以便易于在Fetch.ai平台上被识别发现,Fetch.ai平台采用了一种基于LLM的针对性搜索机制。分析工具可用于提高智能体语义描述符的有效性,从而增强其可发现性。此外,Fetch.ai为离线智能体集成了一个物联网网关,使它们能够收集消息并在重新连接时批量处理这些消息。 最后,Fetch.ai为管理智能体提供托管服务,除了托管服务之外,还提供了Agentverse的所有功能。该平台还引入了一个开源的智能体寻址和命名网络,利用了Fetch.ai的Web3网络。这就意味着一种新的Web DNS寻址方法,将区块链技术集成到系统中。总的来说,Fetch.ai提供了一个人工智能和区块链技术相结合的多功能平台,为AI智能体开发、机器学习模型货币化以及数字经济突破性的搜索和发现方法提供了工具。AI智能体和区块链技术的结合为以去中心化的高效方式自动化及优化各流程铺平了道路。 6、AI和加密行业的下一步是什么? 人工智能和区块链技术的无缝融合代表了这两个领域的关键进步。这种结合不仅仅是两种尖端技术的融合,更是一种变革性的协同作用,重新定义了数字创新和去中心化的边界。这种结合的潜在应用(正如在Fetch.ai、Bittensor、Akash Network、Render Network和Gensyn等项目所探讨的),展示了将AI的计算能力与区块链安全透明的框架相结合具有巨大的可能性和优势。 当我们展望未来时,很明显,人工智能和区块链的融合将在塑造各行各业上发挥关键作用。从增强数据安全性和完整性到创建去中心化自治组织新模式等等,这种融合有望带来更高效透明、更可访问的技术。特别是在去中心化金融领域,去中心化人工智能(DeAI)的出现可以使人工智能技术的使用更加民主化,打破传统上大公司垄断的障碍。这有望催生一个更具包容性的数字经济,在这样的未来经济中,个人和小型实体也可以享用以前遥不可及的人工智能工具和服务。 另外,AI和加密技术的集成也可以解决这两个领域中一些最紧迫的挑战。在人工智能领域,数据孤岛和训练大模型所需的巨大计算资源等问题可以通过区块链的去中心化数据管理和计算能力共享来缓解。在区块链领域,人工智能可以提高效率,自动化决策过程,并改善安全机制。开发人员、研究人员和利益相关者持续探索和利用人工智能和区块链之间的协同作用是至关重要的。这样一来,他们不仅能够促进这些独立领域的发展,还将推动整个数字领域的创新,最终让全社会受益。 来源:金色财经
lg
...
金色财经
2023-12-01
一代传奇投资大师“谢幕”前“忠告”!芒格:人工智能被过度炒作
go
lg
...
y AI、Inflection AI和
Anthropic
,寻求风险投资来资助他们的成长。 芒格对风险投资公司进行良好投资的能力表示怀疑,并建议他们谨慎行事投资与赌博之间。 还有一个更广泛的行业问题,即需要快速归还的资金是否是人工智能公司正确的增长和融资机制,因为人工智能公司需要深厚的技术人才、研究和计算能力。 正确性有待证明 最后,还有一个大问题,即该技术是否能够兑现其巨大的承诺。 人工智能被吹捧为一种有潜力像互联网一样具有里程碑意义的技术。OpenAI的Altman和其他AI CEO非常公开地谈论与人类一样聪明的人工智能即将出现。但这样的说法值得持保留态度。 生成式人工智能通常依赖于其他人的工作——这一问题可能会因为Michael Chabon等作者提起的版权诉讼而变得严重。大型语言模型仍然容易产生幻觉,这使得它们远不可靠。与此同时,该技术的泛化能力超出其给定的训练数据集正如谷歌研究人员最近发表的一篇论文所指出的那样,是有争议的。
lg
...
Dan1977
2023-11-30
亚马逊发布AI聊天机器人Q,争夺企业市场
go
lg
...
先供应商英伟达的关系。人工智能初创公司
Anthropic
的首席执行官Dario Amodei(亚马逊为其提供了高达40亿美元的投资)和英伟达的Jensen Huang都与Selipsky一起上台。 今年早些时候,亚马逊发布了Bedrock,这是一款软件工具,旨在让用户更容易访问其他公司的大型语言模型以及一些新的亚马逊模型,但最初的评价褒贬不一。亚马逊表示,Bedrock拥有超过10,000家客户,其中包括辉瑞公司,该公司用Bedrock来识别潜在的收购目标并检测制造异常情况。
lg
...
金融界
2023-11-29
全球首个标准 AI系统应遵循“安全设计”原则
go
lg
...
8个国家以及微软、谷歌、OpenAI、
Anthropic
、Scale AI等23个网络安全组织参与制定。 点评:这份指南强调了将客户安全、透明度与责任以及建立“安全设计”的组织结构列为优先事项。它适用于所有类型的AI系统,不仅涵盖行业内的“尖端模型”,还包括其他使用外部托管模型或API系统的案例。这个指南被视为全球首个AI安全标准,并为AI系统开发提供了必要的建议。它表明AI系统应该遵循“安全设计”的原则。 国信证券表示,AI在安全运维里为甲乙双方节省的时间和人员成本是显而易见的,且拓展了传统安全的能力边界,不管是利用AI检测未知威胁,还是处理海量事件,均是AI带来的崭新价值,因此我们持续看好网络安全产业,维持“超配”评级。重点关注在AI大模型积极投入的厂商,奇安信、深信服、安恒信息、绿盟科技、启明星辰、天融信等。
lg
...
金融界
2023-11-29
OpenAI的宫斗给微软敲醒警钟
go
lg
...
其他研究人员于2021年成立了竞争对手
Anthropic
。 谷歌母公司Alphabet最近向
Anthropic
投资20亿美元,以资助由对Sam Altman领导不满的OpenAI员工组成的竞争对手。这家人工智能初创公司甚至将使用来自谷歌的TPU,而亚马逊据称已向这家人工智能公司投资了高达40亿美元。以下是
Anthropic
的创始成员: Dario Amodei - 首席执行官,前OpenAI研究副总裁 Jack Clark - 前OpenAI政策总监和传播总监 Tom Brown - OpenAI技术人员 Sam McCandlish - OpenAI研究领导 随着山姆和Greg Brockman重新掌管OpenAI,投资者需要注意新的董事会指导该组织。Bret Taylor、Larry Summers和Adam D'Angelo是一个更强大的董事会,尽管他们不太可能像前任董事会那样肩负人工智能公共安全的核心使命。 来源:OpenAI 一个被释放的山姆,没有为公共安全和造福全人类而构建的董事会,实际上可能会进一步发展生成型人工智能领导力。由乔治城安全和新兴技术中心的海伦·托纳和OpenAI首席科学家Ilya Sutskever领导的董事会成员,他们可能不会因为安全原因而减缓AI的发展。 最终,显然有数百名客户联系了
Anthropic
、谷歌云和人工智能初创公司Cohere,寻求替代的人工智能服务。此外,微软显然在与OpenAI的竞争中遇到了问题,因为山姆可能会进一步转向商业化机会,而不像之前的结构那样努力束缚这些行动,因此在签约客户方面受到的影响更大。 微软肯定会从OpenAI价值高达900亿美元的大笔投资中受益,但该公司也没有完全控制这项技术。OpenAI产生的所有价值并不会全部流入微软,除非它成为这家科技巨头的收入。 陡峭的价值飙升 尽管微软全速推进Copilot和其他人工智能产品,但企业对购买新的人工智能软件工具仍然采取谨慎态度。这家科技巨头仅对第二财季的收入进行了指导,预计为606亿美元,增长15%。 虽然由于人工智能,微软有巨大的增长机会,但其股价现在已经超过了实际的潜力。该公司已经创造了2400亿美元的年收入,预计未来几年将有1000亿美元的人工智能增长,这是一个巨大的推动,但考虑到微软的相对规模,这并不是一个巨大的提高。 该股目前市值接近3万亿美元,24财年(截至6月)的营收为2430亿美元。预计营收仅会以15%的速度增长,而股价接近销售额的12倍。事实上,该公司2028财年的营收为4050亿美元,市盈率为7倍,这表明该公司股价在未来5年内可能不会反弹。其他所有科技巨头的股价现在都比微软低得多,Alphabet和Meta的预期市盈率只有6倍。 数据来源:YCharts 在接下来的几周和几个月里,该股肯定会走得更高。许多分析师给出了400美元以上的目标价。奇怪的是,目前普遍的目标价只有406美元,只有7.6%的上涨空间,而微软在53个评级中有35个评级是强烈买入。 来源:Seeking Alpha 实际上,大多数分析师已经完全看好该股票,从目前的水平来看,提供的额外上涨空间有限。投资者更像是将400美元视为退出点,而不是进入点。 结论 OpenAI的戏剧性事件可能不会损害人工智能业务,但这一戏剧性事件肯定会促使企业研究其他人工智能来源。与科技同行相比,微软的估值已经处于溢价和过高水平。投资者应该利用任何进一步向共识目标价格上涨的机会,在高点退出该股,并意识到这不是未来几年人工智能大幅上涨的起点。 $微软(MSFT)$
lg
...
老虎证券
2023-11-27
Sam Altman被OpenAI驱逐的核心是公司治理失败
go
lg
...
其很容易遭受灾难。其他替代结构,例如
Anthropic
建立的结构,经过更周密的组合,更好地协调多个利益相关者的利益,并且应该更能适应缓慢的目标分歧或突然的组织冲击。 2023 年 11 月 17 日星期五,OpenAI 首席执行官兼联合创始人 Sam Altman 被公司非营利性董事会的四名成员毫不客气地解雇。截至 2023 年 11 月 20 日星期一,即 Sam Altman 被解雇三天后,Sam Altman 似乎将加入微软,担任他将帮助创建的新人工智能部门的首席执行官。奥特曼先生将由前 OpenAI 董事会主席兼首席运营官格雷格·布罗克曼 (Greg Brockman) 加入微软,后者于上周五在奥特曼先生被罢黜并被降级为董事会后数小时内辞职。其他高级员工随后辞职,并打算加入新的微软部门,而且更多的人很可能会这样做。据报道,OpenAI 770 名员工中至少有 650 人签署了请愿书,要求该公司召回 Altman 先生并解散董事会。除了员工的震惊和愤怒之外,OpenAI 的投资者对 Altman 先生突然被解雇感到非常不安,没有事先通知他们任何人,而且似乎没有实质性的挑衅。该公司即将进行另一轮融资,这将需要二次出售员工股票,OpenAI 的估值为 870 亿美元,是当前估值的三倍。该融资似乎处于危险之中(当然,估值无法承受给公司带来的不稳定程度),这损害了员工和先前投资者的利益。 尽管周末忙于修复因被解雇而造成的损失并让 Altman 先生回归,但董事会还是保留了自己的角色(暂时),并迅速将临时首席执行官 Mira Murati(OpenAI 的首席技术官)降职——上周五才被指定为临时首席执行官——支持 Twitch 前首席执行官埃米特·希尔 (Emmett Shear)。周一凌晨,OpenAI 联合创始人兼首席科学家、策划罢免 Altman 的董事会成员之一 Ilya Sutskever表达了悔意。对于所发生的事情:“我对参与董事会的行动深感遗憾。我从来没有想过要伤害 OpenAI。” OpenAI 的命运悬而未决。该公司受到了深深的伤害,如何恢复还有待观察。不管是什么促使董事会首先认为罢免奥特曼先生是合适的,在任何人的完美世界中,罢免及其实施方式所带来的混乱和不确定性肯定不会成为目标。这一切都是一场大惨败。关于莎士比亚戏剧在我们眼前展开的许多事情要说(并且仍有待发现),现在可以肯定地说,这是企业管理的彻底失败。 OpenAI 所发生的事情代表了公司治理的巨大且明确的失败。无论奥特曼在被解雇后是否回来(谁知道,他仍然可能),情况都是如此。他一开始是如何被处决的,以及随后发生的混乱,提供了我们需要的所有失败证据。通过治理的视角,我们可以对 OpenAI 的问题得到一个有趣的、或许也是最有说服力的观点。过去几天的数据点容易受到多次读数的影响。即使那些同意治理失败的人也可能会归咎于不同的原因。一些评论家会很高兴看到董事会的意愿占了上风。他们将认为这是董事会治理的胜利(例如,参见此处,认为 Altman 在被解雇后基于员工和投资者的压力而迅速重返 OpenAI 将是失败的)。其他人可能会指责公司的替代治理结构,并认为任何过于创意或异国情调而使主要股东脱离监督和决策的行为都是有缺陷的。 公司治理基本情况 以营利为目的的公司通常设有董事会。风险投资支持的初创公司董事会通常包括一到两名公司高管,以及来自贡献最多资金的风险投资公司的代表。拥有其他外部或独立董事是健康的,他们可以为治理和管理事务带来新的观点,而不会过度受到自身利益的影响。公司董事会成员对公司负有信托义务,通常是为了促进积极的业务绩效、确保法律和法规合规性以及最大化股东回报。 非营利公司董事会的运作方式大致相同。有独立的董事会董事,可能是该组织的一个或多个最大慈善支持者的代表以及一些管理人员。最大的区别在于,非营利组织的存在并不是为了最大化股东价值或利润。他们通常以慈善或社会福利目标为主要使命。 除了一般性地最大化业务绩效之外,营利性或非营利性董事会对其组织的员工或外部利益相关者(例如客户或业务合作伙伴)都没有特定的信托义务。大多数健康的组织都会注意照顾不同的利益相关者的利益,因为他们知道这样做以及超出信托义务或法律要求可能要求的行为往往会支持业务绩效的实现,无论是在股东价值最大化还是实现慈善或社会福利目标方面。 OpenAI 的公司治理 OpenAI 于 2015 年底作为非营利组织成立。选择非营利形式的目的是“为了造福人类而构建安全、有益的通用人工智能”。正如该公司所描述的那样,OpenAI“相信 501(c)(3) 将是指导安全且广泛受益的 AGI 开发的最有效工具,同时不受利润激励的阻碍。” 然而,经过几年的运营,该公司意识到实现其雄心壮志所需的资金无法仅通过非营利实体获得。正如OpenAI 所解释的那样, “越来越明显的是,仅靠捐款无法与推动核心研究前进所需的计算能力和人才成本相匹配,从而危及我们的使命。因此,我们设计了一种结构来保留非营利组织的核心使命、治理和监督,同时使我们能够为我们的使命筹集资金。” 预计 2019 年将获得微软 10 亿美元的初始投资,OpenAI 在 Altman 先生的领导下在原来的非营利组织下创建了营利性子公司。这些营利性实体将能够合法地接受外部投资并向 OpenAI 员工提供股权。这家主要的营利性子公司采用了“利润上限”机制,投资者只能希望获得高达 100 倍的投资回报,超过的部分将返还给非营利组织,用于其更广泛的使命。 OpenAI 的一般公司结构,唯一的董事会控制着位于上方并控制所有其他附属公司的非营利实体。Sam Altman 被罢免之前的董事会由三名 OpenAI 高管(Greg Brockman(主席)、Sam Altman 和 Ilya Sutskever)以及三名独立董事(Quora 首席执行官 Adam D'Angelo、GeoSim 首席执行官 Tasha McCauley)组成Systems 和乔治敦大学安全与新兴技术中心战略与基础研究资助主任 Helen Toner)。 这种方法并非没有争议。这促使公司高层叛逃,例如导致 Dario 和 Daniela Amodei 于 2021 年创立了
Anthropic
。显然,接受外部资金的决定仍然存在一些紧张局势,而在 2023 年 ChatGPT 取得突破性成功后,随着微软和其他投资者向该公司注入了数十亿美元,这种紧张局势进一步加剧。值得注意的是,Ilya Sutskever 在 2019 年新结构创建时确实承认了这一点,并且似乎对此持乐观态度。他当时表示, “为了建立通用人工智能,你需要数十亿美元的投资……我们创建这个结构是为了筹集资金,同时与我们的使命保持一致。” 治理和判断失败 如前所述,OpenAI 的治理结构是一种改造。它在 11 月 17 日之前经历的治理失败部分是由于这种结构。但在很大程度上,这是由于公司快速变革时忽视了结构。 →让非营利组织董事会成员在 2023 年初倒戈后陷入困境。除了 Altman 先生被解雇和 Brockman 先生于 2023 年 11 月 17 日被降职之前的六名成员之外,OpenAI 董事会此前的成员还包括经验丰富的硅谷公司运营商和投资者 Reid Hoffman、前任董事会成员 Will Hurd。德克萨斯州国会议员和埃隆·马斯克 Neuralink 董事 Shivon Zilis。由于各种冲突,这三人于 2023 年春季辞去董事会成员职务。没有做出任何努力来取代他们或为董事会补充额外的专业知识和经验,而这可能适合一家一夜之间市值数百亿美元的公司。奥特曼先生可能对三位外部董事非常信任,当然也对布罗克曼先生非常信任。但信任有时不足以保持审慎、透明的决策和良好的判断力。目前尚不清楚 Adam D'Angelo、Helen Toner、Tasha McCauley 和 Ilya Sutskever 是否拥有足够深度和广度的经验来指导 OpenAI 实现其非营利使命,更不用说在全球知名的数十亿美元的项目中与更广泛的利益相关者利益相平衡了。企业。很明显,他们在解雇奥特曼先生时判断失误。每个人都可以得到一个更大的董事会的更好服务,在有关 AGI 及其预期社会影响的问题上拥有更成熟和多样化的专业知识,并协调这些利益与投资者和其他利益相关者的利益。更不用说这与价值数十亿美元的全球知名企业中更广泛的利益相关者的利益相平衡了。很明显,他们在解雇奥特曼先生时判断失误。每个人都可以得到一个更大的董事会的更好服务,在有关 AGI 及其预期社会影响的问题上拥有更成熟和多样化的专业知识,并协调这些利益与投资者和其他利益相关者的利益。更不用说这与价值数十亿美元的全球知名企业中更广泛的利益相关者的利益相平衡了。很明显,他们在解雇奥特曼先生时判断失误。每个人都可以得到一个更大的董事会的更好服务,在有关 AGI 及其预期社会影响的问题上拥有更成熟和多样化的专业知识,并协调这些利益与投资者和其他利益相关者的利益。 → 首席执行官的审查流程不充分。截至撰写本文时,我无法访问 OpenAI, Inc. 的章程或其他管理文件。然而,我们知道解雇奥特曼先生的决定是根据多数票(六名董事中的四名)做出的。首席执行官的任职符合董事会的意愿,并且可以根据多数决定被罢免。然而,对公司战略方向的分歧通常不应涉及解雇一位表现出色的首席执行官,除非存在渎职行为或被认为对业务有害的持续僵局。审慎实践通常涉及对缺陷或不当行为的客观证据进行调查、记录和阐明。OpenAI 董事会声称解雇 Altman 先生的原因是其模糊的描述他对董事会“始终不坦诚”,“阻碍了董事会履行职责的能力”。然而,随后的爆料表明,他没有任何渎职行为,并且“在安全问题上没有具体分歧””。在不了解更多情况的情况下,驱逐奥特曼先生的决定似乎是基于性格冲突或个人分歧,这些冲突或个人分歧似乎应该或可能受到争议解决程序或与其他利益相关者协商的影响。管理文件并不总是规定此类程序,但良好的治理通常涉及在首席执行官未以其他方式提出不当行为或绩效不佳的情况下自愿遵循此类程序。非营利组织的董事会没有投资者席位,甚至没有投资者咨询委员会。一方面,这可能避免了任何腐败影响。另一方面,它剥夺了董事会通常可以带来的智慧,特别是在涉及困难的战略决策或对公司产生重大影响的分歧的情况下。 → 董事会超越了过于狭窄的任务重点。OpenAI 的使命是“确保通用人工智能造福全人类”。在这方面,通用人工智能的安全被列为首要目标。当然,AGI 仍然是 OpenAI 的一个理想目标。据奥特曼先生十一月初报道,该公司目前的LLM产品并不是通往AGI或超级智能的途径。因此,ChatGPT 和 GPT-4 等产品的商业成功并不意味着 AGI 或 AGI 相关的安全性。基于目前向公众提供的人工智能产品,有很多需要关注的直接政策和用户安全问题。但这些不属于与通用人工智能或超级人工智能相关的生存风险或更严重的公共安全风险。也没有承诺允许微软或其他人访问具有潜在危险的技术。例如,至少自 2023 年 6 月起,该公司已明确表示: “虽然我们与微软的合作伙伴关系包括数十亿美元的投资,但 OpenAI 仍然是一家完全独立的公司,由 OpenAI Nonprofit 管理。微软没有董事会席位,也没有控制权。而且……AGI 明确地包含在所有商业和知识产权许可协议中。” 无论 OpenAI 董事会对 Altman 先生领导下的公司商业方向有何担忧,这些都不会立即暗示他们在该非营利组织既定使命下的授权。此外,Sutskever 先生本人还接管了 OpenAI 的 AGI 和超级智能研究,特别是安全地开发和管理这些希望的成果的目标。 这里的总体要点是,一旦 OpenAI 一夜之间发生变化并让世界随之改变,我们就应该非常清楚需要采取更多措施来协调其各种动机和利益。该公司的业务围绕生成人工智能蓬勃发展,但这本身并不是运营该公司的非营利组织的使命重点。要么需要扩大非营利组织的使命,要么需要将其更广泛追求的更多决策和领导权移交给运营其生成人工智能业务的子公司实体。 未能预见到明显的后果 最终的治理失败是董事会未能预见到他们的行为将对 OpenAI 造成极大的破坏。这些可能都是由于缺乏领导智慧、经验和专业知识而造成的。然而,自周五以来出现的那种后果应该是可以预料到的。自一年前公开推出 ChatGPT 以来,Sam Altman 已成为全球人工智能运动的领军人物。他是人工智能令人惊叹的潜力及其风险的可靠、善于表达的大使。此外,他一直是公司融资和产品开发方面的得力管理者,深受投资者、员工和硅谷领导层的喜爱。对于许多人来说,Sam Altman 不仅是 OpenAI 的代言人和代言人,而且他就是这家公司。在这种情况下,董事会有责任为罢免奠定充分的基础。制定连贯的继任计划、复杂的信息传递计划以及提前与关键利益相关者进行保密联系都至关重要。这些措施似乎根本没有采取,或者没有经过充分的深思熟虑和规划。目前尚不清楚董事会是否有合理的建议,不仅涉及解雇奥特曼先生的技术可行性,而且还涉及在解雇发生的情况下这样做的适当性。或者经过充分的深思熟虑和计划。目前尚不清楚董事会是否有合理的建议,不仅涉及解雇奥特曼先生的技术可行性,而且还涉及在解雇发生的情况下这样做的适当性。或者经过充分的深思熟虑和计划。目前尚不清楚董事会是否有合理的建议,不仅涉及解雇奥特曼先生的技术可行性,而且还涉及在解雇发生的情况下这样做的适当性。 具有一致激励措施的替代结构 公测研究项目 ChatGPT 的商业成功让所有人措手不及。它创造了一个没有人预料到、也没有人计划的商业机会区。没有人能做到这一点,因为 ChatGPT 的巨大成功及其对行业转型的影响在技术史上是史无前例的。该非营利组织需要发展,但相反,董事会成员因冲突而流失,并且未能用适合 OpenAI 2023 年发展目标的额外经验或技能来取代或补充他们。因为它没有发展,信任破裂,做出了不健全的判断剩下的董事会多数票通过了,混乱随之而来。奥特曼先生确实也有责任不去关注那些损害他利益的治理缺陷,尽管也许他的信任本性通常是一种美德。即使是善意的,也可能因结构不充分调整激励措施、包含适当的保障措施或充分定义决策程序而被克服。因此,许多人可能会忍不住质疑所有替代结构。我不认为这是有道理的。 非营利组织并不是 OpenAI 在 2015 年实现其雄心壮志的最佳工具,在 2019 年首次重新审视其公司结构时更是如此。自 2013 年以来,特拉华州创建了公益公司(PBC)。这种公司形式表明,公司可能有超越利润最大化的目标,并且希望对股东以外的利益相关者负责。重要的是,人民银行可以在一个有凝聚力的企业结构中同时追求利润和社会效益目标。其董事会可以包括投资者,董事会层面的决策必须始终考虑所有确定的利益相关者的利益。 这是
Anthropic
在其创始人对 OpenAI 的方法感到失望后选择创建的公司形式。除了 PBC 之外,
Anthropic
还成立了长期福利信托 (LTBT)。根据设计,LTBT 是一个轮换机构,其成员任期为一年。LTBT 是“目的”驱动的,旨在在其权力和决策范围内牢记人工智能对社会有益的用途的更广泛使命。他们可以选择 PBC 董事会的绝大多数成员,但他们自己并不担任
Anthropic
董事会成员。作为一种新颖的公司结构,
Anthropic
LTBT + PBC 具有一定的设计灵活性,承认在此过程中可能需要进行一些微调。这种结构还有待考验,无论是危机还是诉讼。然而,根据它的轮廓,我们很容易看出它如何能够更好地应对 OpenAI 所面临的危机。如果 OpenAI 拥有更符合这些思路的结构,不仅可能无法达到终止事件,而且处理该事件的方式可能会比我们过去几天看到的更加负责任。 来源:金色财经
lg
...
金色财经
2023-11-23
AI 减速Web3 加速舆论话语与政治
go
lg
...
4 日,哈里斯会见 Alphabet、
Anthropic
、微软和 OpenAI 四家科技公司 CEO,以强调负责任的 AI 创新,在抓住机遇之前降低其风险。5 月 23 日,拜登 - 哈里斯政府发布公告,并对自 2019 年以来尚未更改过的 AI 研发计划进行更新——《国家人工智能研发战略计划:2023 更新》。该路线图将推进负责任的 AI 研究、开发与部署,并再次强调需在抓住 AI 机遇之前首先管理其风险。同时,联邦政府的投资重点将是促进负责任的美国创新、服务于公共利益、保护人民权利和安全以及维护民主价值观的 AI 研发。在这份文件中,美国国家科学基金会还宣布拨款 1.4 亿美元,新建 7 个国家人工智能研究所,使全国机构总数达到 25 个。 6 月,拜登与技术和社会交叉领域的专家进行 AI 的前景与风险圆桌讨论 7 月,哈里斯召集消费者、劳工与民权领袖讨论 AI 的相关风险。 随后,拜登召集亚马逊、
Anthropic
、谷歌、Inflection、Meta、微软和 OpenAI 等 7 家公司,宣布拜登 - 哈里斯政府已获得这些公司的自愿承诺,以帮助实现安全、可靠和透明的 AI 技术发展。他们承诺: 在向公众推出产品之前确保其安全; 构建将安全放在首位的系统; 赢得公众的信任。 10 月 30 日,拜登签署《关于安全、可靠和可信地开发和使用 AI 的行政命令》,明确表示将限制硅谷在 AI 产品经过全面测试之前发布产品的倾向。 基于拜登在 10 月 30 日的行政命令,哈里斯在 11 月 1 日访问英国时宣布美国正在通过商务部在 NIST 内建立美国人工智能安全研究所,以实施 NIST AI RMF。同时,美国也已发布首份关于美国政府使用 AI 的政策指南草案,包括《人工智能权利法案蓝图》、AI RMF、负责任地将 AI 和自主权用于军事用途的政治宣言、与 AI 相关的慈善组织发起的倡议、防 AI 欺诈、内容认证国际规范等。 拜登 - 哈里斯政府在 AI 方面的议程涉及人工智能安全、生物武器风险、国家安全、网络安全、隐私、偏见、公民权利、算法歧视、刑事司法、教育、工人权利和研究等各方面。而 Web3 有效加速主义者将一箩筐的内容全都将其作为国家的叙事范畴当作讨伐的对象,在这里,只需要否认国家、中心化与集权就可以选择性地无视复杂多样的全球性问题。似乎,只要获得一片中立的领土建立「网络国家」就可以一劳永逸地躲避世俗世界的喧嚣。 三、被遮蔽的真实:OpenAI 的「末日论者」与「加速主义者」 拿去滤镜,来看看真实的人吧。有媒体报道,越来越多的人工智能业内人士正在猜测人工智能将给人类带来灾难性后果的概率,并计算末日的「p(doom)」。那么,作为 OpenAI 的前 CEO,Sam Altman 是一个有效加速主义者吗?在 Web3 有效加速主义者的话语中,Sam Altman 是「加速主义」的代表,「造福全人类」的董事会只有成为「有效利他主义者」、「减速论者」。 OpenAI CTO、DALL-E 与 ChatGPT 团队领导者 Mira Murati 在今年 2 月《时代》杂志采访时公开表示: 我们甚至对 ChatGPT 的出现感到些许不安,我很好奇它会在哪些领域开始为人们带来实用性,而不仅仅是新奇与纯粹的好奇; 关于社会影响还有很多问题,我们需要考虑很多伦理与哲学问题。重要的是我们要引入不同的声音,比如哲学家、社会科学家、艺术家和人文学者。 [AI] 可能被滥用,接下来的问题是如何在全球范围内管理这项技术的使用。如何以符合人类价值观的方式管理人工智能的使用? 尽管 AI 带来了很多不确定性,但 Mira Murati 总体是乐观的。 为大多数人所知并造成恐慌的是 2023 年 3 月,马斯克等人呼吁的暂停至少 6 个月的比 GPT-4 更强大的人工智能系统训练公开信。或许,AI 技术的发展似乎超出了这些科技精英的预料。 真正从事技术研发的 OpenAI 首席科学家 Ilya Sutskever 曾说,「在某些时候,一些别有居心的人可以利用他们向任何愿意付费的人提供的模型很容易造成巨大伤害」。 在 11 月《卫报》发布的纪录片《Ilya:塑造世界的 AI 科学家》中,Ilya 提问了 AI 技术是否会对人类有益的问题。该视频首先展映 Ilya 的担忧:「AI 会使网络攻击更加极端,会创造完全自动化的 AI 武器,无限稳定的独裁政权」。因此,对他来说,「第一批 AGI 的信念与愿望尤为重要,对它进行正确的编程尤为重要,如果不这样做,那么进化和自然选择的本质就会偏向那些将自身生存置于首位的系统」,「并不是说它们会伤害人类,而是因为它会太强大」。Ilya 举了人对待动物的例子进行类比: 人类在修高速公路时不会征求动物的同意,人与 AGI 的关系也是如此,AGI 是真正自主并代表自己运作的。很多机器学习专家并未意识到神经网络和 AI 的计算速度将在未来几年突破几十万倍,而他们并没有足够的时间来确保他们构建的 AGI 能够深深地关心人类。 只不过多思考了一些人类的未来处境,Ilya 就成了要被清除出去的人工智能末日论者,但他从未说 AI 会毁灭人类,只是反思 AI 的强大会带来相应的危险。「AI 末日论」的形象塑造不得不归功于《卫报》给 Ilya 给他制作的纪录片——显而易见的末日感。 作为加速主义者,Sam Altman 在 Web3 有效加速主义者的话语构建中也有着天然的正当性。作为 Web3 项目 Worldcoin 的创始人,他也是 Web3 最有机会拉拢的对象。但 Sam Altman 完全信奉有效加速主义吗?也不尽然,他的思想中也有着出于人类关怀的减速思考。 今年 2 月,Sam Altman 发表「Planning for AGI and beyond」。在这篇文章中,Sam Altman 承认 AGI 会带来的「严重误用、严重事故与社会混乱的风险」,也表示 AI 需要持续迭代以解决当前问题,并通过「逐步过渡」确保人类可以逐步适应: 目前,我们认为成功应对人工智能部署挑战的最佳方法是通过快速学习和仔细迭代的紧密反馈循环。社会将面临人工智能系统可以做什么、如何消除偏见、如何应对工作岗位流失等重大问题。最佳决策将取决于技术所采取的路径,与任何新领域一样,迄今为止大多数专家的预测都是错误的。 Sam Altman 也是开源、民主与去中心化的忠实拥趸: 我们认为世界上更多地使用人工智能会带来好处,并希望促进人工智能的发展(通过将模型放入我们的 API、将其开源等)。我们相信,民主化的访问也将带来更多更好的研究、去中心化的权力、更多的利益,以及更多的人贡献新的想法。 但这并不是 Sam Altman 的全部,他追求技术的进步,也并未否认「安全」的重要性: 重要的是,我们认为在人工智能的安全性和能力方面,我们往往必须同时取得进展。把它们分开来谈,是一种错误的对立;它们在很多方面都是相关的。我们最好的安全工作来自于与能力最强的模型合作。尽管如此,重要的是要提高安全进展与能力进步的比例。 他表示 OpenAI 正在建立一种激励措施,使其与良好的结果保持一致。具体而言: 协助其他组织提高安全性; 对股东的回报设定上限; 在安全需要时取消对股东的股权义务; 赞助世界上最全面的全民基本收入实验; 在发布新系统之前接受独立审计; 同意限制用于创建新模型的计算增长率; 建立 AGI 工作何时应停止训练、决定模型可以安全发布或从生产使用中撤出模型的公共标准; 世界主要政府对一定规模以上的培训有深入的了解; ... 这篇文章的最后,Sam Altman 表示「人类的未来应由人类自己决定,与公众分享进步的信息很重要」,AGI 有能力一直加速,届时「世界可能会与今天截然不同,而且风险可能会非常大」。他认为「较慢的起飞更容易确保安全,而且在关键时刻协调 AGI 减速的努力很可能非常重要(即使在我们不需要这样做来解决技术调整问题的世界里,减速可能也很重要,因为这样可以给社会足够的时间来适应)」。 再举一例。今年 3 月,Sam Altman 在接受 ABC News 采访时也表示,AI 将能重塑社会,但对当前的发展「有点害怕」。他认为,监管机构与社会应尽可能参与 ChatGPT,并表示会与政府官员保持「定期联系」。Altman 表示,「我特别担心这些模型可能会被用于大规模虚假信息」与「进攻性网络攻击」。他从不担心 AI 模型不需要人类便可自己做出决定并策划统治世界。「这是一种很大程度上由人类控制的工具」,值得担心的是哪些人会控制 AI。Altman 仍然希望不断开发越来越强大的系统,将其融入日常生活与经济,「成为人类意志的放大器」。在 Altman 看来,GPT-4 的推理能力仍然不足,持续完善并构建一个由人控制的推理引擎或许是他选择进一步开发 GPT-5 的原因。Altman 相信,AI 的技术进步并不会消解社会与人的意义。 今年 5 月,Sam Altman 在美国参议院司法小组委员会上发表讲话,指出 AI 可以解决人类最大的问题,但也警告说 AI 的力量足以以不可预测的方式改变社会,「政府的监管干预对于减轻风险至关重要」。Altman 称,「我最担心的是我们科技行业对世界造成重大伤害」,「如果这项技术出了问题,它可能会变得非常糟糕」。 事实上,通过对 Mira Murati、Ilya Sutskever 与 Sam Altman 的话语分析,我们可以发现 Ilya 并非是一个 AI 末日论者,他只是从科技与人文的视角表达了自己对人类未来的思考;Sam Altman 也在认可着相应的监管、安全、减速与利他主义。显而易见的是,Balaji、Brian 等人为了自己目的而进行的话语建构,有效加速主义者在塑造一个虚假的、符合其意识形态的 Sam Altman 与 OpenAI 内斗叙事。AI 要让人类生活变得更美好,但有效加速主义者只能依靠中本聪的政治叙事表现自己的「目的」与「手段」。 故事的主角 Sam Altman 也坚信着 AI 并非全知全能的上帝,而是由人所控制的工具。他的 Worldcoin 是多么地理想主义,一个去中心化的项目依然要实现比特币的理想,确保全民基本收入;但 Web3 有效加速主义却裹挟着精英的傲慢,他们垄断着资本(Coinbase、a16z)、加密叙事(去中心化)与话语政治(去国家化),或许他们才是真正的独裁者。 余论 在 AI 科学家眼中,人才是目的。但在 Web3 有效加速主义的眼中,「加速」是手段,「去中心化」是目的。 很显然,为了制造出一个的革命对象,Web3 有效加速主义者只有宣称「加速」、「技术的无限进步」、「去中心化」。在他们所遵循的线性的、进步的时间中,技术才是主体,人都是需要随之适应的「他者」。拉克劳的话语政治表明技术终将与资本融合,而技术进步的话语权永远掌握在少数精英手中,作为硅谷的圣经,「有效加速主义」也确实是这样做的。他们在建构一种话语政治,这并非齐泽克口中的拒绝「讲故事」的怪物,怪物是非人的,而这个世界依旧建立在普遍人性之上,难以像希特勒一样对这个世界进行毁灭性的打击而后重建。因为有叙事,才有了话语政治。 在有效加速主义者看来,任何妨碍加速的因素都应反对;那么对 Web3 有效加速主义者来说,所有妨碍去中心化的因素就都应反对。不管你是理想主义的、非营利的、利他的,只要与「加速」、「去中心化」的叙事不合,都是要被扔进垃圾桶进行唾骂的对象(在这里,加速或许都已成为一种政治言说的工具)。通过建构起一个「有效利他主义的」、「减速的」 AI 来证明 Web3 才是目的论的终点。在 Web3 看来,尽管 AI 从业者创造了颠覆性的 GPT-4,但依然是活在传统中的碳基生物,瓦解中心化结构与民族国家的 Crypto 与 Web3 才是终极的答案。但除了比特币、DeFi 与区块链,他们已然面临着叙事的枯竭,只能选择与 AI 联合。加密从诞生开始就建立了自己敌人,若不能去中心化,不断地塑造对立,自身也就失去了存在的合理性。在这个世界上,「自我」永远要找到一个对立的「他者」,来证明自己存在的意义。 有效加速主义标榜着自己代表着建设与进步,在无形中将「减速」塑造成停滞乃至退步。但或许并非如此,因为减速依然在前进。它们为了自己的目的淡化了一个真相,那就是 AI 的技术发展是停不下来的。AI 科学家们从未否认过加速,历史正在加速,但人需要一定的减速来思考如何在这个地球上与机器共存下去。这也是执着于「加速 + 去中心化」的 Web3 有效加速主义者令人不解之处,即加速本身消解人的意义,但他们却又要求用去中心化治理来解决关于人的问题。加速追求的是效率,但去中心化却是低效的。在此,不妨引用一位 Twitter 用户对 Balaji 推文的评论: 又要加速,又要去中心化,一对奇怪的矛盾。 归根到底,他们将叙事拉回到了「去中心化」这个手段上,而从未真正去考虑「人」这个根本问题。这世界上少数的有效加速主义在持续创造新的历史,在这个普遍而又均质的时间中,整个世界都与之一起加速,跟不上的人将被淘汰,他们既没有此岸也没有彼岸,残忍又现实。 但我们依然要勇敢地面对现代世界的真相。正如 Balaji 所言,AGI 代表着上帝回来了。这个上帝是无所不能、全知全能的,只是他现在仍然被人类所控制。这一观念的背后,反映着宗教在现代世界的让步。「造神」,真正将科学塑造为宗教,所有人都是 AI 的信徒。AI 科学家们怕了,因为 AGI 可能真的代表上帝回来了。 当 Sam Altman 回归,OpenAI 乱局尘埃落定,恐怕也再难起波澜。在 OpenAI 政变事后分析的 Twitter Space 中,Balaji 称「Ilya、Adam 与 Emmett 都是天才技术专家,只是他们的道德观与 Sam 和 Greg 不同。这不是财务、技术与战略上的分歧。这是道德上的分歧。」这一刻,Balaji 的言辞也趋于缓和。他的话语少了不少叙事而客观了起来,他声称自己虽然不认识 Ilya,但认识 Adam D'Angelo, 「他一直是一个非常正直的人。从各种迹象来看,Emmett Shear 也是。因此,现在每家 AI 公司都需要选择自己的信念。有效利他主义 or 有效加速主义?」 Web3 也不得不接受一个真相,AI 科学家们并未接受 Cardano 开源大模型的邀请、去中心化 AI 叙事,他们并未买 Web3 的账,无论是前往微软还是回归 OpenAI,他们依然拥抱着传统 AI 科技公司。 参考文献 1. 硅谷 101:《揭秘 OpenAI 成长史:理想主义,冲突,抉择与权力斗争》,2023 年 4 月; 2. https://effectiveacceleration.tech/ 3. 文理两开花:《硅谷的新图腾:「有效加速主义」(e/acc)这面大旗举的起来吗?》,2023 年 8 月; 4. 吴冠军:《话语政治与怪物政治——透过大众文化重思政治哲学》,《探索与争鸣》,2018 年第 3 期; 5. 阿列克斯·威廉姆斯、尼克·斯尔尼塞克撰文,蓝江译:《加速主义宣言:超越资本主义对技术的压制》,2018 年 3 月。 来源:金色财经
lg
...
金色财经
2023-11-22
上一页
1
•••
35
36
37
38
39
•••
53
下一页
24小时热点
金市展望:黄金“疲态尽显”暂守3300!中美谈判这一幕恐暴击多头
lg
...
盛文兵:聚焦国际黄金,下周黄金走势及分析!
lg
...
夏洁论金:黄金还会跌?下周黄金走势解析
lg
...
空头又危险了?
lg
...
纽约时报评论:这是习近平一直在等待的贸易战
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
32讨论
#链上风云#
lg
...
95讨论
#VIP会员尊享#
lg
...
1946讨论
#CES 2025国际消费电子展#
lg
...
21讨论