全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
PEPE的2.0二代分叉币PEPEE空投,不要错过
go
lg
...
币也将提前上交易所。 • 本次空投启用
python
机器学习识别作弊,被识别为作弊者将取消空投。 四、PEPEE线路图 根据路线图披露,2023年第三季度PEPEE将上线Binance,Coinbase,Huobi和OKEx等主流交易所,同时开启流动性挖矿、启动第二轮全球回购PEPEE。有分析指出,届时或将实现币值飞速攀升 来源:金色财经
lg
...
金色财经
2023-06-30
如何让账户抽象赋能基础设施 服务十亿级用户?
go
lg
...
发展阶段。他们是 Candide(用
Python
编写的 Voltaire Bundler),Pimlico(用 Typescript 编写的 Alto Bundler),Etherspot(用 Typescript 编写的 Skandha Bundler),Stackup(用 Go 编写的 Stackup-Bundler)等等。 现在,让我们深入讨论一下更详细的打包算法。目前,由于 UserOperations 的数量较少,Bundlers 可以采用简单直接的打包逻辑,例如固定的时间间隔或每个包裹中的 UserOperations 数量。然而,随着 UserOperations 数量的增加,特别是在公共 mempool 的引入后,选择和打包 UserOperations 的策略变得更加复杂。原因很简单:没有像区块链那样的共识协议,Bundler 组成了一个黑暗森林,每个 Bundler 都根据自己的利益优先处理工作,并与彼此竞争。私有 mempool,相应地对应公共 mempool,更有可能首先出现。因为当从公共 mempool 打包 UserOperations 不利可图时,将私有 mempool 中的 UserOperations 打包在一起就可能变得有利可图。这样,Bundler 在打包时就具有竞争优势。 此外,随着公共 mempool 逐渐被接纳,其中的 UserOperations 将具有不同的特性,例如,不同的 Gas 利润预期和链上执行复杂性。Bundlers 将进行链下模拟,以评估各种 UserOperations 组合的利润性,从而建立他们独特的打包策略。打包更多的 UserOperations 有可能产生更大的利润,但也增加了验证失败的风险。即使验证通过,链上执行失败的风险仍然存在。而打包较少的 UserOperations 则正好相反。Bundlers 需要设置自己的交易 Gas 参数,这会影响区块构建者执行交易的优先级。在不同的市场 Gas 价格和 Gas 波动性条件下,Bundlers 可能会有不同的打包策略。同时,这些验证和策略计算需要消耗本地硬件计算资源和区块链节点资源。Bundlers 还需要确保用户有良好的体验,确保用户在提交 UserOperation 后不会面临过长的延迟。 虽然这些挑战的解决方案仍然不确定,但我们可以确信的是,AA 行业的发展和开发者的共同努力最终会找到解决方案。作为基础设施构建者,BlockPI 希望能在 AA 行业的发展中解决问题,无论是作为开发者,还是为其他开发者提供友好的 AA 基础设施。 基础设施必须适应 AA 对链上交易行为中的各种角色进行了抽象,包括发送者、Bundlers、Gas 支付者、合约钱包、签名者,从而允许用户在使用区块链时有更高的自由度。而且,AA 内的服务可以分别部署。 为了适应 AA 的大规模采用,基础设施提供者首先需要提供至少两个基本服务,即 Bundler 服务和 Paymaster 服务。 在 Bundler 服务中,基础设施提供者可能需要与 Bundlers 一起开发一个私人 mempool,以确保良好的用户体验。具体来说,基础设施提供者需要整合各种 Bundler 客户端,以确保 Bundler 服务的健壮性。这些 Bundler 客户端使用不同的编程语言开发,但它们都提供一套由 ERC-4337 核心团队指定的标准 JSON RPC 方法。目前,可用的方法不多,但未来将会增加更多的方法。基础设施服务提供商应该为这些 API 提供持续、完整的支持。 此外,优化和适应 Bundler API 与原始节点客户端 RPC 之间的关系也非常重要。我们知道,目前的节点客户端对 AA 的响应性适应性优化并不好。某些 Bundler API 方法需要 AA 的数据索引才能使用。例如,通过哈希查找 UserOperation 需要对所有 UserOperations 进行索引。否则,这个单一请求的硬件消耗将会非常高,请求返回也将花费很长的时间。 除此之外,基础设施提供者也需要整合不同的 Paymaster 服务,为客户提供免 Gas 的用户体验,并为他们提供不同的服务选项。这需要与第三方 Paymaster 服务提供商进行良好的沟通和集成工作,同时,根据市场需求,也可以设计基于现有 Paymaster 服务的更方便的集成解决方案。其他服务,如聚合签名,钱包工厂等,也是未来发展和集成的可能方向。 目前,BlockPI 实际上正在努力实现以上所有的目标。不仅如此,我们正在与社区中的几乎所有 Bundler 客户端和 Paymaster 服务提供商进行沟通,并已经把将 AA 服务集成到 BlockPI Network 作为我们的首要任务。我们还正在与 AA 钱包开发者进行深入的讨论,以了解用户需求。因此,在我们前进的道路上,我们真诚欢迎与所有的 Bundlers、Paymasters 和钱包进行合作和交流。我们的总体目标是与其他人共同建设和发展 AA 生态系统,以我们最大的努力推动它的增长和发展。通过共同努力,我们希望为整个 AA 行业做出有意义的贡献,并支持其持续的发展进程。因为毕竟,我们的最终使命是作为行业的先驱,推动 AA 生态系统的发展,从而使 web2 用户可以无障碍地享受他们的区块链体验。 总结 从 AA 的角度看,我们处于一个新的历史时刻。虽然我们在大道上铺好了路,但还没有很多乘客。目前,AA 的应用还处于初级阶段,ERC-4337 为用户和开发者在以太坊平台上使用和构建 AA 提供了强大的框架,然而,仍然有许多挑战和不确定性需要被解决。 AA 的基础设施提供商需要为其用户提供 Bundler 服务和 Paymaster 服务,并且需要整合各种 Bundler 客户端和 Paymaster 服务提供商,以确保服务的健壮性。为了优化 API 和节点客户端之间的响应性,可能需要对 AA 数据进行索引,以减少单个请求的硬件消耗。为了提供更好的用户体验,基础设施提供商还需要为用户提供更多的服务选项。 在未来,随着 AA 生态系统的不断发展和公共 mempool 的出现,选择和打包 UserOperations 的策略将变得更加复杂。每个 Bundler 都会根据自己的利益优先考虑自己的工作,并与其他 Bundler 进行竞争。Bundlers 需要设置自己的交易 Gas 参数,这会影响块构建器执行交易的优先级。在不同的市场 Gas 价格和 Gas 波动性条件下,Bundlers 可能会有不同的打包策略。 虽然这些挑战的解决方案还不确定,但我们可以确信的是,AA 行业的发展和开发者的共同努力最终将找到解决方案。作为基础设施的构建者,BlockPI 希望在 AA 行业的发展中成为解决问题的人,无论是作为开发者,还是通过为其他开发者提供友好的 AA 基础设施。我们的使命是推动 AA 生态系统的发展,使 Web2 的用户可以无障碍地享受他们的区块链体验。 来源:金色财经
lg
...
金色财经
2023-06-28
深入剖析ZKML赛道:智能合约智能性的下一步
go
lg
...
Keras 2c ircom 是一个
Python
工具,使用底层的 circomlib-ml 库将 Keras 模型转换为 Circom 电路。 LinearA 开发了两个用于 zkML 的框架:Tachikoma 和 Uchikoma。Tachikoma 用于将神经网络转换为仅使用整数的形式并生成计算轨迹。Uchikoma 是一个工具,将 TVM 的中间表示转换为不支持浮点运算的编程语言。LinearA 计划支持使用域算术的 Circom 和使用有符号和无符号整数算术的 Solidity。 Daniel Kang 的 zkml 是一个基于他在《Scaling up Trustless DNN Inference with Zero-Knowledge Proofs》论文中的工作构建的 ML 模型执行证明的框架。在撰写本文时,它能够在约 5 GB 的内存和约 16 秒的运行时间内证明一个 MNIST 电路。 在更广义的模型到证明编译器方面,有 Nil Foundation 和 Risc Zero。Nil Foundation 的 zkLLVM 是一个基于 LLVM 的电路编译器,能够验证用流行编程语言(如 C++、Rust 和 JavaScript/TypeScript 等)编写的计算模型。与这里提到的其他模型到证明编译器相比,它是通用的基础设施,但仍适用于复杂的计算,如 zkML。当与他们的证明市场结合使用时,这可能尤为强大。 Risc Zero 构建了一个通用的 zkVM,针对开源的 RISC-V 指令集,因此支持现有成熟的语言,如 C++和 Rust,以及 LLVM 工具链。这允许在主机和客户 zkVM 代码之间实现无缝集成,类似于 Nvidia 的 CUDA C++工具链,但是使用 ZKP 引擎代替 GPU。与 Nil 类似,使用 Risc Zero 可以验证 ML 模型的计算轨迹。 02 广义证明系统 证明系统的改进是使 zkML 取得成果的主要推动力,特别是自定义门和查找表的引入。这主要是由于 ML 对非线性的依赖。简而言之,非线性是通过激活函数(例如 ReLU、sigmoid 和 tanh)引入的,这些激活函数应用于神经网络中线性变换的输出。由于数学运算门的限制,这些非线性在 zk 电路中实现起来具有挑战性。按位分解和查找表可以通过将非线性的可能结果预先计算到查找表中来帮助解决这个问题,有趣的是,这在 zk 中的计算效率更高。 出于这个原因,Plonkish 证明系统往往是 zkML 最受欢迎的后端。Halo 2 和 Plonky 2 及其表式算术方案可以通过查找参数很好地处理神经网络非线性。此外,前者拥有充满活力的开发人员工具生态系统和灵活性,使其成为包括 EZKL 在内的许多项目的实际后端。 其他证明系统也有其优势。基于 R 1 CS 的证明系统包括 Groth 16 ,因其小型证明尺寸而闻名,以及 Gemini,因其处理极大电路和线性时间验证器而闻名。基于 STARK 的系统,例如 Winterfell 证明器/验证器库,尤其在通过 Giza 的工具将 Cairo 程序的追踪作为输入,并使用 Winterfell 生成 STARK 证明来验证输出的正确性时,非常有用。 03 zkML 特定的证明系统 在设计能够处理先进的机器学习模型的复杂、电路不友好的操作的高效证明系统方面已经取得了一些进展。基于 GKR 证明系统的 zkCNN 和基于组合技术的 Zator 等系统往往比通用证明系统更具性能,这一点在 Modulus Labs 的基准测试报告中有所体现。 zkCNN 是一种使用零知识证明来证明卷积神经网络正确性的方法。它使用 sumcheck 协议来证明快速傅里叶变换和卷积,具有线性的证明时间,比渐近计算结果更快。已经引入了几个改进和泛化的交互证明,包括验证卷积层、ReLU 激活函数和最大池化。根据 Modulus Labs 的基准测试报告,zkCNN 特别有趣的地方在于它在证明生成速度和 RAM 消耗方面优于其他通用证明系统。 Zator 是一个旨在探索使用递归 SNARK 来验证深度神经网络的项目。验证更深层次模型的当前限制是将整个计算轨迹适应单个电路中。Zator 提出使用递归 SNARK 逐层进行验证,可以逐步验证 N 步重复计算。他们使用 Nova 将 N 个计算实例减少为一个可以通过单个步骤进行验证的实例。采用这种方法,Zator 能够对具有 512 层的网络进行 SNARK,这与大多数当前的生产 AI 模型一样深。Zator 的证明生成和验证时间仍然对于主流应用案例来说过长,但他们的组合技术仍然是非常有趣的。 应用领域 鉴于 zkML 处于早期阶段,其关注点主要集中在上述基础设施上。然而,目前也有一些项目致力于应用开发。 Modulus Labs 是 zkML 领域中最多样化的项目之一,他们既开展示例应用,也从事相关研究。在应用方面,Modulus Labs 通过 RockyBot(一个链上交易机器人)和 Leela vs. the World(一个人类与经过验证的链上 Leela 国际象棋引擎对战的棋盘游戏)展示了 zkML 的用例。该团队还进行了研究,编写了《智能的代价》,对不同模型规模下的各种证明系统的速度和效率进行了基准测试。 Worldcoin 正在尝试应用 zkML 来创建一个保护隐私的人类身份证明协议。Worldcoin 使用定制硬件处理高分辨率虹膜扫描,并将其插入到 Semaphore 实现中。然后可以使用该系统执行诸如成员资格证明和投票等有用操作。他们目前使用受信任的运行时环境和安全的安全区域来验证相机签名的虹膜扫描,但他们最终的目标是使用零知识证明来验证神经网络的正确推理,以提供加密级别的安全保证。 Giza 是一种协议,采用完全无信任的方法在链上部署 AI 模型。它使用包括 ONNX 格式表示机器学习模型、Giza Transpiler 用于将这些模型转换为 Cairo 程序格式、ONNX Cairo Runtime 用于以可验证和确定性的方式执行模型,以及 Giza Model 智能合约用于在链上部署和执行模型的技术堆栈。尽管 Giza 也可以归类为模型到证明编译器的类别,但他们作为一个 ML 模型市场的定位是目前最有趣的应用之一。 Gensyn 是一个分布式硬件供应网络,用于训练 ML 模型。具体而言,他们正在开发一个基于梯度下降的概率审计系统,并使用模型检查点来使分散式 GPU 网络能够为全尺度模型提供训练服务。尽管他们在这里的 zkML 应用非常特定于他们的用例——他们希望确保当一个节点下载和训练模型的一部分时,他们对模型更新的诚实性——但它展示了将 zk 和 ML 相结合的强大力量。 ZKaptcha 专注于 web3 中的 bot 问题,为智能合约提供验证码服务。他们目前的实施让最终用户通过完成验证码来生成人类工作的证明,验证码由他们的链上验证程序验证,并通过几行代码由智能合约访问。今天,他们主要只依赖于 zk,但他们打算在未来实现 zkML,类似于现有的 web2 验证码服务,分析鼠标移动等行为以确定用户是否是人类。 鉴于 zkML 市场还很早,许多应用程序已经在黑客马拉松级别进行了试验。项目包括 AI Coliseum,一个使用 ZK 证明来验证机器学习输出的链上 AI 竞赛,Hunter z Hunter,一个使用 EZKL 库来验证带有 halo 2 电路的图像分类模型输出的照片寻宝游戏,以及 zk Section 9 ,它 将 AI 图像生成模型转换为用于铸造和验证 AI 艺术的电路。 zkML 面临的挑战 尽管在提高和优化方面取得了飞速的进展,但 zkML 领域仍然面临一些核心挑战。这些挑战涉及技术和实践等方面,包括: 以最小的精度损失进行量化 电路规模,特别是当网络由多个层组成时 矩阵乘法的高效证明 对抗攻击 量化是将浮点数表示为定点数的过程,大多数机器学习模型使用浮点数表示模型参数和激活函数,在处理 zk 电路的域算术时,需要使用定点数。量化对机器学习模型的准确性的影响取决于所使用的精度级别。一般来说,使用较低的精度(即较少的比特数)可能会导致准确性降低,因为这可能引入舍入和近似误差。然而,有几种技术可用于最小化量化对准确性的影响,例如在量化后对模型进行微调,以及使用量化感知训练等技术。此外,zkSummit 9 上的一项黑客马拉松项目 Zero Gravity 显示出,针对边缘设备开发的替代神经网络架构(例如无权重神经网络)可以用于避免电路中的量化问题。 除了量化之外,硬件是另一个关键挑战。一旦通过电路正确地表示了机器学习模型,由于 zk 的简洁性,验证其推理的证明将变得廉价且快速。这里的挑战不在于验证者,而在于证明者,因为随着模型规模的增长,RAM 消耗和证明生成时间会迅速增加。某些证明系统(例如使用 sumcheck 协议和分层算术电路的基于 GKR 的系统)或组合技术(例如将 Plonky 2 与 Groth 16 相结合,Plonky 2 在证明时间方面效率高但对于大型模型的高效证明大小较差,而 Groth 16 在复杂模型的复杂度上不会导致证明大小增长)更适合处理这些问题,但在 zkML 项目中管理权衡是一个核心挑战。 在对抗攻击方面,仍然有待努力。首先,如果一个无信任的协议或 DAO 选择实施一个模型,在训练阶段仍然存在对抗攻击的风险(例如训练模型以在看到特定输入时表现出特定行为,这可能被用来操纵后续的推理)。联邦学习技术和训练阶段的 zkML 可能是最小化这种攻击面的一种方式。 另一个核心挑战是当模型保护隐私时存在模型盗窃攻击的风险。虽然可以混淆模型的权重,但在给定足够的输入输出对的情况下,从理论上讲,仍然有可能反向推导出权重。这主要是对小规模模型的风险,但仍然存在风险。 智能合约的可扩展 尽管在将这些模型优化为在 zk 的限制条件下运行时存在一些挑战,但改进工作正在以指数速度进行,一些人预计在进一步的硬件加速下,我们很快就能与更广泛的机器学习领域达到同等水平。为了强调这些改进的速度,zkML 从0x PARC 在 2021 年展示了如何在可验证电路中执行小规模 MNIST 图像分类模型的演示,到 Daniel Kang 在不到一年后为 ImageNet 规模的模型做同样的工作的论文。在 2022 年 4 月,这个 ImageNet 规模的模型的准确性从 79% 提高到 92% ,并且像 GPT-2 这样的大型模型在近期内有望成为可能,尽管目前的证明时间较长。 我们认为 zkML 是一个丰富而不断发展的生态系统,旨在扩展区块链和智能合约的能力,使其更加灵活、适应性强和智能化。 尽管 zkML 仍处于早期开发阶段,但它已经开始显示出有希望的结果。随着技术的发展和成熟,我们可以期待在链上看到更多创新的 zkML 用例。 来源:金色财经
lg
...
金色财经
2023-06-24
AI行业投资泡沫还有多远
go
lg
...
语言兼容性(例如TensorFlow、
Python
),并能够在各种硬件设备上无缝运行,实现跨平台AI的梦想。 然而,当前AI行业面临一个共同的难题,即缺乏统一的标准。各个公司属于各自为王的发展阶段。没有统一的标准,也就无法实现大规模的生产和制造,对于产品的技术形态展示、商业模式运营等仍任重道远。 成本昂贵,无法大众化普及 随着人工智能技术的进步,越来越多的新兴公司发布了他们自家研发的智能大脑,并通过云服务的方式提供给用户使用。这些公司在吸引了大量用户后,却面临一个麻烦:服务器的运行成本太高,有些公司由于缺乏资金和技术实力,没有考虑到这个问题。 人工智能模型的训练可谓是一项巨大的挑战,需要投入大量资源、时间和金钱。有些云服务提供商提供了自动化的模型训练和使用服务,但这些服务的成本相当昂贵,特别是在智能大脑的运行费用方面。如果初创公司提供的服务费用无法覆盖服务器的运行成本,那么这些公司的生存和盈利能力都将受到极大的影响,自然也无法大规模的商业化。 AI商业落地集中,企业亏损严重 根据艾媒咨询发布的《2019年中国人工智能产业研究报告》,安防和金融行业是人工智能在实体经济中应用最广泛的领域,占据了市场份额的绝大部分,约达到70%。然而,这也意味着在其他行业中,人工智能的深度融合和落地还有很大的发展空间。 即使一些独角兽企业在应用落地方面取得了一定的进展,但它们大多仍然面临着亏损的局面。例如,依图科技在2019年扣除非经常性损益后仍然亏损近10亿元,云知声和寒武纪也面临巨额亏损。今年上半年,依旧出现了较大的亏损额,表现如下:依图科技约亏损4.5亿元,云知声约亏损1.1亿元,而AI芯片龙头企业寒武纪的亏损超过2亿元,同比增长幅度高达550%。 AI前景虽好,但不是每个企业都能够在这个赛道中活下来。 AI面临的法律和道德问题 随着人工智能的广泛应用,存在一些道德和法律风险,比如:隐私和数据滥用、偏见和歧视、自主决策的透明度、AI的沉迷和滥用以及责任和法律纠纷。 为了应对新技术出现的道德和法律问题,各国也在相继出台法律法规,据不完全统计,自2016年以来,各国通过了123项与AI相关的法案,其中大多数是近年来通过的。 法律法律的出台为AI的场景化落地提供制度上的保障,但从法律到落地也需要一定时间的过渡期,在此期间许多商业化的AI场景仍然面临着制度的缺陷问题。这也导致了短期内无法大规模商业化的原因之一。 泡沫之后理性发展 AI无疑是未来的一大趋势,但正如行业周期变动规律显示,一个行业的发展必然要经过 快速发展期、泡沫期、理性发展期、成熟期等几个阶段。在这个过程中,众多企业纷纷登上AI的舞台,但在行业竞争和技术迭代的过程中,泡沫过后,当真正比拼技术实力和整体综合能力下,一大批企业又会慢慢死去,企业生产成本降低、各项制度法律成熟,AI回归到行业的正常发展状态,才能真正实现商业化场景落地。 来源:金色财经
lg
...
金色财经
2023-06-19
Aidoge和Pepe二代合体meme币:AIPEPE开始空投中!
go
lg
...
E代币也将提前上交易所。 本次空投启用
python
机器学习识别作弊,被识别为作弊者将取消空投。 来源:金色财经
lg
...
金色财经
2023-06-19
智能合约智能性的下一步:深入剖析ZKML赛道
go
lg
...
e开发的Keras2circom是一个
Python
工具,使用底层的circomlib-ml库将Keras模型转换为Circom电路。 LinearA开发了两个用于zkML的框架:Tachikoma和Uchikoma。Tachikoma用于将神经网络转换为仅使用整数的形式并生成计算轨迹。Uchikoma是一个工具,将TVM的中间表示转换为不支持浮点运算的编程语言。LinearA计划支持使用域算术的Circom和使用有符号和无符号整数算术的Solidity。 Daniel Kang的zkml是一个基于他在《Scaling up Trustless DNN Inference with Zero-Knowledge Proofs》论文中的工作构建的ML模型执行证明的框架。在撰写本文时,它能够在约5GB的内存和约16秒的运行时间内证明一个MNIST电路。 在更广义的模型到证明编译器方面,有Nil Foundation和Risc Zero。Nil Foundation的zkLLVM是一个基于LLVM的电路编译器,能够验证用流行编程语言(如C++、Rust和JavaScript/TypeScript等)编写的计算模型。与这里提到的其他模型到证明编译器相比,它是通用的基础设施,但仍适用于复杂的计算,如zkML。当与他们的证明市场结合使用时,这可能尤为强大。 Risc Zero构建了一个通用的zkVM,针对开源的RISC-V指令集,因此支持现有成熟的语言,如C++和Rust,以及LLVM工具链。这允许在主机和客户zkVM代码之间实现无缝集成,类似于Nvidia的CUDA C++工具链,但是使用ZKP引擎代替GPU。与Nil类似,使用Risc Zero可以验证ML模型的计算轨迹。 02广义证明系统 证明系统的改进是使 zkML 取得成果的主要推动力,特别是自定义门和查找表的引入。这主要是由于 ML 对非线性的依赖。简而言之,非线性是通过激活函数(例如 ReLU、sigmoid 和 tanh)引入的,这些激活函数应用于神经网络中线性变换的输出。由于数学运算门的限制,这些非线性在 zk 电路中实现起来具有挑战性。按位分解和查找表可以通过将非线性的可能结果预先计算到查找表中来帮助解决这个问题,有趣的是,这在 zk 中的计算效率更高。 出于这个原因,Plonkish 证明系统往往是 zkML 最受欢迎的后端。Halo2 和 Plonky2 及其表式算术方案可以通过查找参数很好地处理神经网络非线性。此外,前者拥有充满活力的开发人员工具生态系统和灵活性,使其成为包括 EZKL 在内的许多项目的实际后端。 其他证明系统也有其优势。基于R1CS的证明系统包括Groth16,因其小型证明尺寸而闻名,以及Gemini,因其处理极大电路和线性时间验证器而闻名。基于STARK的系统,例如Winterfell证明器/验证器库,尤其在通过Giza的工具将Cairo程序的追踪作为输入,并使用Winterfell生成STARK证明来验证输出的正确性时,非常有用。 03zkML特定的证明系统 在设计能够处理先进的机器学习模型的复杂、电路不友好的操作的高效证明系统方面已经取得了一些进展。基于GKR证明系统的zkCNN和基于组合技术的Zator等系统往往比通用证明系统更具性能,这一点在Modulus Labs的基准测试报告中有所体现。 zkCNN是一种使用零知识证明来证明卷积神经网络正确性的方法。它使用sumcheck协议来证明快速傅里叶变换和卷积,具有线性的证明时间,比渐近计算结果更快。已经引入了几个改进和泛化的交互证明,包括验证卷积层、ReLU激活函数和最大池化。根据Modulus Labs的基准测试报告,zkCNN特别有趣的地方在于它在证明生成速度和RAM消耗方面优于其他通用证明系统。 Zator是一个旨在探索使用递归SNARK来验证深度神经网络的项目。验证更深层次模型的当前限制是将整个计算轨迹适应单个电路中。Zator提出使用递归SNARK逐层进行验证,可以逐步验证N步重复计算。他们使用Nova将N个计算实例减少为一个可以通过单个步骤进行验证的实例。采用这种方法,Zator能够对具有512层的网络进行SNARK,这与大多数当前的生产AI模型一样深。Zator的证明生成和验证时间仍然对于主流应用案例来说过长,但他们的组合技术仍然是非常有趣的。 应用领域 鉴于zkML处于早期阶段,其关注点主要集中在上述基础设施上。然而,目前也有一些项目致力于应用开发。 Modulus Labs是zkML领域中最多样化的项目之一,他们既开展示例应用,也从事相关研究。在应用方面,Modulus Labs通过RockyBot(一个链上交易机器人)和Leela vs. the World(一个人类与经过验证的链上Leela国际象棋引擎对战的棋盘游戏)展示了zkML的用例。该团队还进行了研究,编写了《智能的代价》,对不同模型规模下的各种证明系统的速度和效率进行了基准测试。 Worldcoin正在尝试应用zkML来创建一个保护隐私的人类身份证明协议。Worldcoin使用定制硬件处理高分辨率虹膜扫描,并将其插入到Semaphore实现中。然后可以使用该系统执行诸如成员资格证明和投票等有用操作。他们目前使用受信任的运行时环境和安全的安全区域来验证相机签名的虹膜扫描,但他们最终的目标是使用零知识证明来验证神经网络的正确推理,以提供加密级别的安全保证。 Giza是一种协议,采用完全无信任的方法在链上部署AI模型。它使用包括ONNX格式表示机器学习模型、Giza Transpiler用于将这些模型转换为Cairo程序格式、ONNX Cairo Runtime用于以可验证和确定性的方式执行模型,以及Giza Model智能合约用于在链上部署和执行模型的技术堆栈。尽管Giza也可以归类为模型到证明编译器的类别,但他们作为一个ML模型市场的定位是目前最有趣的应用之一。 Gensyn是一个分布式硬件供应网络,用于训练ML模型。具体而言,他们正在开发一个基于梯度下降的概率审计系统,并使用模型检查点来使分散式GPU网络能够为全尺度模型提供训练服务。尽管他们在这里的zkML应用非常特定于他们的用例——他们希望确保当一个节点下载和训练模型的一部分时,他们对模型更新的诚实性——但它展示了将zk和ML相结合的强大力量。 ZKaptcha 专注于 web3 中的 bot 问题,为智能合约提供验证码服务。他们目前的实施让最终用户通过完成验证码来生成人类工作的证明,验证码由他们的链上验证程序验证,并通过几行代码由智能合约访问。今天,他们主要只依赖于 zk,但他们打算在未来实现 zkML,类似于现有的 web2 验证码服务,分析鼠标移动等行为以确定用户是否是人类。 鉴于 zkML 市场还很早,许多应用程序已经在黑客马拉松级别进行了试验。项目包括 AI Coliseum,一个使用 ZK 证明来验证机器学习输出的链上 AI 竞赛,Hunter z Hunter,一个使用 EZKL 库来验证带有 halo2 电路的图像分类模型输出的照片寻宝游戏,以及 zk Section 9,它 将 AI 图像生成模型转换为用于铸造和验证 AI 艺术的电路。 zkML面临的挑战 尽管在提高和优化方面取得了飞速的进展,但zkML领域仍然面临一些核心挑战。这些挑战涉及技术和实践等方面,包括: 以最小的精度损失进行量化 电路规模,特别是当网络由多个层组成时 矩阵乘法的高效证明 对抗攻击 量化是将浮点数表示为定点数的过程,大多数机器学习模型使用浮点数表示模型参数和激活函数,在处理zk电路的域算术时,需要使用定点数。量化对机器学习模型的准确性的影响取决于所使用的精度级别。一般来说,使用较低的精度(即较少的比特数)可能会导致准确性降低,因为这可能引入舍入和近似误差。然而,有几种技术可用于最小化量化对准确性的影响,例如在量化后对模型进行微调,以及使用量化感知训练等技术。此外,zkSummit 9上的一项黑客马拉松项目Zero Gravity显示出,针对边缘设备开发的替代神经网络架构(例如无权重神经网络)可以用于避免电路中的量化问题。 除了量化之外,硬件是另一个关键挑战。一旦通过电路正确地表示了机器学习模型,由于zk的简洁性,验证其推理的证明将变得廉价且快速。这里的挑战不在于验证者,而在于证明者,因为随着模型规模的增长,RAM消耗和证明生成时间会迅速增加。某些证明系统(例如使用sumcheck协议和分层算术电路的基于GKR的系统)或组合技术(例如将Plonky2与Groth16相结合,Plonky2在证明时间方面效率高但对于大型模型的高效证明大小较差,而Groth16在复杂模型的复杂度上不会导致证明大小增长)更适合处理这些问题,但在zkML项目中管理权衡是一个核心挑战。 在对抗攻击方面,仍然有待努力。首先,如果一个无信任的协议或DAO选择实施一个模型,在训练阶段仍然存在对抗攻击的风险(例如训练模型以在看到特定输入时表现出特定行为,这可能被用来操纵后续的推理)。联邦学习技术和训练阶段的zkML可能是最小化这种攻击面的一种方式。 另一个核心挑战是当模型保护隐私时存在模型盗窃攻击的风险。虽然可以混淆模型的权重,但在给定足够的输入输出对的情况下,从理论上讲,仍然有可能反向推导出权重。这主要是对小规模模型的风险,但仍然存在风险。 智能合约的可扩展 尽管在将这些模型优化为在zk的限制条件下运行时存在一些挑战,但改进工作正在以指数速度进行,一些人预计在进一步的硬件加速下,我们很快就能与更广泛的机器学习领域达到同等水平。为了强调这些改进的速度,zkML从0xPARC在2021年展示了如何在可验证电路中执行小规模MNIST图像分类模型的演示,到Daniel Kang在不到一年后为ImageNet规模的模型做同样的工作的论文。在2022年4月,这个ImageNet规模的模型的准确性从79%提高到92%,并且像GPT-2这样的大型模型在近期内有望成为可能,尽管目前的证明时间较长。 我们认为zkML是一个丰富而不断发展的生态系统,旨在扩展区块链和智能合约的能力,使其更加灵活、适应性强和智能化。 尽管zkML仍处于早期开发阶段,但它已经开始显示出有希望的结果。随着技术的发展和成熟,我们可以期待在链上看到更多创新的zkML用例。 来源:金色财经
lg
...
金色财经
2023-06-13
财报分析 | AI 赋能的下一代搜索:百度的新增长引擎
go
lg
...
应的代码,并对代码进行检查和优化,比如
Python
、Java、C++等。 文本生成:根据用户的输入或主题,自动生成各种类型和风格的文本内容,比如小说、诗歌、广告、论文等。 内容创作:根据用户的需求和喜好,自动创作各种类型和形式的内容,比如音乐、视频、图片等。 一般推理:根据用户提供的信息或问题,自动进行逻辑推理和判断,并给出合理的答案或建议,比如数学题、谜语、道德问题等。 其他:可以应用于其他领域和场景,比如教育、娱乐、社交、医疗等。 1.2 移动生态 百度移动生态的核心是百度App,是中国第一的搜索加信息流应用程序,2022年12月拥有6.48亿的MAU及每日登录率超过80%。与大多数移动应用程序不同,百度总计通过其自有的AI支柱,来自第三方应用程序及网站的汇总内容和服务可将流量直接引向封闭生态系统,亦可将流量直接引向具有类似于本地应用程序体验的第三方内容及服务供应商。 根据开放式平台模型,百度总计利用百家号账户,智能小程序及托管页的网络合作伙伴,持续发展其庞大的第三方内容及服务。百度于AI及强大知识图谱开发方面积累的数十年经验使其能够在开放平台上将用户意图与长尾,第三方内容及服务进行匹配。 移动生态中包括数十个应用程序,其中包括百度App、好看视频及百度贴吧,为公众提供通过搜索及信息流发现及消费信息并与内容创作者,发布者,服务提供商及商户交流与互动的平台。从用户获取到用户关系管理再到闭环交易的类似于本地应用程序的体验,向商家展示百度的价值,令他们能够在平台上进行用户生命周期管理,亦使百度总计成为搜索及信息流的领先在线营销服务供应商。 在移动生态业务中,百度为50万名客户提供服务,使其能够利用庞大的用户群。百度主要通过提供全面有效的营销服务来满足客户需求,并从中变现。这部分收入主要来自提供搜索,信息流及其他营销服务,占2020年,2021年及2022年总收入的大部分。 被广泛使用的还有AI技术开发创新营销服务(例如动态广告),为各搜索用户推荐最适合的营销客户产品。百度的营销云亦为营销客户提供创新AI能力,以便用户于非营业时间仍可进行产品咨询,且百度大脑可自动与客户进行对话以促成交易。此外,在百度平台发展的用户活动及用户登录,令公司能够丰富除在线营销外的变现方法,比如百度健康。 1.3 智能驾驶 百度智能驾驶与其他增长计划包括有发展前景及巨大市场机遇的业务,部分业务处于商业化初期,客户群不断增长。百度作为智能驾驶及智能设备领域的市场领导者,正凭借其独特的AI能力,数据洞察力及内部研发芯片寻求快速增长机会。 萝卜快跑提供共享无人车服务,萝卜快跑在国内大陆向十个以上城市的公众开放。2022年,萝卜快跑供应的无人驾驶出行服务订单超过1.5百万单。到2023年1月底,萝卜快跑累计向大众提供的无人驾驶出行服务订单超过2百万单。自2021年11月25日起,萝卜快跑已开始在北京的开放道路上开始收费运营,于2022年7月20日,萝卜快跑获得了在开放道路上就提供无人车服务(方向盘后面无安全人员)收费的许可。2022年12月30日,萝卜快跑首批获准在北京开展全无人自动驾驶测试,令百度在首都的公共道路上向公众提供无人车服务更近一步。 百度在自动驾驶领域强劲的品牌及市场领导力已延伸至智能驾驶领域。阿波罗是汽车制造商公认的品牌。公司已经搭建与许多国内外个汽车品牌的合作,采用百度阿波罗汽车解决方案为其乘用车赋能。根据IDC、Strategy Analytics和Canalys,小度于2022年前9个月在全球智能屏出货量及中国智能音箱出货量中排名第一。由百度自主研发的AI芯片是针对百度大脑和特定AI用途定制的,以改善性能与降低成本,而百度也相信相关计划将增强收入长期增长动力。 02 业绩概览 2022财年,百度核心业务营收为954亿元人民币,与2021年基本持平。其中,在线营销业务营收为695亿元人民币,同比下降5.95%。 非在线营销收入方面,2022年的整体营收为259亿元人民币,同比增长22%,主要由云计算和其它基于AI驱动的业务推动。 • 百度2022年Q4营收331亿,与2021年同期持平 • 从2021-2022年各季度数据来看,百度2022年第四季度营收为331亿元,基本与2021年同期持平,较第三季度的325.4亿元增长2%。 其中,2022年第四季度来自百度核心的收入为257亿元,来自爱奇艺的收入为76亿元。 • 百度2022年Q4成本与费用284.84亿,同比降8% • 百度2022年第四季成本与费用为284.84亿元,较上年同期的311亿元降8%。 其中,百度2022年第四季度成本为169亿元,较上年同期下降2%;销售、管理费用为59亿元,较上年同期下降9%;研发费用为57亿元。公司销售及管理费用、研发费用、财务费用占营业收入比重分别为16.6%、18.9%、-1.5%,研发费用率较2021年同期保持稳定,销售及管理费用率有所下降。 • 百度Q4运营利润46亿,运营利润率16% • 百度2022年第四季度运营利润为46亿元,其中,百度核心的运营利润为38亿元,运营利润率为16%;百度2022年第四季度Non-GAAP下运营利润为65亿元,Non-GAAP下百度核心的运营利润为55亿元,实现了同比增长。 百度2022年第四季度其他收益为18亿元,其中有一项长期收益,达16亿元。 • 百度Q4净利50亿,较上年同期大幅改善 • 同样从2021-2022年各季度数据来看,百度2022年第四季度归属于公司的净利润为50亿元,较上年同期大幅改善;百度2022年第四季度Non-GAAP下归属于公司的净利为54亿元。 百度2022年第四季Adjusted EBITDA为82亿,adjusted EBITDA率为25%;其中,百度核心Adjusted EBITDA为71亿,adjusted EBITDA率为28%。 截至2022年12月31日,百度持有现金、现金等价物、受限制现金、短期投资为1853亿元。 2.1 利润增加的主要原因是降本增效与精简运营 2022财年百度公司收入成本为639亿元,同比上一财年同期的643亿元,该项成本下降1%。销售、一般与行政成本2022财年为205亿元,同比下降17%,财报称该项下降是由于渠道支出、促销营销和人员相关费用的减少。 财报显示,得益于持续的降本增效、精简运营,2022年下半年,百度核心经营利润(非美国通用会计准则)同比增长14%;在国内公共卫生防控冲击宏观经济的第四季度,百度经营利润、经营利润率也均实现同比增长。 2.2 基本盘广告业务收入有所下滑,搜索市场份额依旧遥遥领先 财报中显示,搜索引擎广告的在线营销收入有波动,在四个季度中,分别占总营收的55.3%、57.7%、57.5%、56.2%;核心业务中移动生态依然贡献了大部分营收。2022年,百度核心营收为954亿元人民币。其中,在线广告营销收入为695亿元人民币,同比下降6%。 由于公共卫生防控反复影响了线下经济活动,广告主削减预算,百度来自广告的收入减少。财报中显示,活跃在线营销客户数由2021年的约53.5万名减至2022年的约52万名,而每名客户平均收入由2021年的约人民币13.8万元减至2022年的约人民币13.4万元。根据《2022年中国互联网广告数据报告》,2022年,中国互联网广告市场规模预计约为5088亿元,较2021年下降6.38%。 随着2022年12月公共卫生防控政策放开后,移动业务的增长让百度广告业务有了回春的迹象。李彦宏的内部信提及,2022年12 月,百度App月活用户数达到6.48亿,同比增长4%。财报数据显示,百度托管页(Managed Page)的收入占广告收入的48%,同比增长了约40%。 2022年,百度在搜索市场的份额依然遥遥领先,且APP月活跃用户指标保持了正增长。根据statcounter统计数据,百度去年仍以超过85%的超高份额位居中国移动搜索市场份额位居榜首。而截至年末,百度APP月活跃用户达到6.48亿,同比增长4%。 「百度在新发布的2023年一季度财报中披露,百度智能云首次实现了盈利」 百度智能云在2023年一季度实现了盈利(non-GAAP),收入同比增长8%至42亿元。与此同时,百度智能云持续为关键客户构建标准化、规模化的人工智能解决方案,推动了智能云利润的增长。 2.3 非在线营销收入整体营收增长迅速,主要由智能云、AI业务推动 2022年,百度核心营收中,非在线营销收入259亿元,同比增长22%,占该年度总营收的21%。代表着智能云及其他AI业务的非在线营销收入呈总体上升趋势,在四个季度中,分别占总营收的20.07%、20.6%、20%、23%。 同时财报显示,2022年百度核心研发费用达到214.16亿元,占百度核心收入的22.4%。其中Al业务是重中之重。 一方面,作为百度AI to B业务的承载者,百度智能云通过对行业特定痛点的理解,提供深入核心场景的标准化AI解决方案,实现了市场份额的领先。“云智一体” 战略体现出更强竞年力百度智能云已连续四年AI公有云市场第一,2022年上半年在Al公有云服务市场份额占比28.1%。 另一方面,百度自动驾驶业务稳步推进。自动驾驶开放平台Apollo正式推出全新升级版本8.0;自动驾驶出行服务平台萝卜快跑订单量同比大增162%,截至2023年1月底,萝卜快跑累计订单量超过200万单,稳居全球最大的自动驾驶出行服务提供商。 2.4 百度在卸下包袱,而文心一言则是国内最有可能复刻ChaGPT的产品之一 2022年百度核心研发费用达214.16亿元,占比百度核心收入比例的22.4%,已官宣加入百度文心一言生态圈的企业达400+家,AI已成为百度大厦中愈发重要的一块基石,真金白银的持续投入,也正在转化为产业化成果。 文心在大模型已进入ERNIE 3.0系列、跨模态系列等底座模型日渐成熟,模型层基础扎实。2022年11月底,飞桨平台上己凝聚535万开发者、创建67万个Al模型,服务20万家企事业单位,在AI内容生态上都为文心一言提供了多元的使用场景。 对于百度来说,文心一言发布后,能够直接应用于自身产品的使用中,提升产品力。百度的搜索业务、智能驾驶业务都将受到加持,百度智能云也接入文心一言,提升B端服务能力。除此之外智能语音、数字人等都将通过文心言获得新的可能。 03 AIGC角度市场分析 3.1 大模型成为AI领域基础设施 自2022年Stable Diffusion模型的进步推动AIGC的快速发展后,年底,ChatGPT以“破圈者”的姿态,快速“吸粉”亿万,在全球范围内掀起了一股AI浪潮,也促使了众多海外巨头竞相发布属于自己的大模型。 而在国内,百度、阿里、华为、腾讯等公司也已在浪潮赶来之前就有所布局: 2019年,阿里开始布局大模型研发,去年9月发布“通义”大模型系列的众多大模型;华为在2021年基于昇腾AI与鹏城实验室联合发布了鹏程盘古大模型,是首个全开源2000亿参数中文预训练语言模型,在知识问答、知识检索、知识推理、阅读理解等文本生成领域表现突出;而腾讯的思路也与阿里相似,发布了混元AI大模型;第二梯队的京东、网易、360、字节跳动等企业,也纷纷官宣了自己在AI大模型方面的布局。此外,北京智源人工智能研究院推出1.75万亿参数的悟道2.0,可以同时处理中英文和图片数据。浪潮信息和中科院也分别推出了相应的大模型等。 其中,百度是国内最早推出大模型的大厂。 2023年3月,基于该高性能集群,百度推出大语言模型文心一言,并不断迭代出新的能力。随着文心一言的发布,成为了中国第一个类ChatGPT产品后,各家的大模型也纷纷亮相,一时间,国内仿佛陷入了“大模型之战”中。 目前,国内各大企业AI大模型系列主要的NLP语言大模型、CV大模型、多模态大模型已陆续推出并实现部分应用落地。百度文心大模型、华为盘古大模型、商汤大模型、阿里大模型都已陆续亮相。 • 百度与阿里对比 • 百度文心大模型:包含NLP大模型、CV大模型、跨模态大模型、生物计算大模型、行业大模型等。与Bing类似,文心一言有望优化C端用户搜索、创作体验;ToB方面,百度已开放大模型API接口,在文案、AI作画、开放域对话方面赋能企业。对于具体行业,百度推出文心行业大模型,以“行业知识增强”为核心特色。 阿里巴巴通义大模型:由通义-M6模型融合语言模型和视觉模型组成,率先应用在硬件终端天猫精灵和软件通义千问。通义大模型包括统一底座“M6-OFA”,三大通用模型“通义-M6”“通义-AliceMind”“通义-视觉大模型”,以及行业层面的不同垂直领域专业模型。在应用上,天猫精灵基于通义大模型推出拟声助手“鸟鸟分鸟”;对话式通义千问已经开始内测。 作为国内大模型训练规模最大的两家巨头,百度的文心大模型与阿里的通义千问形成对标,基于当前的发展也积累出了一些对比: C端功能势均力敌,B端服务能力阿里更具优势 首先,在面对用户提出的问题时,通义千问与文心一言在绝大多数情况都可以给出较为正确的回答,在面对C端用户的提问时,两个产品显示出了不相上下的实力。而在C端的势均力敌之下,阿里却祭出了同类竞品难以比拟的B端服务能力。 通义千问在C端用户之外,专门针对企业用户发出了邀请共测,企业可基于通义千问打造专属大模型,在企业专属的大模型空间中,既可以调动通义千问的全部能力,也可以结合企业自己的行业知识和应用场景,训练自己的企业大模型。 具体而言,除了通用场景之外,企业由于业务特性的不同,对于大模型服务有特殊需求和要求,通义大模型如果变成企业专属的大模型,可以支撑企业各式各样的应用与服务。 阿里云希望通过产品化的方式,满足企业专属大模型从生成到部署全生命周期的需求。 百度文心一言的核心优势是对中文的理解 对比来看,百度的优势体现在文心大模型在国内市场格局中较为领先。根据IDC发布《2022中国大模型发展白皮书》,百度文心大模型在市场格局中在产品能力、生态能力、应用能力等方面在国内较为领先。 文心一言核心优势是对中文的理解。百度作为中国语境的搜索龙头,拥有有更多的中文语料数据参与训练。比如,文心一言可以针对“洛阳纸贵”这种容易产生歧义的成语,给出较为贴切的解释。可以用成语写出藏头诗,用四川话读出文 章。 总的来说,两个模型在自然语言处理领域都有其独特的优势和不足,难以直接进行比较。但是,可以肯定的是,它们的出现和发展表明了中国在自然语言处理领域的实力和创新能力。 3.2 大模型背后的算力之争 人工智能的基础层是数据和算力,数据由服务器和光模块存储和运输;算力由CPU、GPU、FPGA、ASIC等芯片支撑。 根据前瞻产业研究院的数据,未来几年内,中国人工智能芯片市场规模将保持年均40%至50%的增长速度,到2024年,市场规模将达到785亿元。 数字经济时代,算力无处不在。以芯片、服务器、云计算提供商为主的市场主体,共同构成算力产业的大图景。 中国算力产业正在进入新一轮发展周期,有两个变量将影响中国企业的全球竞争力。第一个变量是2022年全面启动的“东数西算”政策,目的是让算力像水电一样便宜简单易用,同时希望中国企业在国际产业链占据主动权。第二个变量是AI让智能算力需求爆发,智能计算正在重塑云、软件、芯片产业,还在影响其他产业的智能化转型。 中国拥有算力资源的两大主力军分别是国资背景的三大电信运营商(中国移动、中国电信、中国联通)、民营背景的几大科技公司(阿里、腾讯、华为、百度),两大主力军背后,是一条包括设备服务商、芯片供应商、芯片制造商的庞大算力产业链。如果力量分散且失衡,中国算力产业会在关键时刻被拉开差距。 ◎ AI模型数据规模增长,AI算力需求井喷 当前算力距离AI应用存巨大鸿沟。根据Open AI数据,模型计算量增长速度远超人工智能硬件算力增长速度,存在万倍差距。英特尔表示,目前的计算、存储和网络基础设施远不足以实现元宇宙愿景,而要想实现真正的元宇宙,目前的计算能力需量要再提高1000倍。 ◎ AI芯片作为算力的核心,规模保持高速增长 AI芯片为算力的核心,专门用于处理AI应用中大量计算任务的模块。根据艾瑞咨询,2022年中国人工智能芯片市场规模达到396亿元,预计2027年市场规模将达到2164亿元,CAGR为40.5%。国内AI智算中心等数字化基础设施不断完善,AI模型复杂度和参数量的快速提升,对计算能力要求不断提高,高性能人工智能芯片市场将保持高速增长。 3.3 AI应用场景日渐丰富,产业链成长空间广阔 大模型借助“预训练+精调”等模式,用相比较大模型更少量的数据即可对下游应用赋能。预训练大模型基于海量数据的完成了“通识”教育。在具体应用场景下,借助“预训练+精调”等模式,应用模型用相比较大模型更少量的数据即可进行相应微调,高水平完成细分应用的任务。 企业由此借助AIGC技术提高生产效率,降低生产成本,利好下游垂类应用企业,目前AI应用领域:家居、金融、医疗、安防、交通、零售等; 伴随着ChatGPT的出现,带来的文本生成、代码生成、图像生成等能力将有效赋能至下游,减少人工成本,提高办公效率,有效助力企业降本增效;目前国内大厂加快多模态大模型的研发落地,并与众多企业合作,下游应用场景将不断拓展,未来人工智能具备广阔的市场空间。 04 未来发展展望 • 优异成绩令市场瞩目,各大机构纷纷上调了业绩预测 • 高盛、大摩、摩根大通、美银、瑞银、法巴银行等大型国际机构都给出了“买入”评级。各大机构观点表示,百度广告业务将随着经济复苏而回暖改善,2023年下半年或实现增速转正;智能云业务将继续领跑行业、保持高于行业的增速;智能驾驶则将成为长期业绩的积极推动因素,推动股价向上。 在本次财报中,百度董事会还授权了一份总值50亿美元的股票回购计划,有效期持续至2025年12月31日。2023年至今,百度股价已飙升近40%。 • 文心一言的发布至关重要,与百度智能云、搜索服务的结合将会给国内AIGC带来新的可能 • 目前,百度的主营业务仍是搜索,但AI正在为百度的营收提供有力支撑。 随着未来“文心一言”与现有业务实现有机结合,百度将迎来巨大红利期。生成式AI产品不仅能在短时间内带来DAU和用户使用时长的爆发,长期来看还将促进搜索的代际变革,丰富内容生态和供给,优化搜索体验,创造下一代流量入口。 云业务的发展趋势将是更加智能化,仅非带宽和算力的简单提升。文心大模型或颠覆云服务市场的现状,而生成式AI技术将为百度智能云业务打开新的成长和想象空间。另外,大模型技术未来与自动驾驶的结合还将进一步提升自动驾驶的安全性和可靠性,搭载到Apollo智驾平台则可以优化新一代人车语音交互体验。 百度非常重视生成式AI的机会,认为通过整合文心一言、百度App,特别是百度搜索,将增强用户体验。文心一言提供的新功能将有助于吸引新用户并提高用户参与度,同时也会提高广告商对百度的兴趣,推动长期收入增长。 • 百度在全球AI领域的布局具备前瞻性,新的增长值得期待 • 百度在全球大厂中率先发布对标ChatGPT的大模型产品文心一言,具备在全球AI领域布局的前瞻性。并且,文心一言内测一个多月,就完成了4次大的技术升级,大模型推理性能提升近10倍。 百度创始人、董事长兼首席执行官李彦宏在5月4日百度内部活动中表示,百度之所以能够在Google、Meta、Amazon等大厂之前率先发布生成式大模型产品,是因为百度在芯片、框架、模型、应用等四个层面做到全栈布局、层层领先。 李彦宏:未来文心一言将通过百度智能云对外提供服务,这将是百度“云智一体”战略的里程碑,也意味着云市场游戏规则的根本性改变。云服务从数宇时代跃迁至智能时代,之前选择云厂商更多看算力、存储等基础云服务,未来,更多会看框架好不好、模型好不好,以及模型、框架、芯片、应用之间的协同。 目前,已经有包括互联网、媒体、金融、保险、汽车、企业软件等行业的400多家头部企业宣布加入百度“文心一言”生态。随着文心一言等通用AI产品的技术迭代和成本降低,未来百度智能云将突破更多核心场景。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-06-12
“MBK公链”生态系统:探索去中心化数字经济的前沿
go
lg
...
支持多个操作系统,以及Java、Go、
Python
、C++等多种语言的开发工具,开发者可以根据自己的需要选择适合的系统和工具进行开发。 3.DApp应用 DApp是MBK公链生态系统中的另一个重要部分,是去中心化应用程序,是基于区块链技术构建的。MBK公链支持去中心化交易、数字身份认证、智能合约和数字化资产等应用。在这些应用上,MBK公链为用户提供了更加简便快捷的交易和管理方式。 4.基础设施 基础设施是MBK公链生态系统中的重要组成部分。这包括了各种数据中心、服务提供商、节点管理和交易所。 三、MBK公链助力去中心化数字经济的发展 MBK公链作为一种去中心化的公共系统,具有匿名和安全,低廉而快速处理债务的惊艳特点。随着我国数字经济的蓬勃发展,MBK公链作为数字化基础设施的发展也趋向成熟,将大大助力去中心化数字经济的发展和创新。下面将从金融、治理、数据隐私保护和产业升级等方面介绍MBK公链的应用。 来源:金色财经
lg
...
金色财经
2023-06-08
项目周刊 | 五月份比特币网络的矿工总收入达9.166亿美元
go
lg
...
机构提供 Typescript 和
Python
SDK。dYdX 表示,将开源所有前端代码库和相关部署脚本,允许任何人通过自己的域 / 托管解决方案轻松部署 dYdX 前端。 Avalanche 月活用户数突破 100 万,创历史新高 5月31日消息,据 Avascan 数据显示,Avalanche 五月活跃用户数量约为 107 万,为 Avalanche 主网上线以来首次突破 100 万。 Circle已将所有美国国债从其USDC支持储备中剔除 金色财经报道,稳定币发行方Circle Internet Financial已将所有美国国债从其USDC支持储备中剔除,作为预防措施的一部分,以防止迫在眉睫的美国债务上限摊牌可能带来的影响。 LSD协议unshETH的合约部署私钥被泄露,已紧急暂停提款并联系黑客 6月1日消息,LSD协议unshETH发推表示,5月31日22:00左右,unshETH合约的其中一个部署私钥被泄露。出于谨慎起见,官方紧急暂停了unshETHETH的提款,根据我们的安全模型,unshETHETH存款(TVL达3500万美元)由多重签名+时间锁保护,并不处于风险之中。 此外一些附属协议合约(农场、跨链桥等)已经受到了攻击,正在与来自Coinbase、Stargate、Paladin Blockchain Security、Github以及ogle等白帽安全专家合作,以确保用户资金的安全,并预计影响范围将受到限制。同时官方已经联系黑客,试图协商返还资金和合约所有权,以限制对现有用户的影响。 金色财经此前报道,据多位KOL发推表示,LSDFi项目unshETH的金库出现安全问题,提醒用户将资金转出。原因系合约Owner被篡改,已通知项目官方,但官方尚未做出回复。 Orbiter Finance:Discord被黑客攻击,请勿点击任何链接 6月1日消息,Layer2 跨 Rollup 桥 Orbiter Finance 发推表示 Discord 被黑客攻击,正在尽力解决,请用户不要相信 Discord 服务器中的任何内容,请勿点击任何链接。 数据:莱特币昨日链上转账总额继续上涨56.27% 6月1日消息,据Tokenview数据显示,莱特币昨日链上转账总额达1.42亿LTC,环比前日上升56.27%。距离莱特币减半预计还有62天。届时区块奖励将从12.5 LTC减少到6.25 LTC。 Circle将于6月8日在Arbitrum推出原生USDC 6月1日消息,Circle 将于 2023 年 6 月 8 日开始在 Arbitrum 推出原生 USDC,Arbitrum 称该代币将成为 Arbitrum 生态系统内认可的 USDC 官方版本,并将最终取代目前流通的来自以太坊的 USDC 桥接版本。Arbitrum 宣布在 6 月 8 日原生 USDC 推出之前,Arbitrum 将在区块浏览器上将 USDC 的以太坊桥接版本重命名为USDC.e。 LINA未平仓合约总额已达1.8亿美元,超过其市值 金色财经报道,据Coinglass数据显示,LINA未平仓合约总额已达1.8亿美元,超过其1.4亿美元的市值。 NFT平台Universe已停止开发,将在GitHub公开源代码 6月2日消息,DefiLlama 创始人 0xngmi 发推表示,在查看一些 NFT 市场时发现 NFT 平台 Universe 上个月关闭了,现在网站已经变成报错页面。而 Universe 在 5 月 17 日发推表示,项目将在 5 月停止开发(但任何人都可以接手),并且所有未公开源代码的内容将会在 GitHub 上公开。 免责声明:金色财经作为区块链资讯平台,所发布的文章内容仅供信息参考,不作为实际投资建议。请大家树立正确投资理念,务必提高风险意识。 来源:金色财经
lg
...
金色财经
2023-06-04
专访 Starknet 创始人:仰望星空 脚踏实地
go
lg
...
用 Solidity,并不是因为它比
Python
、Rust 或 C++有更好的开发者体验。相反,它的开发者体验更差,但是当你转移到有区块链基础设施的新框架时,你就必须使用不同的编程语言,Solidity 很好,因为它可以有效地编译到以太坊虚拟机。我再给一个例子。如果你想利用 GPU 写出真正好的图形,你应该用 CUDA 写,因为这是一种可以最大程度地利用 GPU 性能的语言。 对 STARK 证明也是一样的。有一个不同的虚拟机,就有一套关于什么使得某件事有效或无效的不同约束条件。如果你想达到 STARK 证明所能达到的性能,比如在以太坊的一个区块中放入一百万个 NFT,你就必须更有效地使用编程语言。我们可以在 Immutable X 上的一个证明中铸造一千万个 NFT,我无法想象任何基于 EVM 或任何 zkEVM 能够接近我们能放入区块链单个证明中的内容。我可以挑战全世界的 zkEVM,他们不会做到的。这就是为什么你需要一个不同的计算模型和一个不同的编程语言。 BlockBeats:但许多曾在 Polkadot 等采用 Rust 语言的生态项目普遍会向我反馈运营成本的问题,因为聘请或者培训一个懂得用 Rust 语言开发合约的工程师代价非常高昂。另一方面,如果团队在以太坊或者在兼容 EVM 的 L1 上开发项目,那就非常便宜。您怎么看待这个情况?这对 Starknet 生态来说是一个问题吗? Eli:这可能是个问题,但开发者正在涌向 Cairo 和 STARK。开发者和团队的数量每天都在增加,我认为他们看到了潜力。很多人理解了规模化的问题,并问自己最好最具有前瞻性的解决方法是什么,是什么真正开放了全球需求的扩展性,我认为他们中的很多人得出了正确的结论,那就是走 Starknet 和 Cairo 1.0 的道路。 这里有个类比,通常你会用
Python
写你的软件的第一个版本,但是当你想要实现规模化时,你就需要用 C++、WASM、Rust 等其他一些非常高效的语言来写。我认为在 Cairo 上也会发生完全相同的事情,你可能会拿 Solidity 代码部署到 Kakarot,但这就像用
Python
写一个高频交易引擎一样,是不应该的。你需要用另一种语言写,那种其他的语言就将会是 Cairo。 BlockBeats:现在也有一些项目基于 Starknet 开发 zkEVM。 Eli:是的,有非常好的项目正在构建 StarNet 上的 ZK-EVMs。第一个叫做 Warp,由 NetherMine 团队制作,这个团队非常优秀。第二个叫做 Kakarot,这是一个正在形成的社区。 Kakarot 就是一个 ZK-EVM,它是建立在 Cairo 之上的。所以我非常确定大多数的 ZK-EVM 将部署在 Starknet 上。如果你已经有了把你的 Solidity 代码或 EVM 代码移植到 L2 上,一个有效性 Rollup 的想法,你最好的方式是在 Kakarot 或 Warp 之上做。所以这再次展示了 Cairo 和 Starknet 的力量。 ZK Rollup 的赛道竞争和 Starknet 的生态开发 BlockBeats 在采访中还提及了 ZK Rollup 之间的竞争,以及 Starknet 自身生态发展的问题。作为整个加密行业中技术含量和要求最高的领域,普通用户似乎很难分别 zkSync 和 Starknet 之间的优劣。对大多数人来说,实际情况是谁更会「来事儿」就看好谁。从这个层面来看,StarkWare 以技术创新为核心驱动的理念似乎给 Starknet 出了难题。Eli 本人是如何看待 ZK Rollup 之间的竞争?他对 Starknet 生态的发展又有哪些期许? BlockBeats:在当前的 ZK Rollup 赛道,Starknet 和 zkSync 是绝对龙头,二者之间似乎也存在着很强的竞争关系。在您看来,Starknet 和 zkSync 之间的区别是什么,Starknet 的优势在哪里? Eli:你必须问自己,最好的技术步骤在哪里?哪个地方最可能汇集最多的开发者,并提供最好、最安全的技术?我们在 zkSync 之前就展示了我们的能力,他们很会讲故事,但他们讲的故事和开发者的体验之间有很大的不匹配。我有一个建议,我鼓励正在阅读这篇文章的开发者试一试在 zkSync 上开发或部署一些东西,并试一试在 Starknet 上开发和部署一些东西,你会感到有一个鲜明的差别。 我来告诉你一个故事,有人之前在 Reddit 上问谁做一个能进行 30 万次交易的东西,我们在主网上做到了,TPS 大约在 3000 左右。一两周后,zkSync 团队出来说,我们有 3000TPS,但是这 3000TPS 从未被测量、证明或展示过,不过它是一个很好的故事。在这个行业里有许多人乐意讲故事,也有人展示事实,我们以展示事实的能力自豪。 BlockBeats:也有用户反馈,目前在 ZK Rollup 上转移资产或者交互的 Gas 很高,这是为什么? Eli:目前由于需求量很大,Starknet 出现了拥堵现象。两周内我们将发布 12 版本,这将极大地提高 TPS,解决大部分的需求。然后在下一个版本中,当我们完全集成 Volition 以进行链下数据处理时,价格将大幅度降低,这可能会在一两个月后发生。 BlockBeats:提到生态开发者,确实有人反应在生态发展方面 Starknet 比 zkSync 更加平衡。 Eli:没错,这是更好更深入的技术理解的结果。我们已经在这个领域耕耘了很长时间,在生产环境中部署过内容,并磨练了系统。我们知道我们在做什么。但我们不太会讲故事,很少炒作。我们就像特斯拉,特斯拉没有营销部门,我们的产品就是我们的营销。 StarkWare Sessions 2023 大会现场,图源来自 StarkWare BlockBeats: 但在 Web3 领域,懂得营销的团队似乎更吃香。许多技术驱动型项目在生态发展中都多少出现了问题不是吗? Eli:不,我认为这不是接下来会发生的事情。我之所以这样认为,是因为以太坊就是这样发展过来的。有一天,会有一个非常成功的 App 明了 Starknet 的能力。那个 App 是什么,我现在不知道。如果要我猜,我认为它不是目前已经存在于 L1,且可以轻松复制粘贴到 L2 上的产品。 所以我认为它会使每个人都会看到并谈论它,因为这全新的、在 L1 甚至是其他 L2 上都无法实现的应用。这将会成为转折点,开发者会蜂拥而至。正因如此,我们把大部分注意力放在这里,我们这次来 EDCON,就是为了接触到更多开发者,邀请他们加入我们的生态。因为他们当中,将会有人创造出我无法预测的美妙之物。 BlockBeats:对准备在 Starknet 生态进行开发的开发者,您对他们有什么方向上的建议吗?Starknet 能为他们提供什么? Eli:我无法为他们回答这个问题,即使我给出了答案,他们也不应该听我的,他们应该自己决定他们自己。我认为有些东西是惊人的,在 Starknet 上建立数据库基础设施,像高级 Oracle 服务、Proof of Humanity、社交网络等,有很多真正令人惊奇的事情可以做,他们应该研究一下,找出他们认为缺失的东西,或者他们认为最有趣的东西是什么。 Starknet 是区块链演变的下一步,这是一个非常重要的步骤。如果你是一个开发者,Starknet 将会准备好供用户使用,我们正在为最终的用户构建它。我认为我们有一个非常清晰的前进道路,更多的开发者还有很多工具要建立,还有很多事情要做。有很多的机会让你脱颖而出,并通过努力工作为自己赢得名声。 BlockBeats:在最后,您还有什么想和读者说的话? Eli:如果有一台时间机器,你可能会希望回到以太坊的早期,构建几乎你想建的任何东西都会非常成功,比如第一个预测市场、第一个钱包等。但游戏并未结束,还有下一代机会,而这一代的赢家我认为将是 Starknet。所以现在除了拥有一台时间机器,大家还可以去了解一下 Starknet,现在是时候了。 来源:金色财经
lg
...
金色财经
2023-06-02
上一页
1
•••
19
20
21
22
23
•••
30
下一页
24小时热点
终于承认了!美国经济3年来首次萎缩 特朗普向中国、商界领袖关键发话……
lg
...
中美突发重磅!路透:中国列出免征125%关税美国进口商品“白名单”
lg
...
突破美国贸易封锁!中美突发重大信号:中国找到规避特朗普关税的管道?
lg
...
黄金突遭猛烈抛售在原因在这!金价暴跌43美元 中美贸易谈判突传一则大消息
lg
...
中美关税谈判突传重大进展!比特币站上9.5万、黄金3233避险降温 市场紧盯非农报告
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
32讨论
#链上风云#
lg
...
86讨论
#VIP会员尊享#
lg
...
1926讨论
#CES 2025国际消费电子展#
lg
...
21讨论