全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
Filecoin
(FIL)价格激动人心?市场震荡中或迎涨势1000%+?
go
lg
...
Filecoin
(FIL)是由Protocol Labs支持的去中心化存储网络和加密货币,旨在提高世界数字信息的存储效率、安全性和可用性。自2020年10月推出以来,随着对数据存储解决方案的高效需求的不断增长,
Filecoin
价格再次呈现出引人注目的上涨势头。 尽管近几周,
Filecoin
与全球加密货币市场同时经历了严重的调整,但许多专业人士认为这种下跌可能是短期的。然而,仍然存在一个问题:
Filecoin
的价格是否会迅速回升? 在本文中,我们将研究可能导致
Filecoin
再次上涨或下跌的因素,公开的 FIL 价格是否会保持稳定或快速回升做出一些预测。
Filecoin
的最新网络发展
Filecoin
虚拟机(FVM)于今年正式推出,为
Filecoin
网络引入了独特的存储利用层。这一令人激动的发展标志着
Filecoin
生态系统迈向新的里程碑,FVM为开发者提供了一种创新的方式,可以定制适合个人需求的存储解决方案。 通过FVM,开发人员可以在外部掌控其应用程序的云原生数据,并通过可定制的智能合约提高了Web服务的效率和可扩展性。这种新的虚拟机为
Filecoin
的进一步发展和生态系统的扩展提供了强大的工具。 影响FIL价格的因素
Filecoin
的价格在很大程度上受到其他加密货币相同的影响因素的影响。与任何资产或商品一样,营收和需求是推动价格最重要的市场力量。 市场投机和投资者情绪在任何特定时间影响单个代币的价值。由于加密货币是相对较新的资产类别,与股票或大宗商品等更成熟的市场相比,可用的研究和理解要少因此预测其未来表现可能会很困难。 除了考虑趋势之外,比特币的成功还对包括
Filecoin
在内的众多山寨币产生了影响。如果比特币保持强势,可能会导致人们对
Filecoin
等其他代币的兴趣增加,这将在短期内进一步推高价格。 当前
Filecoin
市场分析 今天,
Filecoin
的价格为3.34美元,过去24小时的交易量为86,788,598美元。
Filecoin
的价值今天下跌了0.31%。在CoinMarketCap上,目前排名第31位,总市值为14.8亿美元。流通中的代币数量为4.5亿枚,而该代币没有设定最大供应量。 2021年4月21日,FIL的价值达到历史最高值237.62美元,较2020年12月30日的历史最低值19.95美元高出不少。FIL的可用价值为1.1487亿美元,但最高值为19.7亿美元。 然而,自去年以来,该代币一直承受着巨大的看跌压力,并一直低于其发行价11美元。 2023年
Filecoin
还能涨吗? 根据我们对 2023 年底
Filecoin
的预测,
Filecoin
的价格可能会在 2.94 美元至 13.01 美元的范围内波动,平均成本约为 7.99 美元。预测显示,到 2023 年 10 月,FIL 的价格区间可能为 3.27 美元至7.88美元。 到2024年12月,
Filecoin
的预测价格预计将大幅上涨至50.20美元。从技术指标来看,长期市场趋势看涨。
Filecoin
上个月的价格变动幅度为6.26%,30天或15天以正值计算结束。 根据历史趋势,分析师预计
Filecoin
在2024年的交易价格可能在5.63美元至55.38美元的范围内波动,未来可能会上涨。 结论
Filecoin
(FIL)的未来价格如何变化尚不确定。加密货币市场的不可预测性和活跃性令人非常。这意味着无论该项目进行了多少研究、分析或预测,未来都存在许多不确定性性。 投资任何高度投机性的资产(如FIL)时最好保持观望态度。在做出任何投资决策之前,投资者应始终进行充分的尽职调查,并了解所涉及的风险。 来源:金色财经
lg
...
金色财经
2023-11-30
Kernel Ventures:一文解析 DA 和历史数据层设计
go
lg
...
括 Bitcoin,Ethereum,
Filecoin
中,节点存储方式为 Leveldb 数据库。在 Leveldb 中,数据以三种方式存储。首先是即时写入的数据会存储在 Memtable 类型文件中,当 Memtable 存储满了后则会将文件类型从 Memtable 改为 Immutable Memtable。这两种类型的文件均存储在内存中,但是 Immutable Memtable 文件无法再做更改,只能从中读取数据。IPFS 网络中使用的热存储就是将数据存储在了这个部分,当要调用时就可以快速从内存读取,但是一个普通节点的移动内存往往都是 GB 级别,很容易就会写慢,并且当节点出现宕机等异常情况后,内存中的数据便会永久丢失。如果希望数据持久存储,则需要以 SST 文件的形式存储到固态硬盘(SSD),但读取数据时需要先将数据读到内存,因而大大降低数据索引速度。最后,对于采取了分片存储的系统,其数据还原时需要向多个节点发送数据请求并进行还原,这个过程也会降低数据的读取速度。 Leveldb 数据存储方式,图片来源:Leveldb-handbook 2.4 DA 层通用性 随着 DeFi 的发展,以及 CEX 的种种问题,用户对于去中心化资产跨链交易的要求也不断增长。而无论是采取哈希锁定,公证人还是中继链的跨链机制,都避免不了对两条链上历史数据的同时确定。这个问题的关键在于两条链上数据的分离,不同的去中心化系统中无法实现直接沟通。因而现阶段通过改变 DA 层存储方式提出了一种解决方案,既将多条公链的历史数据存储在同一条可信的公链上,验证的时候只需要在这条公链上调用数据即可。这需要 DA 层能够与不同类型的公链建立安全的通信方式,也就是 DA 层具有较好的通用性。 3. DA 相关技术探索 3.1 Sharding 传统的分布式系统中,一份文件不会以完整的形式存储在某一个节点上,而是将原始数据分成多个 Blocks 后在每一个节点中存储一个 Block。并且 Block 往往不会仅存储在一个节点上,而是会在其他节点上留有适当的备份,现有主流分布式系统中,这个备份数量通常设置为 2。这种 Sharding 机制可以减少单个节点的存储压力,将系统的总容量扩展为各个节点存储量的总和,同时又通过适当的数据冗余确保存储的安全性。区块链中采取的 Sharding 方案大体与之类似,但在具体细节上会存在不同。首先是由于区块链中默认各个节点是不可信的,实现 Sharding 的过程中需要足够大的数据量备份以供后续数据真实性的判断,所以这个节点的备份数量需要远超过 2。理想情况下,在采用这种方案存储的区块链系统中,如果验证节点总数为 T,分片数量为 N,那么备份数量应该为 T/N。其次是对 Block 的存储过程,传统分布式系统中节点较少,因而往往是一个节点适配多个数据块,首先是通过一致性哈希算法将数据映射到哈希环上去,然后每个节点存储某个范围内编号的数据块,并且可以接受某个节点在某次存储中并没有分配存储任务。而在区块链上,每个节点是否分配到 Block 不再是随机事件而是必然事件,每个节点都会随机抽取一个 Block 进行存储,这一过程通过将带有区块原始数据与节点自身信息的数据哈希后的结果对分片数取余完成。假设每份数据被分为了 N 个 Blocks,每个节点的实际存储大小仅为原来的 1/N。通过适当设置 N,可以实现增长的 TPS 和节点存储压力的平衡。 Sharding 后的数据存储方式,图片来源:Kernel Ventures 3.2 DAS(Data Availability Sampling) DAS 技术是基于 Sharding 在存储方式上的进一步优化。在 Sharding 过程中,由于节点简单的随机存储,可能会出现某个 Block 丢失的情况。其次,对于分片后的数据,还原过程中如何确认数据的真实性与完整性也非常重要。在 DAS 中,通过 Eraser code 与 KZG 多项式承诺对这两个问题进行了解决。 Eraser code:考虑以太坊庞大的验证节点数量,某个 Block 没有被任何节点存储的概率几乎为 0,但是理论上来说仍然存在这种极端情况发生的可能。为了减轻这一可能造成的存储缺失的威胁,此方案下往往不直接将原始数据切分为 Block 进行存储,而是先将原始数据映射到一个 n 阶多项式的系数上,然后在多项式上取 2n 个点,并让节点从中随机选择一个进行存储。对于这个 n 阶多项式,只需要 n+1 个点便可以进行还原,因而只需要有一半的 Block 有被节点选中,我们便可以实现对原始数据的还原。通过 Eraser code,提高了数据存储的安全程度与网络对于数据的恢复能力。 KZG 多项式承诺:在数据存储中非常重要的一环便是对于数据真实性的检验。在没有采用 Eraser code 的网络中,校验环节可以采用多样的方法,但是如果引入了上文的 Eraser code 以提高数据安全性,那么比较合适的方法是使用 KZG 多项式承诺。KZG 多项式承诺可以直接以多项式的形式对单个 Block 内容校验,从而省去将多项式还原为二进制数据的过程,验证的形式总体与 Merkle Tree 类似,但是不需要具体的 Path 节点数据,只需要 KZG Root 与 Block 数据便可对其真伪进行验证。 3.3 DA 层数据校验方式 数据校验既确保从节点中调用的数据未被篡改且具有没有出现丢失。为了尽可能减少校验过程中所需要的数据量以及计算成本,DA 层现阶段采用树结构做为主流的校验方式。最简单的形式便是使用 Merkle Tree 进行校验,使用完全二叉树的形式记录,只需要保留一个 Merkle Root 以及节点路径上另一侧子树的哈希值便可以进行校验,校验的时间复杂度为 O(logN) 级别(如果 logN 不加底数默认为 log2(N))。虽然已经极大简化了校验过程,但是验证过程的数据量总体还是随着数据的增加而增长。为了解决增加的验证量问题,现阶段提出了另一种验证方式,Verkle Tree。Verkle Tree 中每个节点除了存储 value 还会附带一个 Vector Commitment ,通过原始节点的值和这个承诺性证明就可以快速对数据真实性进行验证,而不需要调用其他姐妹节点的值,这使得每次验证的计算次数只和 Verkle Tree 的深度有关,是一个固定的常数,从而大大加速了验证速度。但是 Vector Commitment 的计算需要同一层所有姐妹节点的参与,这大大增大了写入数据与更改数据的成本。但是对于历史数据这类做永久性存储而不能篡改的数据,只有读而没有写的需求,Verkle Tree 就显得极为合适了。此外 Merkle Tree 与 Verkle Tree 本身还有 K-ary 形式下的变体,其具体实现机制相似,只是改变了每个节点下子树的数量,其具体性能的对比可以见下表。 数据校验方式时间性能对比,图片来源:Verkle Trees 3.4 通用 DA 中间件 区块链生态的不断扩大,随之带来公链数量的不断增加。由于各条公链在各自领域的优势与不可替代性,短时间内 Layer1 公链几无可能走向统一。但是随着 DeFi 的发展,以及 CEX 的种种问题,用户对于去中心化跨链交易资产的要求也不断增长。因此,可以消除跨链数据交互中的安全问题的 DA 层多链数据存储得到了越来越多的关注。但是要接受来自不同公链的历史数据,需要 DA 层提供数据流标准化存储与验证的去中心化协议,比如基于 Arweave 的存储中间件 kvye ,采取主动从链上抓取数据的方式,可以将所有链上的数据以标准的形式存储至 Arweave,以最小化数据传输过程的差异性。相对来说,专门为某条公链提供 DA 层数据存储的 Layer2 通过内部共享节点的方式进行数据交互,虽然降低了交互的成本并提高了安全性,但是具有比较大的局限性,仅能向特定公链提供服务。 4. DA 层存储方案 4.1 主链 DA 4.1.1 类 DankSharding 这类存储方案暂时还没有确定的名称,而其中最突出的代表就是以太坊上的 DankSharding,因而本文中使用类 DankSharding 代称这一类方案。这类方案主要使用了上述的两种 DA 存储技术,Sharding 和 DAS。首先通过 Sharding 将数据分成合适的份数,然后再让每个节点以 DAS 的形式抽取一个数据 Block 进行存储。对于全网节点足够多的情况,我们可以取一个较大的分片数 N,这样每个节点的存储压力只有原来的 1/N,从而实现整体存储空间的 N 倍扩容。同时为了保证防止某个 Block 没有被任一区块存储的极端情况,DankSharding 对数据使用 Eraser Code 进行了编码,只需要一半的数据就可以进行完整还原。最后是对数据的检验过程,使用了 Verkle 树的结构与多项式承诺,实现了快速的校验。 4.1.2 短期存储 对于主链的 DA,一种最为简单的数据处理方式就是对历史数据进行短期存储。本质上来说,区块链所起的是一个公示账本的作用,在全网共同见证的前提下实现对账本内容的更改,而并没有永久化存储的需求。以 Solana 为例,虽然其历史数据被同步到了 Arweave 上,但是主网节点只保留了近两日的交易数据。基于账户记录的公链上,每一时刻的历史数据保留了区块链上账户最终的状态,便足以为下一时刻的更改提供验证依据。而对于这个时间段之前数据有特殊需求的项目方,可以自己在其他去中心化公链上或者交由可信第三方进行存储。也就是说对于数据有额外需求的人,需要对历史数据存储进行付费。 4.2 第三方 DA 4.2.1 主链专用 DA:EthStorage 主链专用DA:DA 层最重要的就是数据传输的安全性,这一点上安全性最高的便是主链的 DA。但是主链存储受到存储空间的限制以及资源的竞争,因而当网络数据量增长较快时,如果要实现对数据的长期存储,第三方 DA 会是一个更好的选择。第三方 DA 如果与主网有更高的兼容性,可以实现节点的共用,数据交互过程中也会具有更高的安全性。因而在考虑安全性的前提下,主链专用 DA 会存在巨大优势。以以太坊为例,主链专用 DA 的一个基本要求是可以与 EVM 兼容,保证和以太坊数据与合约间的互操作性,代表性的项目有 Topia,EthStorage 等。其中 EthStorage 是兼容性方面目前开发最完善的,因为除了 EVM 层面的兼容,其还专门设置了相关接口与 Remix,Hardhat 等以太坊开发工具对接,实现以太坊开发工具层面的兼容。 EthStorage:EthStorage 是一条独立于以太坊的公链,但其上运行的节点是以太坊节点的超群,也就是运行 EthStorage 的节点也可以同时运行以太坊,通过以太坊上的操作码便可以直接对 EthStorage 进行操作。EthStorage 的存储模式中,仅在以太坊主网保留少量元数据以供索引,本质上是为以太坊创建了一个去中心化的数据库。现阶段的解决方案中,EthStorage 通过在以太坊主网上部署了一份 EthStorage Contract 实现了以太坊主网与 EthStorage 的交互。如果以太坊要存入数据,则需要调用合约中的 put() 函数,输入参数是两个字节变量 key, data,其中 data 表示要存入的数据,而 key 则是其在以太坊网络中的标识,可以将其看成类似于IPFS中 CID 的存在。在(key,data)数据对成功存储到 EthStorage 网络后,EthStorage 会生成一个 kvldx 返回给以太坊主网,并于以太坊上的 key 对应,这个值对应了数据在 EthStorage 上的存储地址,这样原来可能需要存储大量数据的问题现在就变为了存储一个单一的 (key,kvldx)对,从而大大降低了以太坊主网的存储成本。如果需要对之前存储的数据进行调用,则需要使用 EthStorage 中的 get() 函数,并输入 key 参数,通过以太坊存储的 kvldx 便可在 EthStorage 上对数据进行一个快速查找。 EthStorage 合约,图片来源:Kernel Ventures 在节点具体存储数据的方式上,EthStorage 借鉴了 Arweave 的模式。首先是对于来自 ETH 的大量 (k,v)对进行了分片,每个 Sharding 包含固定数量个(k,v)数据对,其中每个(k,v)对的具体大小也存在一个限制,通过这种方式保证后续对于矿工存储奖励过程中的工作量大小的公平性。对于奖励的发放,需要先对节点是否存储数据进行验证。这个过程中,EthStorage 会把一个 Sharding(TB 级别大小)分成非常多的 chunk,并在以太坊主网保留一个 Merkle root 以做验证。接着需要矿工首先提供一个 nonce 来与 EthStorage 上前一个区块的哈希通过随机算法生成出几个 chunk 的地址,矿工需要提供这几个 chunk 的数据以证明其确实存储了整个 Sharding。但这个 nonce 不能随意选取,否则节点会选取出合适的 nonce 只对应其存储的 chunk 从而通过验证,所以这个 nonce 必须使得其所生成的 chunk 经过混合与哈希后可以使难度值满足网络要求,并且只有第一个提交 nonce 和随机访问证明的节点才可以获取奖励。 4.2.2 模块化 DA:Celestia 区块链模块:现阶段 Layer1 公链所需执行的事务主要分为以下四个部分:(1)设计网络底层逻辑,按照某种方式选取验证节点,写入区块并为网络维护者分配奖励;(2)打包处理交易并发布相关事务;(3)对将要上链的交易进行验证并确定最终状态;(4)对于区块链上的历史数据进行存储与维护。根据所完成功能的不同,我们可以将区块链分别划分为四个模块,即共识层、执行层、结算层、数据可用性层(DA 层)。 模块化区块链设计:很长一段时间,这四个模块都被整合到了一条公链上,这样的区块链称为单体区块链。这种形式更加稳定并便于维护,但也给单条公链带来了巨大的压力。实际运行过程中,这四个模块之间互相约束并竞争公链有限的计算与存储资源。例如,要提高处理层的处理速度,相应就会给数据可用性层带来更大的存储压力;要保证执行层的安全性就需要更复杂的验证机制但拖慢交易处理的速度。因此,公链的开发往往面临着这四个模块间的权衡。为了突破这一公链性能提升的瓶颈,开发者提出了模块化区块链的方案。模块化区块链的核心思想是将上述的四个模块中的一个或几个剥离出来,交给一条单独的公链实现。这样在该条公链上就可以仅专注于交易速度或者存储能力的提升,突破之前由于短板效应对于区块链整体性能造成的限制。 模块化 DA:将 DA 层从区块链业务中剥离出来单独交由一条公链复杂的方法被认为是面对 Layer1 日益增长历史数据的一种可行解决方案。现阶段这方面的探索仍处于早期阶段,目前最具代表性的项目是 Celestia。在存储的具体方式上,Celestia 借鉴了 Danksharding 的存储方法,也是将数据分成多个 Block,由各个节点抽取一部分进行存储并同时使用 KZG 多项式承诺对数据完整性进行验证。同时,Celestia 使用了先进的二维 RS 纠删码,通过 kk 矩阵的形式改写原始数据,最终只需要 25% 的部分便可以对原始数据实现恢复。然而,数据分片存储本质上只是将全网节点的存储压力在总数据量上乘以了一个系数,节点的存储压力与数据量仍然是保持线性增长。随着 Layer1 对于交易速度的不断改进,节点的存储压力某天仍可能达到一个无法接受的临界。为了解决这一问题,Celestia 中引入了 IPLD 组件进行处理。对于 kk 矩阵中的数据,并不直接存储在 Celestia 上,而是存储在 LL-IPFS 网络中,仅在节点中保留该数据在 IPFS 上的 CID 码。当用户请求某份历史数据时,节点会向 IPLD 组件发送对应 CID,通过该 CID 在 IPFS 上对原始数据进行调用。如果在 IPFS 上存在数据,则会经由 IPLD 组件和节点返回回来;如果不存在,则无法返回数据。 Celestia 数据读取方式,图片来源:Celestia Core Celestia:以 Celestia 为例,我们可以窥见模块化区块链在解决以太坊存储问题中的落地应用。Rollup 节点会将打包并验证好的交易数据发送给 Celestia 并在 Celestia 上对数据进行存储,这个过程中 Celestia 只管对数据进行存储,而不会有过多的感知,最后根据存储空间的大小 Rollup 节点会向 Celestia 支付相应 tia代币作为存储费用。在Celstia中的存储利用了类似于 EIP4844 中的 DAS 和纠删码,但是对 EIP4844 中的多项式纠删码进行了升级,使用了二维 RS 纠删码,将存储安全进行了再次升级,仅需 25% 的 fractures 便可以对整个交易数据进行还原。本质上只是一条存储成本低廉的 POS 公链,如果要实现用来解决以太坊的历史数据存储问题,还需要许多其他具体模块来与 Celestia 进行配合。比如 Rollup 方面,Celestia 官网上大力推荐的一种 Rollup 模式是 Sovereign Rollup。不同于 Layer2 上常见的 Rollup,仅仅对交易进行计算和验证,也就是完成执行层的操作。Sovereign Rollup 包含了整个执行和结算的过程,这最小化了 Celestia 上对交易的处理,在 Celestia 整体安全性弱于以太坊的情况下,这种措施可以最大提升整体交易过程的安全性。而在以太坊主网 Celestia 调用数据的安全性保障方面,当下最主流的方案是量子引力桥智能合约。对于 Celestia 上存储的数据,其会生成一个 Merkle Root(数据可用性证明) 并保持在以太坊主网的量子引力桥合约上,当以太坊每次调用 Celestia 上历史数据时,都会将其哈希结果与 Merkle Root 进行比较,如果符合才表示其确实是真实的历史数据。 4.2.3 存储公链 DA 在主链 DA 技术原理上,向存储公链借鉴了类似 Sharding 的许多技术。而在第三方 DA 中,有些更是直接借助存储公链完成了部分存储任务,比如 Celestia 中具体的交易数据就是放在了 LL-IPFS 网络上。第三方 DA 的方案中,除了搭建一条单独的公链解决 Layer1 的存储问题之外,一种更直接的方式是直接让存储公链和 Layer1 对接,存储 Layer1 上庞大的历史数据。对于高性能区块链来说,历史数据的体量更为庞大,在全速运行的情况下,高性能公链 Solana 的数据量大小接近 4 PG,完全超出了普通节点的存储范围。Solana 选择的解决方案是将历史数据存储在去中心化存储网络 Arweave 上,只在主网的节点上保留 2 日的数据用来验证。为了确保存储过程的安全性 Solana 与 Arweave 链自己专门设计了一个存储桥协议 Solar Bridge。Solana 节点验证后的数据会同步到 Arweave 上并返回相应 tag。只需要通过该 tag,Solana 节点便可以对 Solana 区块链任意时刻的历史数据进行查看。而在 Arweave 上,不需要全网节点保持数据一致性,并以此作为参与网络运行的门槛,而是采取了奖励存储的方式。首先 Arweave 并没有采用传统链结构构建区块,而更类似一种图的结构。在 Arweave 中,一个新的区块不仅会指向前一个区块,还会随机指向一个已生成的区块 Recall Block。Recall Block 的具体位置由其前一区块与其区块高度的哈希结果决定,在前一区块被挖出之前,Recall Block 的位置是未知的。但是在生成新区块的过程中,需要节点具有 Recall Block 的数据以使用 POW 机制计算规定难度的哈希,只有最先计算出符合难度哈希的矿工才可以获得奖励,鼓励了矿工存储尽可能多的历史数据。同时,存储某个历史区块的人越少,节点在生成符合难度 nonce 时会有更少的竞争对手,鼓励矿工存储网络中备份较少的区块。最后,为了保证节点在 Arweave 中对数据做永久性存储,其引入了 WildFire 的节点评分机制。节点间会倾向于与可以较快的提供更多历史数据的节点通信,而评分等级较低的节点往往无法第一时间获得最新的区块与交易数据从而无法在 POW 的竞争中占取先机。 Arweave 区块构建方式,图片来源:Arweave Yellow-Paper 5. 综合对比 接下来,我们将从 DA 性能指标的四个维度出发,分别对 5 种存储方案的优劣进行比较。 安全性:数据安全问题的最大的来源是数据传输过程中导致的遗失以及来自不诚信节点的恶意篡改,而跨链过程中由于两条公链的独立性与状态不共享,所以是数据传输安全的重灾区。此外,现阶段需要专门 DA 层的 Layer 1 往往有强大的共识群体,自身安全性会远高于普通存储公链。因而主链 DA 的方案具更高的安全性。而在确保了数据传输安全后,接下来就是要保证调用数据的安全。只考虑用来验证交易的短期历史数据的话,同一份数据在临时存储的网络中得到了全网共同的备份,而在类 DankSharding 的方案中数据平均的备份数量只有全网节点数的 1/N,更多的数据冗余可以使得数据更不容易丢失,同时也可以在验证时提供更多的参考样本。因而临时存储相对会有更高的数据安全性。而在第三方 DA 的方案中,主链专用 DA 由于和主链使用公共节点,跨链过程中数据可以通过这些中继节点直接传输,因而也会有比其他 DA 方案相对较高的安全性。 存储成本:对存储成本最大的影响因素是数据的冗余数量。在主链 DA 的短期存储方案中,使用全网节点数据同步的形式进行存储,任何一份新存储的数据需要在全网节点中得到备份,具有最高的存储成本。高昂的存储成本反过来也决定了,在高 TPS 的网络中,该方式只适合做临时存储。其次是 Sharding 的存储方式,包括了在主链的 Sharding 以及第三方 DA 中的 Sharding。由于主链往往有更多的节点,因而相应一个 Block 也会有更多的备份,所以主链 Sharding 方案会有更高的成本。而存储成本最低的则是采取奖励存储方式的存储公链 DA ,此方案下数据冗余的数量往往在一个固定的常数附近波动。同时存储公链 DA 中还引入了动态调节的机制,通过提高奖励吸引节点存储备份较少的数据以确保数据安全。 数据读取速度:数据的存储速度主要受到数据在存储空间中的存储位置、数据索引路径以及数据在节点中的分布的影响。其中,数据在节点的存储位置对速度的影响更大,因为将数据存储在内存或 SSD 中可能导致读取速度相差数十倍。存储公链 DA 多采取 SSD 存储,因为该链上的负载不仅包括 DA 层的数据,还包括用户上传的视频、图片等高内存占用的个人数据。如果网络不使用 SSD 作为存储空间,难以承载巨大的存储压力并满足长期存储的需求。其次,对于使用内存态存储数据的第三方 DA 和主链 DA,第三方 DA 首先需要在主链中搜索相应的索引数据,然后将该索引数据跨链传输到第三方 DA,并通过存储桥返回数据。相比之下,主链 DA 可以直接从节点查询数据,因此具有更快的数据检索速度。最后,在主链 DA 内部,采用 Sharding 方式需要从多个节点调用 Block,并对原始数据进行还原。因此相对于不分片存储的短期存储方式而言,速度会较慢。 DA 层通用性:主链 DA 通用性接近于零,因为不可能将存储空间不足的公链上的数据转移到另一条存储空间不足的公链上。在第三方 DA 中,方案的通用性与其与特定主链的兼容性是一对矛盾的指标。例如,对于专为某条主链设计的主链专用 DA 方案中,其在节点类型和网络共识层面进行了大量改进以适配该公链,因而在与其他公链通信时,这些改进会起到巨大的阻碍作用。而在第三方 DA 内部,与模块化 DA 相比, 存储公链 DA 在通用性方面表现更好。存储公链 DA 具有更庞大的开发者社区和更多的拓展设施,可以适应不同公链的情况。同时,存储公链 DA 对于数据的获取方式更多是通过抓包主动获取,而不是被动接收来自其他公链传输的信息。因此,它可以以自己的方式对数据进行编码,实现数据流的标准化存储,便于管理来自不同主链的数据信息,并提高存储效率。 存储方案性能比较,图片来源:Kernel Ventures 6. 总结 现阶段的区块链正在经历从 Crypto 向更具包容性的 Web3 转换的过程中,这个过程中带来的不仅是区块链上项目的丰富。为了在 Layer1 上容纳如此多项目的同时运行,同时保证 Gamefi 和 Socialfi 项目的体验,以以太坊为代表的 Layer1 采取了 Rollup 和 Blobs 等方式来提高 TPS。而新生区块链中,高性能区块链的数量也是不断增长。但是更高的 TPS 不仅意味着更高的性能,也意味着网络中更大的存储压力。对于海量的历史数据,现阶段提出了主链和基于第三方的多种 DA 方式,以适应链上存储压力的增长。改进方式各有利弊,在不同情境下有不同适用性。 以支付为主的区块链对于历史数据的安全性有着极高的要求,而不追求特别高的 TPS。如果这类公链还处于筹备阶段,可以采取类 DankSharding 的存储方式,在保证安全性的同时也可以实现存储容量的巨大提升。但如果是比特币这种已经成型并有大量节点的公链,在共识层贸然进行改进存在巨大风险,因而可以采取链外存储中安全性较高的主链专用 DA 来兼顾安全性与存储问题。但值得注意的是,区块链的功能并不是一成不变而是不断变化的。比如早期的以太坊的功能主要也局限于支付以及使用智能合约对资产和交易进行简单的自动化处理,但是随着区块链版图的不断拓展,以太坊上逐渐加入了各种 Socialfi 与 Defi 项目,使以太坊向着更加综合性的方向发展。而最近伴随着比特币上铭文生态的爆发,比特币网络的交易手续费自 8 月以来激增了近 20 倍,背后反映的是现阶段比特币网络的交易速度无法满足交易需求,交易者只能拉高手续费使交易尽快得到处理。现在,比特币社区需要做出一个 trade-off,是接受高昂的手续费以及缓慢的交易速度,还是降低网络安全性以提高交易速度但违背支付系统的初衷。如果比特币社区选择了后者,那么面对增长的数据压力,相应的存储方案也需要做出调整。 比特币主网交易费用波动,图片来源:OKLINK 而对于综合功能的公链,其对 TPS 有着更高的追求,历史数据的增长更加巨大,采取类 DankSharding 的方案长期来看难以适应 TPS 的快速增长。因此,较为合适的方式是将数据迁移到第三方 DA 进行存储。其中,主链专用 DA 具有最高的兼容性,如果只考虑单条公链的存储问题,可能更具优势。但是在 Layer1 公链百花齐放的今天,跨链资产转移与数据交互也成为区块链社区的普遍追求。如果考虑到整个区块链生态的长期发展,将不同公链的历史数据存储在同一条公链上可以消除许多数据交换与验证过程中的安全问题,因此,模块化 DA 和存储公链 DA 的方式可能是一个更好的选择。在通用性接近的前提下,模块化 DA 专注于提供区块链 DA 层的服务,引入了更精细化的索引数据管理历史数据,可以对不同公链数据进行一个合理归类,与存储公链相比具有更多优势。然而,上述方案并未考虑在已有公链上进行共识层调整的成本,这个过程具有极高的风险性,一旦出现问题可能会导致系统性的漏洞,使得公链失去社区共识。因此,如果是区块链扩容过程中的过渡方案,最简单的主链临时存储可能更合适。最后,以上讨论都基于实际运行过程中的性能出发,但如果某条公链的目标是发展自身生态,吸引更多项目方和参与者,也有可能会倾向于受到自身基金会扶持和资助的项目。比如在同等甚至总体性能略低于存储公链存储方案的情况下,以太坊社区也会倾向于 EthStorage 这类以太坊基金会支持的 Layer2 项目,以持续发展以太坊生态。 总而言之,当今区块链的功能越来越复杂,也带来了更大的存储空间需求。在 Layer1 验证节点足够多的情况下,历史数据并不需要全网所有节点共同备份,只需要备份数量达到某个数值后便可保证相对的安全性。与此同时,公链的分工也变得越来越细致,Layer1 负责共识和执行,Rollup 负责计算和验证,再使用单独的一条区块链进行数据存储。每个部分都可以专注于某一功能,不受其他部分性能的限制。然而,具体存储多少数量或让多少比例的节点存储历史数据才能实现安全性与效率的平衡,以及如何保证不同区块链之间的安全互操作,这是需要区块链开发者进行思考和不断完善的问题。对于投资者而言,可以关注以太坊上的主链专用 DA 项目,因为现阶段以太坊已有足够多的支持者,不需要再借助其他社区扩大自己的影响力。更多的需要是完善与发展自己的社区,吸引更多项目落地以太坊生态。但是对处于追赶者地位的公链,比如 Solana,Aptos 来说,单链本身没有那么完善的生态,因而可能更倾向于联合其他社区的力量,搭建一个庞大的跨链生态以扩大影响力。因而对于新兴的 Layer1 ,通用的第三方 DA 值得更多的关注。 来源:金色财经
lg
...
金色财经
2023-11-29
Filecoin
Layer2未来已来, IPFS赛道再掀浪潮, 官方明牌空投活动, FIL能否再崛起?
go
lg
...
自2023年3月
Filecoin
虚拟机(FVM)正式上线以来,自此
Filecoin
区块链现已可通过 FVM 支持智能合约和用户可编程性。通过 FVM,开发者可部署智能合约,并规划数据存储、治理和在公开市场变现的方式。目前,
Filecoin
已部署超过3000个智能合约,
Filecoin
虚拟机(FVM)带来了以太坊式的智能合约支持的新用例,包括流动性质押、永久存储和去中心化计算。 据星球日报报道,SINSO和FILDAO在伊斯坦布尔举办的“Web3时代·
Filecoin
的未来之夜”的活动中展示了在数据存储和治理领域的重大进展,强调了
Filecoin
生态对Web3世界的重要性。 据悉,本活动聚焦
Filecoin
及其虚拟机(FVM)在构建Web3平台的角色。活动吸引了领域内的专家、开发者和投资者。特别嘉宾包括
Filecoin
Foundation的Clara Tsao和Protocol Labs的Colin Evran。 如何参与FILDAO?有什么新的机遇? FILDAO是协议实验室唯一指定官方社区,现在参与者质押FIL就能获得FILX空投奖励。 我们相信,随着
Filecoin
生态系统的不断发展和完善,尤其是在智能合约和FVM的推动下,FIL将再次展现其市场领导力。技术创新、合作伙伴关系的增强以及对Web3基础设施的持续贡献将推动FIL的价值上升。 来源:金色财经
lg
...
金色财经
2023-11-28
Filecoin
大翻身 牛市将至 99%跌幅会逆转吗?
go
lg
...
IPFS 和
Filecoin
概述。 文件系统(IPFS)是一种协议和网络,旨在以点对点的方式创建星际文件系统,用于存储和共享超媒体。 与传统的文件共享系统不同,IPFS建立在去中心化系统之上,用户不再从单一中央服务器获取数据,而是从多个分散节点获取数据。 这确保了更快、更具弹性的数据访问,并降低了中心化故障点的风险。 IPFS生态系统门户为这一革命性系统中的各种项目、工具和社区提供了全面的指南。 另一方面,
Filecoin
是一个去中心化存储网络,将云存储转变为算法市场。 工人通过向客户提供存储来存储
Filecoin
,而客户则花费
Filecoin
来雇用工人存储或分发数据。 这种共生关系确保了数据随着时间的推移被可靠地存储。 通过与Brave浏览器的集成,
Filecoin
进一步巩固了其在去中心化存储领域的地位,改变了游戏规则。 去中心化存储的意义及其对互联网的影响。 IPFS和
Filecoin
所带来的去中心化存储不仅是技术上的进步,也是对数据存储和访问方式的重大改变。 传统的互联网结构依赖于集中式服务器,这些服务器很容易受到中断、审查和数据泄露的威胁。 去中心化系统将数据分布在节点节点上,保证即使少数节点离线,数据仍然可访问。 Brave浏览器与Protocol Labs的合作体现了去中心化存储的实际应用。通过集成IPFS,Brave为用户提供了一种恢复弹性、更快速且抗审查的内容访问方式。这在网络基础设施有限或审查制度的划分非常重要。 此外,NFT(不可替代代币)的崛起凸显了可验证数据真实性和漏洞的重要性。像Pinata等平台正在利用IPFS确保NFT的元数据安全存储并可靠检索,从而完全消除了NFT元数据存储从本质上讲,去中心化存储正在重新定义互联网的结构,承诺未来数据不仅可以存储,还可以更优先于用户隐私、安全和自由的方式拥有、控制和访问。 IPFS生态系统 IPFS 生态系统门户的亮点。 IPFS生态系统门户是通往IPFS非法世界的入口,旨在为用户提供对IPFS网络中各种项目、工具和社区的全面意见。从IP及其FS核心概念的基础知识到高级主题,该门户主题了新手和经验丰富的IPFS需求者所需的信息宝库。 该门户的一个显着特点是强调社区推动的项目。它展示了多种应用程序,包括互联网文件扩展项目(如InterPlanetary Wayback Machine)和发布去中心化Web应用程序的Fleek平台。 此外,该门户强调了合作的重要性,正如2023年推出的IPFS生态系统工作组所展示的,该工作组致力于促进IPFS社区内部的增长和创新。在我的研究中,我还发现了其他创新解决方案,如Beloga和Distributed Press。其中,Distributed Press指导用户在全球网络上设置网站。 IPFS 生态系统工作组的作用及其 2023 年介绍。 IPFS生态系统工作组成立于2023年,是推动IPFS社区增长和发展的重要举措。该工作组致力于创建一个繁荣的生态系统,为项目、工具和社区提供合作、创新和推动IPFS推广的平台。 工作组的重要成就之一是建立了IPFS生态系统目录。该目录是一个精选列表,包括项目、工具和资源,确保开发人员和用户能够轻松访问IPFS社区中的最佳内容。从去中心化应用程序(dApp)到基础设施工具,该目录覆盖了广泛的IPFS相关举措。 此外,工作组在组织活动、参与者和黑客马拉松方面发挥着关键作用。这些活动促进了IPFS社区内部的合作、知识共享和创新。例如,工作组主办了有关IPFS Camp和2024年事物的时间安排的通过讨论,突显了其在计算IPFS生态系统未来方面的作用。 Brave 浏览器和去中心化网络 Brave 与 Protocol Labs 的合作以及 IPFS 的集成。 Brave是一款以隐私为中心的浏览器,拥有超过5700万用户,一直处于共识去中心化网络(dWeb)。从2021年1月开始,Brave与IPFS背后的组织协议实验室展开了一项变革性的合作。 此次合作将IPFS支持直接集成到Brave的桌面版本中,从而主流浏览器采用去中心化协议迈出了重要的一步。这种集成不仅为用户提供了更高效、更灵活的内容访问方式,还开启了全新的体验网络的方式。 通过利用IPFS,勇敢的用户现在可以从节点网络获取内容,而不再依赖集中式服务器。这种去中心化的方法保证了更快的内容交付、减少延迟并提高对审查的抵抗力。 Brave 中自动 NFT 钉扎的介绍及其意义。 在这个越来越被 NFT(不可替代代币)所吸引的世界中,Brave迈迈开创了一步,在其桌面版本 v1.51 中引入了自动 NFT 固定。这一功能会自动备份支持的NFT元数据到IPFS,确保它们在去中心化网络中持续可用。 这种功能的重要性无法过分强调。 一个常见的误解是NFT元数据存储在区块链上。事实上,大多数NFT集合完全将其元数据存储在IPFS等去中心化存储解决方案上。通过“固定”此元数据,勇敢确保文件无限期地存储在特定位置,供给间歇性检索。这不仅增强了NFT的价值,还解决了人们对NFT相关数据的持久性和可访问性的担忧。
Filecoin
的潜力及其与 Brave 钱包的集成。
Filecoin
,去中心化网络,已经无缝集成到Brave Wallet中,进一步放大了浏览器对去中心化网络的承诺。这种集成旨在彻底改变互联网上的数据、访问和分发的方式。 其中一个突出的功能是在 Brave 钱包中引入了
Filecoin
虚拟机(FVM)和
Filecoin
EVM(FEVM)。 FVM 为
Filecoin
带来了智能合约的强大功能,而 FEVM 则只允许以太坊和 Solidity 开发人员进行最少的修改即可在 FVM 上运行它们的合约。这种集成不仅简化了对去中心化存储解决方案的访问,还为跨链合约调用、去中心化金融、游戏等开辟了途径。外部,山寨币是百倍币的最大可能发源地。在这里,你只需要记住三个关键要点: WebTransport 和 libp2p WebTransport 简介其相对于 WebSocket 的优势。 WebTransport是由互联网工程任务组(IETF)和万维网联盟(W3C)合作开发的新兴传输协议和Web API。其主要目标是促进浏览器和服务器之间的低延迟通信,满足各种协议和实例,同时维护当代解决方案的安全标准。 多年来,WebSocket 一直是 libp2p 生态系统中浏览器连接的首选解决方案。然而,它也面临着一系列挑战,例如连接时间延长、双重加密导致效率低下以及延迟增加。 另外,在去中心化环境中为WebSocket获取有效的TLS证书也存在一些障碍。WebTransport正面解决了这些痛点。它拥有更快的连接时间、本机流复用、先进的丢失恢复机制和强大的拥塞控制。 此外,WebTransport 引入了一个新颖的验证选项,允许使用自签名 TLS 证书,使其成为 libp2p 等去中心化网络的更合适的选择。 深入研究 WebTransport 及其与 libp2p 的集成。 WebTransport的核心是通过标准的HTTP/3连接实现浏览器到服务器的通信。一旦建立连接,通过发送扩展的CONNECT请求,双方能够创建流并进行数据交换。这一机制保证了数据传输的无缝性和高效性。 WebTransport与libp2p的集成提供了该协议的多功能性和潜力。通过与WebTransport的集成,libp2p致力于增强浏览器的连接性,使得去中心化网络更容易访问和用户展示友好。同时WebTransport提供了许多优势,但需要注意的是,它不支持浏览器到浏览器的连接,而这正是WebRTC的优势所在。然而,libp2p正在积极努力集成WebRTC支持,以克服这一限制。这种集成将进一步提高去中心化网络的灵活性和性能。 WebTransport 的未来及其对去中心化网络的影响。 目前,IETF的WebTransport规范正在起草阶段。对于WebTransport的浏览器支持目前主要集中在Chromium。在libp2p生态系统中,WebTransport被视为go-libp2p和js-libp2p中的实验性功能。 WebTransport的整合开启了无数应用场景。它使得浏览器节点能够在去中心化网络中发挥完整的对等作用,推动浏览器扩展和加密钱包直接向区块链作业交易,并为去中心化的点对点视频流提供平滑通道。随着去中心化网络的不断演进作用,像WebTransport这样的协议将在塑造其发展轨迹方面发挥关键作用。 Pinata:彻底改变区块链相关内容 Pinata 概述及其使命。 Pinata已成为中心化存储领域的创新引领者。在面对区块链上存储大量数据的挑战时,Pinata积极去努力去克服这一领域的空白。尽管区块链在中心化信任验证方面Pinata 的平台提供了一个独特的解决方案,将链下数据连接到区块链的桥梁,以保证数据的完整性和可验证性。 Pinata 的核心使命在于简化开发者、创作者和区块链之间的交互。通过巧妙运用 IPFS 等 Web3 协议,Pinata 实现了去中心化存储的平等访问,从而变得更加美观和用户交互。 IPFS 在 Pinata 运营中的作用。 IPFS是Pinata兼容方式中模块的一部分。IPFS的内容锁定机制被戏称为“区块链果冻中的花生酱”,能够确保在分散系统之间实现无缝通信和验证。IPFS采用基于内容的它选择性,而不是传统的基于位置的巴勒斯坦。这意味着在请求数据时,系统根据内容而不是位置来检索数据。对于像Pinata这样的平台,这种方法无疑是无价之宝。确保一旦数据存储,就保持不可变,并可以可靠地检索,无论其实际位置在哪里。这不仅提高了数据的局限性,还保证了数据永久可访问,从而消除了对去中心化网络中数据持久性的担忧。 NFT、数据真实性和数据所有权的未来。 NFT(不可替代代币)的迅猛崛起突显了验证真实性和线程开始的重要性。NFT 为数据赋予了独特的“起源故事”,确保其线程、历史和真实性从一开始就可追溯。 Pinata 这样的平台位于革命性的前沿,通过利用 IPFS,确保 NFT 元数据存储和永久可访问。 借助NFT,数据话题超越了传统的范式。它为个人和实体提供了数据的真正话题,突破了传统网络的限制。 Pinata展望未来,设想任何数据或文件都可以独立存在,与NFT绑定,以确保绑定和历史记录可被验证。这种创新的潜力正在从艺术和娱乐到房地产和金融等各个行业重新定义。 结论:Pinata 的去中心化网络愿景。 Pinata 的创始人 Kyle Tutt 和 Matt Ober 对 IPFS 和去中心化网络的潜力充满乐观。他们设想未来数据不再只是简单的静态存储,而是以用户自主性、隐私和自由为优先,以主动拥有、控制和访问的方式存在。 随着去中心化网络的不断演进,像Pinata这样的平台将在定义其发展趋势方面发挥关键作用,确保数据仍然是卫生革命的核心。这意味着用户将增强主动权,能够更加个性化化和安全的方式管理和使用他们的数据。这种前景在塑造数字未来的同时,也在重新定义用户使用数据之间的关系。 现实世界的应用程序和用例 使用 IPFS 绕过审查。 在这个信息即力量的时代,自由获取和分享数据的能力至关重要。然而,全球许多地区都在采取严格的审查措施,希望这限制了信息的自由流动。在此背景下,IPFS成为引领的明灯。考虑到IPFS的去中心化属性,中心化实体很难审查或阻止内容。IPFS上的每一个数据都分布在多个节点上,确保即使一个访问点被封锁,数据也可以通过其他方式分配节点访问。 比如说,在政治动荡或社会运动时期,IPFS可以成为活动家、记者和公民分享信息的平台,而无需担心信息被删除。IPFS时事通讯中强调的全球化新闻项目证实了这种能力,引导用户在去中心化网络上建立网站,规避传统的审查。这为信息的自由流动提供了一条创新的道路。 NFT 在验证数据真实性和所有权方面的变革潜力。 NFT(不可替代代币)横扫数字世界,远不止局限于艺术和收藏品领域。NFT的核心在于提供一种验证数字资产真实性和流通的机制。平台如Pinata充分利用IPFS保证与NFT相关的元数据安全存储并永久可访问。 除了数字艺术之外,NFT在各个领域都表现出了变革潜力。在学术界,NFT可用于验证研究论文的真实性,确保原作者获得应有的荣誉。在娱乐行业,艺术家可以通过NFT维护其创作NFT正成为推动不同领域创新的有力工具,重新定义了数字资产的价值和权益保护。 Pinata 等平台在重塑互联网方面的作用。 随着去中心化网络的不断演进,像Pinata这样的平台在完善其发展统计上扮演着至关重要的角色。通过提供区块链和链外数据之间的无缝接口,Pinata使开发者、创作者和用户能够充分利用去中心化存储的威力。 同时,随着IPFS等Web3协议的整合,Pinata等平台正在推动去中心化网络访问的民主化。他们的努力使去中心化网络变得更加直观、用户友好,并为用户提供更广泛的服务。不仅加强了去中心化存储的价值构建,还为更加开放、灵活且以用户为中心的互联网开启了新的可能性。这是一条通向更加遏制和创新数字未来的道路。 挑战与未来之路 IPFS 和
Filecoin
当前面临的挑战。 尽管IPFS和
Filecoin
在去中心化网络方面革命取得了显着进展,但它们也面临着一些挑战。其中一个主要问题是网络的可扩展性。随着越来越多的用户加入IPFS网络和存储数据,确保一致的性能和搜索数据速度变得至关重要。 另一个挑战是采用率。技术专业社区已经接受了IPFS和
Filecoin
,但它们在主流应用方面仍处于初级阶段。尽管简化用户体验、改进文档并提供更用户友好的界面是获得更广泛接受的关键步骤。 另外,经济方面的挑战,尤其是
Filecoin
所面临的,也开始显现影响。解决这些挑战将有助于进一步推动去中心化网络的发展。 确定工人因为其存储贡献而获得充分的收益,同时保持用户能够负担的存储成本是需要维持的微妙平衡。 持续努力应对这些挑战。 IPFS 和
Filecoin
社区正在积极应对这些挑战。例如,2023 年 IPFS 生态系统工作组的推出展示了社区致力于促进增长和创新。该小组的目标是协作简化、分享最佳实践,并推动 IPFS 的更广泛采用。 在
Filecoin
方面,我们正在持续努力经济完善模型,确保对工人的公平补偿,同时保持用户承担的网络负担。与Brave等平台的合作以及与钱包流行的集成也朝着正确方向的重要一步,为更广泛的受众提供了去中心化存储的可能性。 IPFS 和
Filecoin
的未来发展和愿景。 IPFS和
Filecoin
的未来充满希望。随着去中心化网络的不断发展,这些平台将在其发展轨迹方面发挥关键作用。先进的传输协议如WebTransport的整合、NFT的崛起,以及对数据密钥和隐私密钥的重视,都是IPFS和
Filecoin
可以充分利用的趋势。 此外,随着越来越多的平台、应用程序和服务集成IPFS和
Filecoin
,网络效应将推动进一步的采用。愿景很明确:一个去中心化的互联网,数据不仅被存储,而且优先考虑用户自主、隐私和自由的方式拥有、控制和访问。这是一个数字未来的清晰愿景,IPFS和
Filecoin
积极推动实现这一愿景。 新互联网时代的黎明 数字景观正在经历一场巨大的变革。随着我们站在新互联网时代的风口浪尖,去中心化、数据共享和用户自治的原则正在逐渐成为焦点。像IPFS和
Filecoin
这样的平台不仅仅是技术奇迹。他们代表着一个更加开放、灵活、以用户为中心的互联网的愿景。然而,守护旅程才刚刚开始。正如IPFS时事通讯强调的那样,该社区充满活力、创新,并致力于突破可能的界限。从IPFS在Brave等流行浏览器中的集成,到NFT的崛起以及去中心化存储的承诺,这些里程碑都蕴含着巨大的经济意义,潜力巨大。然而,仍然存在一些挑战。可扩展性、采用率和模型是社区正在积极解决障碍。IPFS生态系统工作组等协作努力诠释了推动奋进的集体革命精神。这是一个充满希望的数字未来,IPFS和
Filecoin
等平台正在为实现而努力。 展望未来,愿景才十分清晰。在互联网上,数据不再受制于中心化实体,而是由用户自由访问、拥有和控制。在这个未来的互联网上,信任是根深蒂固的,而非事后考虑的。这个愿景得到了像IPFS、
Filecoin
以及许多相信更美好数字未来的创新者和梦想家的支持。 Protocol Labs,IPFS背后的组织,表达了这样的信念:“我们相信互联网已经成为人类最重要的技术。构建我们的协议、系统和工具来改进其工作方式。”通过深入研究2023年IPFS和
Filecoin
的状况,我们看到这种信念不仅仅是一个宣言;而是一个正在实践中的使命。这是一个充满活力的使命。 来源:金色财经
lg
...
金色财经
2023-11-24
浅谈重塑世界之区块链和AI的交汇
go
lg
...
化物理基础设施网络(DePINs),如
Filecoin
和Arweave,已建立了用于存储的系统,这些系统本身就包含区块链技术。 还有其他公司,如Gensyn和Together,致力于解决分布式网络模型训练的挑战,而Akash则推出了一个令人印象深刻的P2P市场,将过剩的计算资源与需求联系起来。 此外,Ritual以激励网络和模型套件的形式为开源AI基础设施的建设提供基础,将分布式计算设备连接起来,供用户进行推理和微调。 其中最重要的是,像Ritual、
Filecoin
或Akash这样的DePIN还可以创建一个更大、更有效的市场。他们通过向更广泛的供应端开放,包括能够释放潜在经济价值的被动供应商,或者将性能较差的硬件整合到与高水平同行竞争的池中来实现这一点。 技术栈的各部分都涉及不同的约束和价值偏好,并且对这些层进行规模性实战测试(特别是去中心化模型训练和计算的新兴领域)方面仍有大量工作要做。 然而,基于区块链的计算、存储甚至模型训练解决方案的基础已存在,这些解决方案最终可以与传统市场一较高下。 10、综上所述,加密技术和人工智能的结合已经成为最具前景的设计领域之一,影响到了从内容创作到企业工作流程及金融基础设施等方方面面。 我们相信在未来几十年内,这些技术将对世界进行重塑。最好的团队将结合基础设施、加密经济学和人工智能等技术,以提升产品/服务性能、实现全新行为或实现具有竞争力的成本结构。 加密技术为协作网络引入了前所未有的规模、深度和标准化数据粒度,而人工智能将信息池转换为相关背景或关系的向量。当这两个领域结合在一起时,可以形成一种独特的互惠关系,为去中心化未来的建设者奠定基础。 来源:金色财经
lg
...
金色财经
2023-11-22
探索DePIN的未来:揭示价值、创新和市场潜力
go
lg
...
IN 网络。Storj 的成功拥有比
Filecoin
更庞大的供应商基础,这体现了这种可访问的进入流程的积极影响。 通过本地化解决方案实现跨地区适应性增长 DePIN 可以同时有效地跨不同司法管辖区进行扩展。通过利用激励措施,DePIN 可以轻松发展其网络,绕过中心化实体的传统扩张流程。此外,DePIN 可以利用其去中心化结构在不同地理和人口社区提供量身定制的资源解决方案。这种灵活性确保了资源可以普遍获取并且与特定的当地市场需求高度相关。 具有集中配置的混合扩展 DePIN 可以采用灵活的扩展方法,结合分散式和集中式资源配置。例如,Storj 通过 Storj 控制的卫星集中访问和数据库管理来优化可扩展性。这种战略混合模型使个体运营商能够以最少的基础设施保护网络,从而获得更高的上线成功率,这一点从与
Filecoin
(约 3.8k)相比 Storj 庞大的提供商基础(约 514k )中可以看出。 从本质上讲,通过降低障碍并采用混合扩展方法,DePIN 为资源提供商和项目开发商等培育了一个更具包容性、全球响应性和动态适应性的生态系统。 3. 治理和安全 去中心化网络还可以实施更好的治理系统。在供需双方投资 DePIN 协议的用户可以通过投票和开放治理提案来表达自己的声音。这使得决策能够符合所有利益相关者的最大利益,并促进对利益相关者具有协同作用的提案。相比之下,中心化系统的决策完全由投资者驱动,投资者更关注个人的财务回报。 资源提供的免信任性、安全性和活跃性是 DePIN 所固有的。它们不会产生与集中式系统所需的安全性和高质量基础设施相关的高成本。即使某些节点发生故障,DePIN 网络也可以维持服务提供。相比之下,集中式服务提供商面临单点故障,如果其系统出现故障或妥协,可能会导致严重中断。2022年,各种云服务中断发生,例如Google Cloud在1月份延迟增加,Slack在2月份中断了三个小时。AWS 等中心化提供商在 2023 年 7 月面临两小时的中断由于停电。虽然不常见,但 DePIN 网络中的大多数节点单独宕机或受到损害的可能性要低得多,从而提供了更好的活性和安全保证。 然而,确保这些好处真正为利益相关者提供价值需要采取适当的措施。在构建 DePIN 时,还应考虑 DePIN 可能面临的一些因素和障碍,这也是 DWF Ventures 在 DePIN 协议中寻找的内容。 成功的潜在障碍和需要考虑的因素 虽然 DePIN 确实有潜力利用我们今天拥有的资源为需求方和供应方用户带来巨大的价值,但我们需要考虑几个因素来构成一个成功的 DePIN 项目。 需要考虑的一些关键因素: 扩展性能能力以匹配中心化玩家 易于入职和采用 代币经济学和激励措施的协调 1. 扩展性能能力以匹配中心化玩家 在解决经济效益的同时,DePIN 还必须确保与中心化参与者相比在性能方面的竞争力。DePIN 协议的性能是推动需求方采用的因素,这反过来又可以鼓励供应方采用。可以通过三种主要方式来管理 DePIN 协议的性能: 硬件和软件规格 可解决的需求 位置敏感度和密度 硬件和软件规格 硬件和软件规范涉及供应方参与者为了以令人满意的质量提供资源或服务而需要满足的要求。DePIN 可能需要专门的设备/程序来确保服务质量的一致性,或者允许与移动电话或笔记本电脑等更常见的设备兼容。需要专门的设备/程序可以提高最终用户的可靠性和正常运行时间,但会给服务提供商带来额外的进入障碍。在大多数情况下,性能是优先考虑的,因为如果服务需求强劲,那么对于服务提供商来说,任何进入壁垒通常都是值得的。 项目还可以选择成为其专用设备/程序的独家经销商,或与第三方合作外包生产/开发。外包可以促进竞争,从而有可能增强提供商的能力并降低成本。然而,如果不同供应商的生产过于分散,则存在质量问题的风险,或者如果供应商无法满足项目的要求,则可能存在供应短缺的风险。 例如,Helium 早在 2019 年就开始创建自己的热点,但到 2021 年底仅加入了约 15,000 个热点。2021 年初通过的一项提案允许第三方制造商加入,只要他们满足要求,这可能导致 2021 年初到 2022 年热点呈指数级增长。Helium 目前拥有超过 28 家制造商,这有助于去中心化并为用户提供更广泛的选择。其中一种更便宜的热点可以从Sensecap购买,价格仅为 130 美元左右,比原来的 Helium 热点便宜得多,后者的价格约为 495 美元。 可解决的需求 与中心化同行相比,许多 DePIN 缺乏的一个方面是这些更成熟的参与者提供的全套功能。AWS 等集中式云服务提供商为用户提供了一个大型工具生态系统,用于部署应用程序和开发产品,而如今许多 DePIN 更专注于单一服务,例如计算能力或数据存储。这显示了 DePIN 空间的增长潜力,以匹配中心化解决方案的功能范围。 OORT 正在朝这个方向迈出一步,通过为不同用例垂直和水平构建服务提供商网络来提供分散的计算和存储设施。OORT 通过拥有 3 层服务提供商来实现这一点: 存档节点:来自
Filecoin
、Storj、Crust 和 Arweave 的数据存储节点。 边缘节点:OORT 网络发布具有家用 PC 功能的设备,用于分散计算。 超级节点:腾讯云、阿里云、希捷等公有云和私有云服务提供商,满足更高端的计算和存储需求。 这意味着 OORT 可以提供全套云计算服务,同时保留去中心化的优势,因为任何对密集或简单计算以及大数据或轻数据存储的需求都可以由 3 层服务提供商中的一个或多个来满足。 位置敏感度和密度 对于某些项目来说,在特定地理区域内实现足够水平的用户密度对于确保其提供的服务的有效性和实用性至关重要。这类似于传统技术中的托管。对于严重依赖基于位置的数据和交互的服务(例如地图服务或叫车平台)来说尤其重要。 对于像 Hivemapper 这样的地图服务,在特定区域拥有高度集中的用户对于平台提供准确和最新的信息至关重要,这会影响产品的利用率。例如,Hivemapper 的大部分覆盖范围目前集中在美国和少数欧洲国家。由于东亚等地区的覆盖范围较为分散,Hivemapper 设立了赏金,作为MIP-2有针对性的测绘计划的一部分。为提案中列出的领域分配了额外奖励,以鼓励对这些领域进行更全面的覆盖。这是使 Hivemapper 能够与集中式替代方案相媲美的关键。 同样,对于网约车服务来说,在特定区域拥有足够数量的司机和乘客对于确保双方获得最佳体验至关重要。司机密度越高,意味着乘客的等待时间越短,可供选择的乘车方式也越多。Drife 就是一个例子,该公司主要致力于将司机引入班加罗尔的平台,迄今为止已招募了超过 10000 名司机。这可以确保乘客获得更好的用户体验,从而不断产生乘车需求来匹配司机的供应。因此,在特定地理区域实现足够的密度对于提高服务性能至关重要。 2. 易于入门和采用 提供商与网络互动的初始阶段是入职流程。虽然硬件规格发挥着重要作用,但获取必要硬件后的步骤也很重要。设置完成后,提供商必须监控硬件,以确保满足赚取奖励的必要条件。需要提供商被动或主动管理的项目将影响有动力加入的提供商数量。 例如,对于大多数用户来说,设置 Helium 热点相对简单。对于使用Sensecap的提供商来说,涉及打开设备和配置蓝牙的直观过程就足以开始赚取奖励。尽管一次性设置费为 15 美元,但它消除了与区块链交互的复杂性,使其对更广泛的潜在提供商更具吸引力。使用该应用程序的提供商可以在一个界面中轻松监控热点的状态,确保热点保持运行状态,从而被动地获得奖励。 相比之下,像 Spexigon 这样的项目需要用户在项目中发挥积极作用才能获得奖励。购买指定的无人机(DJI Mini 2,售价约 339 美元)后,用户必须亲自飞行并从其所在位置捕捉图像,同时确保符合当地法规。此外,由于 Spexigon 专注于捕捉不同地理区域的图像,因此用户的收入潜力可能会受到周围环境的限制。因此,可以加入 Spexigon 的用户数量受到多种因素的限制——从加入、法规到积极利用无人机以获得奖励的需要。 一般来说,易于导航和快速的启动程序将使该项目能够覆盖更广泛的受众。尽管如此,这取决于项目的具体要求和优先事项。对于受益于大量提供商(例如 Helium)的服务而言,这一因素比高质量提供商的管理更为重要。 3. 代币经济学和激励措施的结合 DePIN 协议应该仔细规划的最后一个重要因素是代币机制所实现的效用和价值流。一个伟大的产品需要一个同样好的代币模型,以确保所有利益相关者都受到某种方式的激励,从而使代币能够正确反映项目的价值。 首先,我们可以向 Chainlink 寻求经过尝试和测试的代币实用模型,以确定 DePIN 的基本代币框架。就 Chainlink 的代币效用模型而言,利益相关者与任何去中心化资源网络类似: 需求方用户(代币消费者) 供应方用户(代币的接收者和质押者) 团队和投资者(代币持有者) 需求方用户为 Oracle 服务支付 LINK 代币,而供应方用户则获得 LINK 代币以换取他们的服务。这以与产品需求直接相关的方式创造了对代币的需求。 供应方用户还需要抵押代币以保证服务质量,否则将面临大幅处罚。这鼓励了更高质量的服务,并创造了对代币的需求,而代币的需求与所有服务提供商的总体服务质量直接相关,而代币本身又取决于对产品的需求——更高的需求鼓励更多服务提供商提供更高质量的服务。 最后,代币需求有利于代币价格,这正是代币持有者所寻求的。这创造了二级市场投资者对代币的更多需求。 由此可见,需求方用户最不关心代币价格,而团队和投资者最关心。供应方用户处于中间位置,因为他们也通过质押的代币对代币价格有一定的敞口。无论如何,这个框架创造了一个场景,所有利益相关者都在支持代币价格方面发挥作用。 代币发行也必须进行规划。在大多数情况下,代币发行是作为吸引用户的早期激励活动的一部分而存在的。考虑到 3 个利益相关者,根据项目认为吸引这些用户加入网络的难度,在 3 个利益相关者之间分配代币激励是有意义的。当然,随着代币发行而来的是通货膨胀,因此项目还必须考虑如何管理代币发行和销毁。项目还必须小心,不要过度依赖代币发行来激励需求方用户,因为这些用户首先应该被优质的产品所吸引,这才是一切开始的地方。一般来说,代币激励应该更多地关注吸引供应方用户以满足对优质产品的需求。 一些 DePIN 还允许需求方用户通过其他方式进行支付。只要收到的付款用于购买代币来支付供应方用户,这就不会影响代币需求。实际上,这只是为需求方用户提供了选择支付渠道的灵活性。 对于协议本身来说,收入可以来自于从需求方向供应方用户支付的一部分费用,或者分别向需求方和供应方用户收取会员费或许可费。这些收入流可用于支付运营成本,任何多余的收入都可用于通过收入分享或回购和销毁机制进一步增加代币需求。项目还可以要求代币持有者质押代币或提供流动性,以从收入分成中受益,从而稳定代币价格或增加流动性。 塑造 DePIN 的下一个时代:我们正在寻找什么 在DWF Ventures,我们相信DePIN项目的成功在于特定元素的融合。这些元素包括符合项目资源需求的定制硬件规格。此外,强大的激励模型加上结构良好的代币经济学对于维持项目的生态系统至关重要。优先考虑为供应方和需求方参与者创造优化的用户体验也很重要。这确保了项目能够吸引并留住用户,最终有助于项目的整体成功和寿命。这些综合因素为 DePIN 计划的成功和可持续发展奠定了基础。 目前,我们看到现有的 DePIN 项目大多已经确立了前三个要素,因为大多数项目主要旨在激励供应方用户。可以理解的是,供应方用户对于最初的网络扩展至关重要。然而,投入大量资源来开发真正能满足需求的优质产品仍然很重要——而不仅仅是现有服务的去中心化替代品。 尽管如此,整个 DePIN 生态系统仍然相对新生。尽管项目已经建立多年,但我们预计将会有更多的创新,并且可能会出现一个改变游戏规则的协议。 来源:金色财经
lg
...
金色财经
2023-11-20
FileBOX中文区核心共识会议完美落幕迎来数字经济新篇章
go
lg
...
束。FileBOX生态系统的社区成员、
Filecoin
和ZKAmoeba等业界精英齐聚一堂,共同研讨数字经济发展的前景和方向。 FileBOX 生态深度合作展望未来 FileBOX团队首次揭示了节点升级计划,并详细介绍了生态系统拓展的蓝图。在会上,FileBOX代表表示,未来将逐步淘汰静态节点,但保持节点权益的不变,并将持续加强生态系统的安全性和可扩展性。
Filecoin
官方代表表示,将一如既往地支持 FileBOX,共同推动整个生态系统的升级和发展。 ZKAmoeba 本杰明在线分享技术创新 ZKAmoeba作为 FileBOX 的战略合作伙伴,在会上通过代表人本杰明的在线分享,强调了技术创新对于数字经济的重要性。他表示,ZKAmoeba将继续与 FileBOX 紧密合作,为 FileBOX 提供更多技术和创新支持。 FileBOX 未来发展规划揭晓 整个会议期间,FileBOX生态系统未来的发展规划也受到了关注。FileBOX团队表示,将加强社区自治机制,推动 FileBOX 生态系统的多元化发展。未来,FileBOX将进一步巩固其在数字经济领域的地位,成为更为强大的生态系统。 HelloTalk:FileBOX 生态的新里程碑 FileBOX会上宣布了其首个生态分支,引领数字经济新潮流——HelloTalk。HelloTalk是一款加密社交软件,致力于打破传统社交的界限,提供更加安全、稳定的社交体验。在 FileBOX 的支持下,HelloTalk已经正式开放注册,为用户创造一个高度私密、加密安全的社交平台。 FileBOX投资 200 万美金助力发展 FileBOX对 HelloTalk 的战略性投资不仅是对其未来潜力的看好,更是对构建安全、开放、创新数字经济的坚定信念。投资金额高达 200 万美金,旨在助力 HelloTalk 在短时间内实现迅猛发展,成为数字社交领域的佼佼者。也为用户提供了更多选择,为数字社交的未来描绘了更加美好的蓝图。期待 HelloTalk 在 FileBOX 的引领下,为用户带来更多令人惊喜的创新体验。 通过这次会议,FileBOX在社区共识的基础上,深度对接了
Filecoin
和 ZKAmoeba 的官方支持,为数字经济的发展开辟了更为广阔的前景。期待 FileBOX 在未来的征程中,继续创造出更多的辉煌成就。 来源:金色财经
lg
...
金色财经
2023-11-19
下个SOL(千倍机会)可能会再次从 CoinList 中出现
go
lg
...
高质量的代币销售而闻名。Solana、
Filecoin
、Near、Casper 等项目过去都通过 CoinList Launchpad 筹集过资金。CoinList 在启动项目的代币销售之前都会遵循最高程度的尽职调查。 最近推出: CoinList 自 2022 年以来已进行了 10 次代币销售。Axelar 是最成功的销售,筹集资金超过 5000 万美元。Archway 和 Chainflip 是最近推出的两个著名产品。我们来谈谈 CoinList 本次牛市中排名前 5 的项目。 1/ ArchwayHQ 代币:ARCH FDV:7888 万美元 当前投资回报率:0.44 倍 Archway 正在构建一个以开发人员为中心的第 1 层 (L1),该层将根据开发人员的 dapp 需求对其进行奖励。Archway 将与开发商分享 25% 的代币通胀。 Archway 是一个开发者优先的区块链,可以吸引大型生态系统。截至目前,Archway 上正在建设超过 60 个项目,其中包括NodeOps_App。 $ARCH在接下来的 12 个月内将有大约 12% 的浮动供应量,他们现在为 ARCH 质押提供大约 16% 的年利率。这可能会导致市场供应减少 12 个月,而需求增加可能有助于价格上涨。 2/ Chainflip 代币:$FLIP(尚未推出) Chainflip正在为BTC和其他主要链构建跨链原生AMM Dex,并将获得超过150个验证者的支持。有些人称其为 Thorchain 杀手,所以你最好留意它。 3/ NeonLabsOrg 代币:$NEON FDV:$5.06 亿美元 当前投资回报率:5.13 倍 Neon EVM 允许开发人员在 Solana 网络上启动以太坊 DApp,以充分利用两个区块链。 4/ Axelarnetwork 代币:$AXL FDV:$512M 当前投资回报率:0.46x Axelar 正在为 Web3 构建跨链通信基础设施,以实现低成本的跨链资产转移。两座桥梁(Squid 和 Satellite)均已上线,使用 Axelar 技术建造。 5/ Staderlabs 代币:$SD FDV:114M 当前投资回报率:0.17x Stader 是增长最快的流动质押生态系统,超过 85,000 名用户质押了超过 2.28 亿美元的代币。$SD还为整个 LST 类别中的代币持有者提供最高的价值捕获。 以上代币相较与$SOL来说增量还很小,预计在不久后轰轰烈烈的大牛市中得到突破! 来源:金色财经
lg
...
金色财经
2023-11-17
矿机为什么会是币圈熊市的稳定收益来源之一
go
lg
...
币和以太坊经典包括新的一些币种,例如:
Filecoin
,Secret,还有听说即将会开始挖的Skynet(天网币)都会使用这种比较传统的挖矿方式。不久前,以太坊也可用于挖矿。然而,事情在 2022年9月发生了变化,因为以太坊通过一个名为The Merge的过程从POW切换到 POS 。 “熊市看 POW”是一种行业共识的总结。但这句话背后其实意味着在熊市条件下,主要的资金会撤出只依靠叙事为驱动的标的,剩余资金会聚拢在有客观价值评估标准的标的上,而 POW 币的产出因需要耗费电力跟设备而具备客观价值依托。但当牛市来临,由于 POW 缺乏像 ICO、DeFi、治理等引爆点的创新,其它新叙事驱动的项目就会占据上风。 在币圈有个话术很得到币圈玩家的认可“炒币不如囤币,囤币不如挖币”。所以说为啥
Filecoin
跌到了现在的4美金的价值,还有人会去封装它。Secret跟Skynet(天网币)之类的新兴POW的币种热度也是不断升高。 因为现在币圈熊市阶段,炒币频繁的交易除了养活交易所,赚到钱的玩家并不多。有些看不清趋势的或者跟热点在高点位的,在币圈暴涨暴跌的情况下甚至亏损达到百分之八九十。 币圈形式不明朗的情况下,又没有爆发牛市的前景下,挖矿也是很多币圈人稳定收益的财富来源之一。 币圈有风险,投资需谨慎,以上文案不构成任何投资建议。 来源:金色财经
lg
...
金色财经
2023-11-17
Pantera合伙人:加密与AI结合用例和现有项目
go
lg
...
机器学习社区中计算资源的使用方式。就像
Filecoin
通过激励用户共享他们未使用的存储空间来颠覆数据存储一样,去中心化GPU共享也基于类似原理。 为什么要贡献你的GPU? GPU(图形处理器)对于训练和微调复杂的机器学习和人工智能模型至关重要。这些过程需要大量的计算能力,这在个人计算机上是个既耗时又耗资源的过程。通过将你的GPU贡献给分散的GPU共享网络,你可以将你的计算资源贡献给一个更大的池,任何人都可以访问。作为回报,你将获得加密货币奖励。这种模式允许个人和组织访问高性能GPU资源,而无需投入前期成本购买专用硬件或依赖中央云服务。它使GPU功能使用民主化,使其对人工智能和机器学习爱好者更具包容性和成本效益。 单位经济学: --去中心化GPU共享网络中的单位经济学围绕加密货币奖励展开。当你把你的GPU借给网络时,你会获得代币作为补偿。 --你获得的代币数量取决于几个因素,包括GPU的计算能力、贡献的持续时间以及网络对GPU资源的需求。 --去中心化GPU共享平台通常具有透明和预定义的奖励结构,确保参与的公平性和可预测性。 总体而言,去中心化GPU共享不仅使个人和组织能够访问AI任务所需的强大计算资源,而且还允许GPU所有者有效地将其硬件货币化。这是一个双赢模式,可以促进人工智能和机器学习生态内的协作、成本效益和可访问性。 (5)RLHF代币模型:连接AI和激励 基于人类反馈的强化学习(RLHF)代币模型提供了人工智能和基于代币的激励机制的有趣交集。这一概念在传统的财务奖励可能行不通的专门部门尤其有效。下面提供了全面解释: 在RLHF代币模型中,主要思想围绕着使用代币奖励来激励真人用户为AI系统提供有价值的反馈和训练。想象一下,一个人工智能系统需要接受特定任务训练,比如社交媒体平台上的内容审核。 传统上,训练AI模型通常需要聘请人类训练师来标记数据或微调算法,这一过程可能非常耗费资源。然而,RLHF代币模型引入了一种更具创新性的方法。它们鼓励用户积极参与AI系统,并通过对他们的贡献进行代币奖励来获取反馈。 举个例子,亚马逊(Amazon)的Mechanical Turk(MTurk)是一个著名的众包平台,人们在这里分别完成一个个小任务换取报酬。在RLHF代币模型中,用户基本上扮演了“人工智能训练师”的角色,提供类似于MTurk任务完成者为获取报酬执行任务的反馈。关键区别在于,在RLHF代币模型中,用户获得代币作为奖励,而不是传统货币。这些代币在生态中具有内在价值,为它们的效用开辟了道路,例如购买AI生成内容或访问高级AI服务。这种基于代币的激励制度不仅简化了人工智能训练的财务流程,而且还培育了一个动态的生态,在这个生态内,用户积极合作,以增强人工智能系统。 3、关于AI和加密融合的担忧 虽然人工智能和加密货币的结合带来了巨大的希望,但也带来了一系列挑战。人工智能模型,尤其是深度学习模型,由于其不透明性,通常被称为“黑盒子”。将这种不透明性与区块链的透明性结合起来,可能会引发对问责制和信任的担忧。解决这些问题对于在这些技术交叉领域建立一个安全可信的环境来说至关重要。 此外,道德考量变得至关重要。随着开源人工智能算法在去中心化网络上的部署,在出现意外负面结果时,必然会出现责任和赔偿相关问题。在创新和道德责任之间获取适当的平衡是一项持续挑战,需要仔细考量。 另一个挑战在于数据隐私。在某些人工智能应用程序中,平衡区块链的透明性和数据隐私需求可能相当棘手。在确保遵守GDPR等规则的同时保持区块链的去中心化精神,这是一个独特的挑战,需要创新性的解决方案。 4、未来前景 随着人工智能和加密技术的不断成熟,二者的融合有望催生前所未有的应用。 (1)zkML(零知识机器学习): zkML的基本功能之一是它能够以加密方式证明特定机器学习模型产生的结果,而不会泄露模型的细节内容,为安全和透明的数据处理提供了新的可能性。zkML为大企业的创新应用打开了大门,包括: 金融服务:金融机构可以使用zkML来验证信用评分模型和贷款资格决策的完整性,而无需泄露敏感的客户数据,从而增强借贷流程的信任和准确性。 医疗保健:医院和研究机构可以使用zkML评估医疗诊断模型的有效性,同时对患者数据保密,确保数据隐私和医疗准确性。 合法合规性:zkML可以帮助公司遵从法规,让公司验证其AI驱动的合规性模型遵守行业法规而不会暴露专有算法。 智能合约:在基于区块链的应用程序中,zkML可以确保智能合约准确地执行机器学习模型,为去中心化金融服务、保险等提供信任和透明度。 (2)AI生成内容的真实性: 通过区块链技术验证AI生成内容的真实性,有望重塑内容的创造和分发。这一创新解决了数字时代的一个紧迫问题,即人工智能可以让人信服地模仿人类生成内容,导致人们对错误信息、知识产权和数字媒体信任方面的担忧。通过将内容真实性锚定在区块链上——一个防篡改和透明的分布式账本——消费者、创作者和机构可以轻易确定数字内容的来源和完整性。这不仅有助于发现和减轻恶意深度造假和欺诈性内容,还可以保护创作者的知识产权,并为消费者提供可靠的信息来源。例如,区块链可以在法律诉讼中证明政治演说或视频证据的合法性,从而减轻错误信息风险,并确保问责制。在创意产业中,它可以追踪音乐作品的创作和所有权,确保艺术家得到应有的信任和补偿。在教育领域,它可以验证学术作品的作者身份,防止抄袭,维护学术诚信。在新闻领域,它可以验证新闻文章,帮助读者区分真实新闻和AI生成内容。从本质上讲,使用区块链来验证AI生成内容的真实性超越了技术范畴——它支撑了人工智能时代数字内容的可信度、透明度和完整性,重塑了信息的创建、消费和信任方式,同时应对了来自现实世界的挑战。 (3)隐私和安全保证: 如今企业面临的紧迫挑战之一就是,当与OpenAI等人工智能平台共享其专有数据时,关于数据处理的不确定性。这里就出现了数据隐私问题,包括数据是否用于训练,谁可以访问数据,以及数据是否在整个计算过程中是安全的。虽然存在本地模型、Azure等云服务和法律协议等非区块链解决方案,但区块链在提供透明和防篡改的数据交互记录方面具有独特优势。它可以使企业验证其数据在计算过程中是否仍然不可读,从而在数据隐私和安全性方面提供更高程度的信心。这种保证对于与敏感信息打交道的行业来说至关重要,例如医疗保健或金融行业,这些行业的数据保密性至关重要。 从本质上讲,区块链创建不可篡改账本的能力可以帮助企业保持对数据的控制,并确保在与人工智能系统交互的过程中保持数据的隐私性和安全性,让企业安心并遵守数据保护规则。 5、现有项目 一群有远见的项目已经率先将加密和人工智能结合起来。 (1)Together.ai Together的使命是通过打造一个迎合大型基金模型的开源去中心化云平台,彻底改变人工智能世界。他们已经建立了一个致力于AI研究的规模相当大的去中心化云平台,上面有许多开放模型,如Bloom、OPT、T0pp、GPT-J和Stable Diffusion。他们研究工作的一个重点就是创建闭源人工智能系统的可访问替代品,同时加深我们对这些模型性能的理解。通过具有远见的方式,Together旨在构建一个去中心化超级计算机,无缝连接全域云、挖矿基础设施、游戏硬件和笔记本电脑,所有这些都通过区块链技术进行协调。Together的愿景包含对人工智能和计算的公平访问,有望对该领域产生变革性影响。 (2)Bittensor Bittensor试图开拓去中心化人工智能网络的发展,主要专注于增强智能合约的数据oracle。这项尖端技术利用区块链创建了一个安全、高效的去中心化框架,用于获取现实世界数据并将其交付给智能合约。Bittensor独特的去中心化oracle方法显著提高了数据feed的准确性、速度和可靠性,使其成为加密和人工智能交叉领域的核心参与者。 (3)Akash网络 Akash网络正在通过其去中心化市场改变云计算,为传统云提供商提供了一个动态的替代方案。它为用户提供了具有成本效益、弹性和抗审查的计算资源访问。Akash的独特之处在于它对人工智能的潜在影响。通过去中心化云计算,Akash为人工智能开发人员打开了访问可扩展、安全和高效资源的大门。这一点尤其重要,因为人工智能严重依赖于广泛的计算能力。Akash的去中心化方法为AI项目提供了支持,使其成为人工智能技术发展的关键参与者。 (4)Gensyn协议 Gensyn协议为机器学习计算建立了一个去中心化生态。该协议使人工智能研究人员和从业者能够无缝地分配他们的计算工作负载。当求解者(solver)贡献其计算资源,允许访问高性能硬件进行训练和推理时,验证者(veryfier)确保人工智能任务的准确性和完整性,这对于维持人工智能模型的可信度至关重要。此外,Gensyn通过提供安全映射层和加密训练数据等方法,优先考虑隐私安全,保护AI应用程序中的敏感信息。该协议的去中心化特性、高效的可扩展性和全域可访问性让AI民主化,使其对用户来说更易访问、更具成本效益。 (5)Nexus AI Nexus AI处于金融赋权的最前沿,利用先进的人工智能算法为投资者提供无与伦比的市场趋势洞察。Nexus AI的与众不同之处在于其坚定不移的去中心化承诺,确保投资者对其资产保持完全控制,不受中心化交易所相关风险的影响。该平台的创新产品之一是一个尖端的NFT市场,由人工智能驱动,以强化定价、发现和认证,向投资者分发奖励。此外,由GPT-3驱动的Telegram AI Bot为所有Telegram用户免费提供实时财务建议和市场分析。Nexus AI通过资产智能(Asset Intelligence)报告进一步支持明智的投资决策,提供对加密资产的全面见解。通过AI驱动的解决方案,如质押仪表板和智能投资机器人,Nexus AI使用户能够自信地进行市场操作,精确高效地实现他们的财务目标。 (6)Modulus Labs Modulus Labs推出了一种创新的解决方案,旨在将人工智能集成到区块链技术中。他们推出了一个专为人工智能应用量身定制的零知识(ZK)prover,解决了确保去中心化应用程序(dApps)防篡改AI访问方面的挑战。这一方案使智能合约能够在不损害去中心化基本原则的情况下利用强大的AI功能。Modulus正积极致力于通过与Upshot和Ion Protocol等合作伙伴合作,在以太坊平台上推出重要的AI应用程序。此外,他们正在向更广泛的社区开源ZKML prover。Modulus设想了这样一个未来:加密问责制可以保障人工智能融入各领域(包括金融和医疗保健)而不会损害安全性。 (7)Render网络 Render网络是一个提供去中心化GPU渲染功能的平台。这个创新的网络使用户能够通过基于区块链的闲置GPU计算资源市场,在全球范围内使用高性能GPU节点扩展GPU渲染工作。该平台的愿景是使GPU云渲染民主化,使其更高效,更可扩展,并可用于下一代3D内容创作。它解决了与网络可扩展性、高效基础设施利用、GPU功耗优化以及沉浸式媒体和人工智能应用的数字版权管理相关的挑战。Render网络将GPU功耗转化为相互连接的3D资产去中心化经济,为各行业开发人员提供解决方案,包括媒体、增强现实、虚拟现实、游戏等。 (8)Ritual Ritual是一家站在密码学和人工智能交叉口的公司,它彻底改变了开发人员创建、分发和增强人工智能模型的方式。通过利用加密的力量,Ritual为AI提供了一个开放的、模块化的主权执行层。它将分布式节点网络与计算资源和模型创建者连接起来,允许创建者托管他们的AI模型。反过来,用户可以通过统一的API轻松访问各种AI模型,同时受益于可确保计算完整性和隐私性的加密基础设施。该平台的首个产品是Infernet,标志着全套协议和效用的开始,为开发人员和应用程序与Ritual无缝集成,获取对其模型和计算提供商网络的无许可访问。Ritual的设想是成为web3世界中的AI中心,推动人工智能世界的创新、可访问性和民主化。 6、结论 AI和加密的协作不仅是技术的融合,也是可能性的融合。它代表了一个未来,在这样的未来世界里,机器在一个去中心化的、安全的环境中思考、学习和交易。前进的道路充满挑战,但每一个挑战都是诞生创新和进步的机遇。站在这一十字路口的创新者和思想家有可能书写一个重新定义数字时代的篇章。在前行的过程中,我们必须谨慎、明智、富有远见,确保在巧妙应对挑战的同时收获利益,最终为所有人塑造一个更光明美好、更技术先进的未来。 来源:金色财经
lg
...
金色财经
2023-11-17
上一页
1
•••
27
28
29
30
31
•••
93
下一页
24小时热点
这些股票突遭猛烈抛售!特朗普重大宣布:新关税要来了
lg
...
周评:鲍威尔释降息重大信号!美元突然暴跌、金价飙升 特朗普关税传大消息
lg
...
美国资深经济学家发出严厉警告:金融领域最重要的三大图表预示着“大崩盘”
lg
...
俄乌突传重大消息!美媒独家:五角大楼悄悄阻止乌克兰对俄罗斯发动远程导弹袭击
lg
...
鲍威尔演讲引爆黄金重大破位行情!两张图看黄金技术前景 投资者如何获利了结?
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
113讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论