全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
MEME币基础知识
go
lg
...
方式,以及 ERC20 的智能合约的可
编程
性,设计了一套全新的代币标准协议,以在以太坊(及其他EVM链)上来实现公平发射的理念。同时,BERC20协议创新地设计了Mint即自动添加LP和丢弃Owner权限的机制,进一步杜绝了恶意合约、阻塞攻击和市场操纵等Rug行为,为投资者提供了更安全、透明的投资环境。 BERC20协议运行机制 BERC20协议不仅仅只是将BRC20协议的玩法照搬到了以太坊生态上,除了以Fair Launch为核心理念外,BERC20协议更与众不同的优势在于,它可以解决业内普遍存在的项目作恶问题。简单来说,只要是基于BERC20协议发行的MEME币,天然具备公平、无主、开源、安全、去中心化、锁池等条件,投资者无需消耗时间精力进行甄别分析,代币发行方也无需花费大量成本重新搭建技术架构。 公平发射 公平公正发行代币,人人平等的铸币权,完全去中心化,代币无Owner权限; 自动添加LP Mint基于BERC20协议发行的代币时,Mint出来的代币和Mint费用将自动添加至流动性池中,解决了无人添加流动性池以及流动性池初期筹码极少,很难有大资金进入的问题; 黑洞合约 所有添加至流动性池中的LP合约都将被发送到黑洞销毁,这意味着没有人拥有LP合约所属权,任何人都无法操控或撤出池中的资金,杜绝Rug风险; 持仓条件Mint 部署者可以自定义设置Mint代币的持仓条件,如ERC721、ERC1155、ERC20,防范女巫攻击的同时,也为所有NFT发行方带来了新的叙事方式; 合约开源 基于BERC20协议发行的代币,部署的同时合约自动开源。在开源的情况下,任何人都可以访问和研究代码,从而确保代码的透明度和安全性,并允许社区共同参与合约的开发和改进。 BERC20协议机制落地呈现 1、杜绝“庄家”控盘、Dev跑路撤池、合约漏洞、大筹码血洗小筹码,从公平出发 2、公平发射、共创共建、无预挖、无私募、无owner权限、人人平等 3、智能合约执行,Mint即添加流动性,筹码科学分布 4、LP合约进入黑洞销毁,无权限撤池,从根本杜绝项目Rug 5、多链部署,将公平理念植入加密世界的每一个角落,让天下没有Rug的MEME币 6、低门槛、易操作,任何人都可以轻松一键部署 7、社区自发自愿自主治理,成员主动参与项目建设,极强的共识和凝聚力 $BERC生态生态闭环 1、FariBERC20平台,轻松实现一键发币 FairBERC20是基于BERC20协议创建的去中心化多链资产平权发行平台,专为MEME领域用户量身打造,其目的是“让天下没有Rug的MEME币”。 FairBERC20平台为部署者提供了一种可视化的界面,部署者只需要持有平台代币$BERC,填写相关参数,即可快速创建和部署加密货币,无需自行编写代码,也无需担心建池成本、合约漏洞等问题。此外,FairBERC20平台还提供了多种附加功能,如限制Mint持仓条件、设置代币分配和销毁比例、自定义Mint时间等,为部署者提供了更加完整的资产发行解决方案。 2、$BERC应用场景赋能 $BERC是基于BERC20协议发行的首个代币,总供应量为2100万枚,其主要用途是作为FariBERC20平台的功能代币,部署者在平台上发行代币,至少需持有1枚$BERC。除此之外,$BERC将赋能更多应用场景: a. Token基础功能性销毁策略 ● FariBERC20网站添加项目Logo销毁$BERC ● FariBERC20网站添加项目官网、Twitter、Discord、Telegram销毁$BERC b. 广告位销毁$BERC ● 通过$BERC对部署页面的广告位竞价 ● 竞价成功,按一定比例销毁$BERC c. 多链前3个Tick竞拍 ● BERC20协议多链部署后,各条链上前3个Tick需通过$BERC进行拍卖 ● 拍卖成功后,前3个Tick只能由拍卖所得者发行 ● 拍卖的$BERC按一定比例进行销毁 3、BERC20多链部署,$BERC独一无二 多链部署是当下所有MEME币发展的必经之路,也是其长久战略中必不可少的一环。BERC20协议目前正在进行多链部署,据可靠消息称,其部署的第一条多链为ETHW。并且,BERC20 Dev团队坚称,无论未来部署多少条公链,$BERC将不会在其他链上发行,并且会在其他链上限制该Tick,保证了$BERC的唯一性。从市场宏观角度来看,这对BERC20 Dve团队并不是明智的选择,如果每条链上都对应一个$BERC,无疑Dev团队分到的蛋糕相对较多,但从$BERC持有者的角度来看,多链生态中有且只有一个$BERC,这对$BERC是一个长久的利好。 4,具备完整生态闭环的$BERC将不再局限于价格 MEME币由于缺乏实际的应用场景,使其价值难以被具体量化。对于没有商业闭环的MEME币来说,只有价格的涨跌才能够体现其价值。涨,证明该MEME币在市场情绪的驱使下体现出较高的FOMO价值;跌,则证明该MEME币风头已逝,泡沫风险随之而来。曾经的以太坊网络和当前的比特币网络足以证明生态闭环的必要性。 BERC20协议同时解决了B端(Token发行者)和C端的各类问题,如:一健公平发行、合约安全、自动开源、Mint加池、放弃权限等,从根本上解决了合约留门、庄家控盘、项目rug等问题,配合其$BERC应用场景、代币销毁、保证唯一性等机制,使$BERC的价值体现不再局限于价格,而是通过让$BERC在实际应用场景中发挥更大的作用,来构建完整的生态闭环,引导参与者关注$BERC最本质的价值问题。 总结: BERC20协议真正延续了去中心化的精髓,更加符合加密市场的每个人对于生态系统内平等参与者的理念。BERC20协议公平发射、Mint即增池、放弃合约所属权等创新机制,为加密市场开拓了一个新的敞口,为具有高度共识和高度价值的币种带来了长期发展空间,同时也为加密世界的资金安全构建了坚不可摧的保护罩,从根本上杜绝各类Rug Pull行为。 来源:金色财经
lg
...
金色财经
2023-06-19
FairBERC20:去中心化的多链资产平权发行协议 ——让天下没有Rug的MEME
go
lg
...
方式,以及 ERC20 的智能合约的可
编程
性,设计了一套全新的代币标准协议,以在以太坊(及其他EVM链)上来实现公平发射的理念,允许任何人都可以通过BERC20协议公平发行代币,增强了透明度和社群参与度,实现了技术普惠和去中心化。 1)协议特点: ● 公平公正发行代币,人人平等的铸币权; ● Mint同时自动添加流动性池,解决了流动性池初期筹码极少,很难有大资金进入的问题; ● LP合约进入黑洞销毁,任何人无法撤出流动性池,杜绝Rug风险; ● 允许部署者设置持仓条件,防止女巫账号大规模快速Mint; ● 完全去中心化,代币无Owner权限; ● 多链部署,用户可以在熟悉的公链生态中参与代币发行和Mint,降低参与门槛。 2)BERC20协议的运行机制: ● 公平发射:BERC20协议采用了BRC20的公平发射机制,确保了代币的发行过程中没有不公正的行为。 ● 自动添加LP:使用BERC20协议Mint代币时,一半的代币和Mint费用将自动添加至流动性池中,实现了更科学的筹码分布,解决了项目初期无人添加流动性,以及流动性池筹码极少,难以吸引大量资金进入的问题。并可降低交易成本和风险,增加市场吸引力和竞争力。 ● 黑洞合约:为确保资金的安全和防止部署者作恶行为,BERC20协议引入了黑洞合约的概念。所有添加至流动性池中的LP合约都将被发送到黑洞销毁,这意味着没有人拥有LP合约所属权,任何人都无法操控或撤出池中的资金。可促进市场健康发展和长期稳定性,减少了市场风险和不确定性。并有助于吸引更多的投资者进入市场,增加市场流动性和活跃度,为市场的繁荣和发展奠定坚实的基础。 ● 基于ETH的部署:BERC20协议基于以太坊网络部署,可以享受以太坊的强大生态系统流量和超高安全性能。可以实现更高效、更安全和更智能的数字资产管理和交易,满足不同用户和场景的需求。以太坊是最大的智能合约平台之一,拥有全球化的开发者社区和广泛的支持,可以为BERC20协议的跨境交易和国际化布局提供强有力的支持和保障。 ● 降低发行成本:以往的项目在以太链上发行代币,除每一步操作的Gas费,至少需要自行添加1-2个ETH的流动性池,加上审计营销等,发行成本普遍偏高。而通过BERC20协议可实现代币一键发行,操作过程只需要消耗Gas费即可部署完成。全球开源,门槛低,易于使用为BERC20协议的普及和推广提供了强有力的支持和保障,也为更广泛的用户群体带来了更多的机遇和可能性。 四、BERC20 Mint流程 五、$BERC代币 $BERC是基于BERC20协议发行的首个代币,总供应量为2100万枚。 Mint $BERC代币分配: 46.5%~50%:添加LP并发送黑洞地址。 46.5%~50%:公平 IDO。 0%~1%:发送给vitalik。 0%~5%:发送给Token Deployer。 0%~1%:发送给BERC20团队。 六、BERC20协议前景分析 从技术层面来看,BERC20协议通过其去中心化的多链资产平权发行协议为MEME代币领域带来了创新。通过公平发射、自动添加LP、自动锁池和弃庄权的机制,以及开源性、公平性和去中心化性的特点,BERC20协议最终将消除欺诈行为,为投资者提供更安全、透明的投资环境。在未来的数字资产领域,BERC20协议有望成为更多项目方和投资者的首选选择,推动数字资产的发展和创新。 从生态层面来说,BERC20协议的社区共识已初步形成,展示出强烈的社区共识和生态活力。BERC20协议的社区建立和发展都是由共识者自发组建,社区自发传播,这种开放、包容、自由的社区氛围吸引了越来越多的用户和项目方加入进来。举办的社区活动也得到了广泛的关注和参与,这表明BERC20协议的生态正在逐步成熟和壮大。在未来,随着更多项目方和投资者加入和使用BERC20协议,其生态将会更加繁荣和完善,为数字资产领域的发展注入更多的活力和动力。 综上所述,BERC20协议在技术和生态层面都具有广阔的前景和发展空间。通过其创新的技术和开放、包容的生态,BERC20协议将在数字资产领域发挥越来越重要的作用,成为数字资产领域的重要组成部分。 七、路线图 Q1 勇敢迈出第一步,大胆尝试! 认真听取社区用户的建议和意见。 整理v2文档,总结需要迭代的功能点,通过治理代币投票,确定最终方案! 开发v2相关功能,让BERC20协议更棒! 上线v2版本,增加$BERC应用和消耗场景 社区发展到10000人,持币地址达到5000个。 Q2 推广运营等项目合作不断扩大影响力。 优化协议和ui,使协议更加灵活,ui更加醒目美观。 社交媒体营销,使用社交媒体平台建立品牌知名度并与潜在用户和社区互动。 社区发展到30000人,持币地址达到15000个。 Q3 交易所上市,代币将在合适的交易所上市,以提高流动性和可交易性。 升级优化,根据用户反馈和市场需求,不断改进和优化项目功能和用户体验。 整理v3文档,总结需要迭代的功能点,通过治理代币投票,确定最终方案! 开发v3相关功能,完善BERC20协议! 上线V3版本,打开BERC20协议国际化发展路线! 伙伴关系发展,与其他计划、合作伙伴和社区组织建立伙伴关系,以推进公平原则。 社区发展到10万人,持币地址数达到3.5万个。 实现多链布局:分散风险,扩大其覆盖范围和影响力及应用范围和市场占有率。 八:版本更新 V1—-2023.6.6 上线 功能特点: ● 公平公正发行代币,人人平等的铸币权; ● Mint同时自动添加流动性池; ● LP合约进入黑洞销毁,放弃Owner权限 V2—--2023.6.8 UTC+8 22:00上线 新增功能: ● 所有费用由部署者定制 ● 限制铸造条件:erc721、erc1155、erc20 ● 支持代币销毁 ● 自定义铸造开始时间和结束时间 ● 设置Mint费用100%添加流动性池 部署代币合约自动开源 来源:金色财经
lg
...
金色财经
2023-06-19
公平开放的密码世界:深度详解BERC20协议与FairBERC20
go
lg
...
方式,以及 ERC20 的智能合约的可
编程
性,设计了一套全新的代币标准协议,以在以太坊(及其他EVM链)上来实现公平发射的理念,允许任何人都可以通过BERC20协议公平发行代币,增强了透明度和社群参与度,实现了技术普惠和去中心化。同时,BERC20协议创新地设计了Mint即自动添加LP和丢弃Owner权限的机制,进一步杜绝了恶意合约、阻塞攻击和市场操纵等Rug行为,为投资者提供了更安全、透明的投资环境。 在谈论FairBERC20协议之前,先简单了解一下Fair Launch理念的来源——BRC20。 BRC20是比特币网络上发行同质化代币的实验性格式标准,由推特用户@domodata于2023年3月8日基于Ordinal协议创建。类似于以太坊的ERC20标准,它规定了以太坊上发行代币的名称、发行量、转账等功能,所有基于以太坊开发的代币合约都遵守这个标准。 BRC20与ERC20的主要区别在于比特币网络不支持智能合约,它是通过利用Ordinal协议将铭文(inscriptions)设置为JSON数据格式来部署代币合约、铸造和转移代币,即开发人员可以通过Ordinal协议创建和发行同质化代币。 在巅峰时期,BRC20的总市值突破了10亿美元,引得各大CEX纷纷竞相上架其龙头项目$ORDI,掀起了一场流量大战。BRC20之所以火爆,不仅仅只是因为部署在BTC链上,而是由于其公平的代币发行机制,使包括部署者在内的所有人只能通过Mint获得代币,这才是BRC20最本质、最核心的东西。 然而,历经风光无限后,BRC20的走势开始显示疲态,其中几个重要原因就是其流动性问题、双重消费攻击以及功能过于简单,这些都导致其难以形成持续发展的生态。 反观ERC20协议,是以太坊区块链较早的、比较流行的代币规格协议。ERC20代币天然具备极高的流动性,若以太坊生态上两种代币都基于ERC20协议发行,则两者之间可以进行自由置换。但是,ERC20协议一直存在着一个弊端,智能合约的自定义性可能导致某些项目在代币发行过程中存在着不公平的现象,比如恶意合约、阻塞攻击和交易所操纵,都会扰乱代币发行的公平性。 如果将BRC20协议公平发射的理念引入以太坊生态,与ERC20协议相结合会是什么情况?于是BERC20协议出现了!BERC20协议不仅改变了ERC20协议原有的代币分发模式,使任何人都可以公平的参与代币分配,其自动添加LP和放弃合约所属权的创新机制,也从根本上杜绝了代币发行初期无人添加流动性、流动性池过小无法承载大资金、项目方抽底池、貔貅池以及合约漏洞等各类Rug行为。 BERC20协议运行机制 BERC20协议不仅仅只是将BRC20协议的玩法照搬到了以太坊生态上,除了以Fair Launch为核心理念外,BERC20协议更与众不同的优势在于,它可以解决业内普遍存在的项目作恶问题。 公平发射 公平公正发行代币,人人平等的铸币权,完全去中心化,代币无Owner权限; 自动添加LP Mint基于BERC20协议发行的代币时,Mint出来的代币和Mint费用将自动添加至流动性池中,解决了无人添加流动性池以及流动性池初期筹码极少,很难有大资金进入的问题; 黑洞合约 所有添加至流动性池中的LP合约都将被发送到黑洞销毁,这意味着没有人拥有LP合约所属权,任何人都无法操控或撤出池中的资金,杜绝Rug风险; 持仓条件Mint 部署者可以自定义设置Mint代币的持仓条件,如ERC721、ERC1155、ERC20,防范女巫攻击的同时,也为所有NFT发行方带来了新的叙事方式; 合约开源 基于BERC20协议发行的代币,部署的同时合约自动开源。在开源的情况下,任何人都可以访问和研究代码,从而确保代码的透明度和安全性,并允许社区共同参与合约的开发和改进。 BERC20协议机制落地呈现 1、杜绝“庄家”控盘、Dev跑路撤池、合约漏洞、大筹码血洗小筹码,从公平出发 2、公平发射、共创共建、无预挖、无私募、无owner权限、人人平等 3、智能合约执行,Mint即添加流动性,筹码科学分布 4、LP合约进入黑洞销毁,无权限撤池,从根本杜绝项目Rug 5、多链部署,将公平理念植入加密世界的每一个角落,让天下没有Rug的MEME币 6、低门槛、易操作,任何人都可以轻松一键部署 7、社区自发自愿自主治理,成员主动参与项目建设,极强的共识和凝聚力 $BERC生态闭环 1、FariBERC20平台,轻松实现一键发币 FairBERC20是基于BERC20协议创建的去中心化多链资产平权发行平台,专为MEME领域用户量身打造,其目的是“让天下没有Rug的MEME币”。 FairBERC20平台为部署者提供了一种可视化的界面,部署者只需要持有平台代币$BERC,填写相关参数,即可快速创建和部署加密货币,无需自行编写代码,也无需担心建池成本、合约漏洞等问题。此外,FairBERC20平台还提供了多种附加功能,如限制Mint持仓条件、设置代币分配和销毁比例、自定义Mint时间等,为部署者提供了更加完整的资产发行解决方案。 2、$BERC应用场景赋能 $BERC是基于BERC20协议发行的首个代币,总供应量为2100万枚,其主要用途是作为FariBERC20平台的功能代币,部署者在平台上发行代币,至少需持有1枚$BERC。除此之外,$BERC将赋能更多应用场景: a. Token基础功能性销毁策略 ● FariBERC20网站添加项目Logo销毁$BERC ● FariBERC20网站添加项目官网、Twitter、Discord、Telegram销毁$BERC b. 广告位销毁$BERC ● 通过$BERC对部署页面的广告位竞价 ● 竞价成功,按一定比例销毁$BERC c. 多链前3个Tick竞拍 ● BERC20协议多链部署后,各条链上前3个Tick需通过$BERC进行拍卖 ● 拍卖成功后,前3个Tick只能由拍卖所得者发行 ● 拍卖的$BERC按一定比例进行销毁 3、BERC20多链部署,$BERC独一无二 多链部署是当下所有MEME币发展的必经之路,也是其长久战略中必不可少的一环。BERC20协议目前正在进行多链部署,据可靠消息称,其部署的第一条多链为ETHW。并且,BERC20 Dev团队坚称,无论未来部署多少条公链,$BERC将不会在其他链上发行,并且会在其他链上限制该Tick,保证了$BERC的唯一性。从市场宏观角度来看,这对BERC20 Dve团队并不是明智的选择,如果每条链上都对应一个$BERC,无疑Dev团队分到的蛋糕相对较多,但从$BERC持有者的角度来看,多链生态中有且只有一个$BERC,这对$BERC是一个长久的利好。 4,具备完整生态闭环的$BERC将不再局限于价格 MEME币由于缺乏实际的应用场景,使其价值难以被具体量化。对于没有商业闭环的MEME币来说,只有价格的涨跌才能够体现其价值。涨,证明该MEME币在市场情绪的驱使下体现出较高的FOMO价值;跌,则证明该MEME币风头已逝,泡沫风险随之而来。曾经的以太坊网络和当前的比特币网络足以证明生态闭环的必要性。 BERC20协议同时解决了B端(Token发行者)和C端的各类问题,如:一健公平发行、合约安全、自动开源、Mint加池、放弃权限等,从根本上解决了合约留门、庄家控盘、项目rug等问题,配合其$BERC应用场景、代币销毁、保证唯一性等机制,使$BERC的价值体现不再局限于价格,而是通过让$BERC在实际应用场景中发挥更大的作用,来构建完整的生态闭环,引导参与者关注$BERC最本质的价值问题。 BERC20协议真正延续了去中心化的精髓,更加符合加密市场的每个人对于生态系统内平等参与者的理念。BERC20协议公平发射、Mint即增池、放弃合约所属权等创新机制,为加密市场开拓了一个新的敞口,为具有高度共识和高度价值的币种带来了长期发展空间,同时也为加密世界的资金安全构建了坚不可摧的保护罩,从根本上杜绝各类Rug Pull行为。 对于当前早期的BERC20可持续关注,毕竟BERC20协议精神在当前的市场环境中是为“足够去中心化、足够公开透明”,或许可以随着发展的趋势可以捕获最大化的财富效应。 来源:金色财经
lg
...
金色财经
2023-06-19
英伟达的护城河
go
lg
...
设计能够最佳地利用不同硬件组件的功耗的
编程
框架。 然后,他同时将其称为全栈挑战,他在此处指的是在整个计算栈的每个层面上高效协同工作以最大化加速计算性能所面临的复杂性。所有这些单独的硬件组件及其相应的软件组件需要被有效地整合在一起,以实现整个数据中心的最佳性能。 网络解决方案在整合加速计算栈的各个层面中起着至关重要的作用,实现数据中心基础设施内部各个组件之间的高效数据传输和通信。根据英伟达最新的10-K文件(重点强调): 网络解决方案包括InfiniBand和以太网网络适配器、交换机、相关软件和电缆。这使我们能够构建端到端的数据中心规模计算平台,可以通过高性能网络连接数千个计算节点。虽然在历史上服务器是计算的单位,但随着人工智能和高性能计算工作负载变得非常庞大,跨越数千个计算节点,数据中心已成为新的计算单位,其中网络是一个不可或缺的部分。 在生成式人工智能革命中,InfiniBand网络技术(通过2020年的Mellanox收购获得)将以超高需求存在,因为数据中心运营商正在重新设计其数据中心以适应人工智能时代。正如黄仁勋在电话会议中宣布的那样: 在网络方面,我们看到云服务提供商和企业客户对生成式人工智能和加速计算的强烈需求,这需要像英伟达的Mellanox网络平台这样的高性能网络。...随着生成式人工智能应用程序的规模和复杂性的增长,高性能网络成为在数据中心规模上提供加速计算以满足训练和推理的巨大需求的关键。我们的400G Quantum-2 InfiniBand平台是专为人工智能的基础设施而设计的黄金标准,在主要云和消费者互联网平台(如Microsoft Azure)得到广泛采用。 ····· InfiniBand在上个季度取得了创纪录的业绩。我们将迎来一个巨大的创纪录年度。而且InfiniBand有一个非常出色的路线图,英伟达的Quantum InfiniBand将会是非常令人难以置信的。但是这两种网络是非常不同的。如果可以这样说,InfiniBand是为人工智能工厂而设计的。 ... InfiniBand和以太网之间的差异可能在整体吞吐量上达到15%至20%。如果你花费5亿美元在基础设施上,而差异为10%至20%,而且是1亿美元,那么InfiniBand基本上是免费的。这就是人们使用它的原因。InfiniBand实际上是免费的。数据中心吞吐量的差异实在是太大,无法忽视。 因此,暂时将其AI芯片的优越性放在一边,像InfiniBand这样的网络技术也在维持英伟达的数据中心壁垒方面发挥着重要作用。实际上,英伟达的InfiniBand能够高效地整合数据中心的各个组件,实现快速数据传输和低延迟连接,使数据中心吞吐量(在给定时间内可以在数据中心之间传输或处理的数据量)提高了20%。这一提升远远超过了InfiniBand的成本。 这带来了两个优势。首先,英伟达的数据中心解决方案的令人难以置信的成本效益使竞争对手越来越难以渗透英伟达的市场份额。其次,随着InfiniBand在数据中心吞吐量方面的成本效益越来越好,它为英伟达带来了更强的定价能力,因为只要这些解决方案的成本效益可以轻松覆盖,数据中心客户就不介意为此支付更高的价格。 深入研究网络领域,英伟达提供了各种网络解决方案来优化数据中心的性能。其中包括智能网络接口卡(SmartNICs),它们可以从CPU中卸载某些与网络相关的任务,释放出处理能力用于其他任务。智能网络接口卡旨在提高网络性能,降低延迟,并增强整体数据中心的效率。这些智能网络接口卡配备了英伟达 Mellanox软件开发工具包(SDK)和Mellanox Messaging Accelerator(MMA)软件。开发人员可以在MMA的基础上构建应用程序,以在数据中心环境中优化和提升其性能。MMA为高效的消息传递和网络通信提供了基础,开发人员可以利用其功能根据特定需求进一步定制和调整其应用程序。 网络解决方案还包括网络交换机,它们是将网络流量连接和定向传输到数据中心内的设备、服务器、存储系统和其他组件的中心节点。这些交换机配备了英伟达 Cumulus Linux软件。英伟达 Cumulus Linux是一种专为在开放式网络交换机上运行而设计的网络操作系统。它为开发人员提供了一个灵活可定制的平台,以优化和增强数据中心环境中网络交换机的功能。 在其他数据中心硬件解决方案方面,英伟达还提供英伟达 Bluefield数据处理单元(DPUs),它们旨在加速广泛范围的数据处理任务,超越传统的CPU和GPU的能力,包括网络、存储和安全功能。在其最新的年度报告中,英伟达指出(重点强调): 英伟达的Bluefield DPU得到了基于芯片的数据中心基础架构软件(DOCA)的支持,使开发人员能够为BlueField DPU构建软件定义、硬件加速的网络、安全、存储和管理应用程序。支持Bluefield的合作伙伴包括许多顶级安全、存储和网络公司。我们可以在整个计算、网络和存储堆栈上进行优化,提供数据中心规模的计算解决方案。 BlueField DPU及其配套软件增强了英伟达在市场上的综合数据中心解决方案,增强了其竞争力。 因此,尽管投资者关注的是针对英伟达 GPU进行优化的成熟的CUDA软件包,但英伟达也从同时发生的其他网络效应中获益,这得益于其他软件(如DOCA和MMA),它们优化了构建数据中心所涉及的其他组件。黄仁勋在电话会议上强调: 所以,几乎每个关注人工智能的人都会考虑到那个芯片,加速器芯片,事实上,几乎完全错过了整个关键点。我之前提到过,加速计算涉及到整个堆栈,包括软件和网络,记住,我们早期就宣布了一个名为DOCA的网络堆栈,还有加速库Magnum IO。这两个软件是我们公司的宝贵资产之一。很少有人谈论它,因为很难理解,但它使我们能够连接成千上万的GPU。 将所有数据中心组件集成在一起以实现最佳整体性能是英伟达数据中心成功的关键特点。对英伟达领先行业的AI芯片感兴趣的数据中心客户随后也会购买英伟达的其他数据中心解决方案,以通过深度集成获得优化的性能。这就是为什么英伟达可以提出令人瞠目结舌的销售预测,即2023年第二季度销售额达到110亿美元,因为这不仅是对AI芯片的需求,还有对所有其他数据中心解决方案的强劲需求。随着集成的不断深化,英伟达越来越有能力将相邻的数据中心解决方案进行跨销售。 对英伟达的看涨情况的风险 AMD也提供了一套全面的数据中心解决方案,并努力迎头赶上英伟达在人工智能领域的竞争。在2023年第一季度,AMD的数据中心收入接近13亿美元,占总收入的24%。相比之下,英伟达在2024年第一季度的最新财报显示,该公司的数据中心收入接近43亿美元,贡献了公司总收入的60%。 AMD最近宣布的AI芯片MI300X并未给出令人期待的性能规格。AMD还未能宣布其新芯片的重大客户合作伙伴关系,这正是证明了英伟达在这个市场上的强势地位。 尽管如此,鉴于英伟达朝着更大的"以数据中心为产品"的机遇不断前进,AMD也通过收购Pensando Systems, Inc.(于2022年5月完成收购)加强了自己的数据中心解决方案,该公司专注于网络芯片的生产。 "Pensando的分布式服务平台将通过高性能数据处理单元(DPU)和软件堆栈,为AMD的数据中心产品组合提供扩展。这些产品已经在云计算和企业客户中得到广泛部署,包括高盛、IBM Cloud、微软Azure和甲骨文云等。" AMD确实可以通过积极加强并购策略来迎头赶上英伟达。毕竟,英伟达通过收购Mellanox和Cumulus Networks等公司来构建了自己的数据中心网络解决方案。 鉴于英伟达在该领域的主导地位,AMD可能会尝试通过价格竞争来吸引数据中心客户使用其不断扩大的解决方案套件。然而,对于AMD来说,通过价格竞争挑战英伟达的主导地位将是困难的,因为英伟达通过在数据中心基础设施中推动深度集成,已经非常精通数据中心的架构。正是这些复杂的集成优势和由此产生的成本节省,最终支撑起英伟达的数据中心优势,这与黄仁勋长期以来将加速计算视为全栈问题和全栈挑战的方法密切相关。因此,英伟达在应对竞争威胁方面处于强势地位,正如黄仁勋所确认的: 我们时刻关注竞争,并且一直面临竞争。但英伟达的核心价值主张是,我们是最低成本的解决方案。我们是最低TCO的解决方案。而这是因为加速计算是我经常谈论的两个问题,它是一个全栈问题,一个全栈挑战,您必须将所有软件、库和算法进行工程化,将它们集成并优化到不仅仅是一颗芯片的架构中,而是整个数据中心的架构,一直到框架、模型的优化。 AMD必然也会努力通过其解决方案套件的深度集成来降低数据中心客户的TCO,但这将是一场艰苦的斗争。尽管如此,AMD对英伟达领域的不断侵入可能会逐渐削弱其定价能力,对英伟达的股价产生影响,而市场已经对其具有强大的定价能力进行了定价。 话虽如此,在AMD努力迎头赶上的同时,英伟达肯定不会原地踏步。英伟达将继续全面提升自身解决方案的成本效益和性能,以保持领先地位。除了为其AI芯片提供的CUDA之外,英伟达的关键数据中心解决方案同时产生了多重网络效应,为其产品构建了强大的生态系统,使AMD面临更加艰巨的竞争。 总结 英伟达的数据中心优势不仅仅体现在其卓越的AI芯片和CUDA软件包上。虽然竞争对手正在努力构建竞争性的AI芯片和相应的软件包,但CEO 黄仁勋将目光聚焦在更大的机遇上,即将数据中心作为一种产品。公司对数据中心组件(如SmartNIC、DPU和网络交换机)的深度整合增强了其竞争力和交叉销售机会。 尽管AMD正在扩大其数据中心解决方案,并可能进行价格竞争,但英伟达专注于全栈问题解决和成本效益,使竞争对手难以挑战其主导地位。 $英伟达(NVDA)$ $美国超微公司(AMD)$
lg
...
老虎证券
2023-06-19
AI行业投资泡沫还有多远
go
lg
...
备多数据源兼容性(例如多种数据库),多
编程
语言兼容性(例如TensorFlow、Python),并能够在各种硬件设备上无缝运行,实现跨平台AI的梦想。 然而,当前AI行业面临一个共同的难题,即缺乏统一的标准。各个公司属于各自为王的发展阶段。没有统一的标准,也就无法实现大规模的生产和制造,对于产品的技术形态展示、商业模式运营等仍任重道远。 成本昂贵,无法大众化普及 随着人工智能技术的进步,越来越多的新兴公司发布了他们自家研发的智能大脑,并通过云服务的方式提供给用户使用。这些公司在吸引了大量用户后,却面临一个麻烦:服务器的运行成本太高,有些公司由于缺乏资金和技术实力,没有考虑到这个问题。 人工智能模型的训练可谓是一项巨大的挑战,需要投入大量资源、时间和金钱。有些云服务提供商提供了自动化的模型训练和使用服务,但这些服务的成本相当昂贵,特别是在智能大脑的运行费用方面。如果初创公司提供的服务费用无法覆盖服务器的运行成本,那么这些公司的生存和盈利能力都将受到极大的影响,自然也无法大规模的商业化。 AI商业落地集中,企业亏损严重 根据艾媒咨询发布的《2019年中国人工智能产业研究报告》,安防和金融行业是人工智能在实体经济中应用最广泛的领域,占据了市场份额的绝大部分,约达到70%。然而,这也意味着在其他行业中,人工智能的深度融合和落地还有很大的发展空间。 即使一些独角兽企业在应用落地方面取得了一定的进展,但它们大多仍然面临着亏损的局面。例如,依图科技在2019年扣除非经常性损益后仍然亏损近10亿元,云知声和寒武纪也面临巨额亏损。今年上半年,依旧出现了较大的亏损额,表现如下:依图科技约亏损4.5亿元,云知声约亏损1.1亿元,而AI芯片龙头企业寒武纪的亏损超过2亿元,同比增长幅度高达550%。 AI前景虽好,但不是每个企业都能够在这个赛道中活下来。 AI面临的法律和道德问题 随着人工智能的广泛应用,存在一些道德和法律风险,比如:隐私和数据滥用、偏见和歧视、自主决策的透明度、AI的沉迷和滥用以及责任和法律纠纷。 为了应对新技术出现的道德和法律问题,各国也在相继出台法律法规,据不完全统计,自2016年以来,各国通过了123项与AI相关的法案,其中大多数是近年来通过的。 法律法律的出台为AI的场景化落地提供制度上的保障,但从法律到落地也需要一定时间的过渡期,在此期间许多商业化的AI场景仍然面临着制度的缺陷问题。这也导致了短期内无法大规模商业化的原因之一。 泡沫之后理性发展 AI无疑是未来的一大趋势,但正如行业周期变动规律显示,一个行业的发展必然要经过 快速发展期、泡沫期、理性发展期、成熟期等几个阶段。在这个过程中,众多企业纷纷登上AI的舞台,但在行业竞争和技术迭代的过程中,泡沫过后,当真正比拼技术实力和整体综合能力下,一大批企业又会慢慢死去,企业生产成本降低、各项制度法律成熟,AI回归到行业的正常发展状态,才能真正实现商业化场景落地。 来源:金色财经
lg
...
金色财经
2023-06-19
到了2030年 GPT会发展成什么样?
go
lg
...
节)。在滥用方面,GPT 2030 的
编程
能力、并行化与速度将让它成为强大的网络攻击威胁。此外,它的快速并行学习能力可以用来研究人类行为,进而利用数千“年”的实践来操纵和误导。 在加速方面,主要瓶颈之一会是自主性。在像数学研究这样可以自动检查工作的领域,我预测 GPT 2030 的表现将胜过大多数专业数学家。在机器学习方面,我预测 GPT 2030 可独立执行实验并生成图表和文章,但研究生和研究科学家将提供指导并评估结果。在这两种情况下,GPT 2030 都将成为研究过程不可或缺的一部分。 如果用今天的系统作为参照,我对 GPT 2030 具备哪些属性的预测没那么直观,而且也可能是错误的,因为机器学习到 2030 年会发展成什么样子仍存在很大的不确定性。但是,上面的特性 (第 1 点到第 5 点) 是我的预测中值,不管 GPT 2030 会发展成什么样,我都不会相信它“只是比 GPT-4 好一点而已”。 如果我是对的,那么无论人工智能会产生什么样的影响,影响都不会小。我们现在应该为这些影响做好准备,问问在最大范围内会发生什么(大约在价值 1 万亿美元、影响 1000 万人的生命,或对社会进程造成重大破坏的程度上)。最好是现在就被吓到,而不是在系统已经推出的 7 年后才感到惊讶。 1. 特殊能力 我预计 GPT 2030 会具备超人的编码、黑客攻击与数学能力。我还预期,在阅读和处理大型语料库,找到模式和洞察,以及回忆事实方面,它将具备超人的能力。最后,由于 AlphaFold 和 AlphaZero 在蛋白质结构预测与玩游戏方面具有超人的能力,GPT 2030 也可以做到这些,比方说,如果它用的是跟训练 AlphaFold/AlphaZero 模型相似的数据上进行多模态训练的话。
编程
。在训练中断后 GPT-4 在 LeetCode 问题上的表现优于人类基线,它还通过了几家主要科技公司的模拟面试(图 1.5)。改进的速度仍然很快,从 GPT-3 到 4 一下子就到提升了 19%。在更具挑战性的 CodeForces 竞赛上,GPT-4 表现不佳,但 AlphaCode 与 CodeForces 竞争对手的中位数持平。在更具挑战性的 APPS 数据集上,Parsel 又比 AlphaCode 更胜一筹 (7.8%->25.5%)。展望未来,预测平台 Metaculus 给出了到中位数年份 2027 年时人工智能在 80% APPS 上都将胜出,也就是说,除最优秀的人类以外,人工智能已经超过人类了。 黑客攻击。我预期在一般编码能力加持下黑客攻击能力也会得到改善,而且机器学习模型用于搜索大型代码库漏洞,其扩展性和细致程度都要超过人类。事实上,ChatGPT 已经被用来帮助生成漏洞。 数学。Minerva 在一项竞赛数学基准测试 (MATH) 上已经达到了 50% 的准确率,这比大多数人类竞争对手都要好。进展速度很快(1 年内 >30%),并且通过自动形式化、减少算术错误、改进思维链与更好的数据,可以获得唾手可得的显著成果。Metaculus 预测到 2025年,AI 对 MATH 测试的准确率将达到 92%,并且到了 2028 年(中位数),人工智能将能赢得国际数学奥林匹克竞赛金牌,与全球最好的高中生不相上下。我个人预计, GPT 2030 在证明“良定义定理”方面会比大多数专业数学家都要好。 信息处理。事实回忆和处理大型语料库是语言模型的记忆能力以及大型上下文窗口的自然结果。根据经验,GPT-4 在 MMLU (MMLU 是一项范围很广的标准化考试,包括律师考试、MCAT 以及大学数学、物理、生物化学和哲学)上达到了 86% 的准确率;即便考虑到可能会出现 train-test contamination(训练集和测试集的交叉污染),这大概也已经超出任何活人的知识范畴。关于大型语料库,Zhong 等人(2023) 曾用 GPT-3 开发过一个系统,后来这个系统在大型文本数据集里面发现了几个之前不知道的模式,并且描述了出来,后来 Bills 等人的相关工作(2023)又扩展了这种趋势,这表明模型将很快成具备超级智能。这两项工作都利用了大型语言模型的大型上下文窗口,现在这个规模已经超过 100000 token 并且还在增长。 更一般而言,机器学习模型的技能情况跟人类不一样,因为人类与机器学习适应的是非常不同的数据源(人类通过进化,机器学习通过海量互联网数据)。当模型在视频识别等任务上达到人类水平时,它们很可能就能在许多其他任务(如数学、
编程
以及黑客攻击)中表现出超人水平。此外,由于模型变得更大数据变得更好,随着时间的推移可能会出现其他的强大功能,预期模型功能“维持”或低于人类水平没有充分的理由。虽然当前的深度学习方法有可能在某些领域达不到人类水平,但它们也有可能会超越人类,甚至显著超越人类水平也说不定,尤其是在人类在进化上不擅长的数学等领域。 2. 推理速度 (感谢 Lev McKinney 为本节运行性能基准测试。) 为了研究机器学习模型的速度,我们测量了机器学习模型生成文本的速度,以每分钟 380 个单词的人类思维速度为基准。使用 OpenAI 的chat completions API,我们估计 gpt-3.5-turbo 每分钟可以生成 1200 个单词 (words per minute,wpm),而 gpt-4 是 370 wpm(截至 2023 年 4 月初)。规模较小的开源模型,如 pythia-12b ,用 A100 GPU 跑用开箱即用的工具,至少可达到 1350 wpm,通过进一步优化似乎可以再翻一番。 因此,如果以截至 4 月份的 OpenAI 模型为参照,人工智能的速度要么大约是人类速度的 3 倍,要么等于人类速度。我预测模型在未来的推理速度会更快,因为在加速推理方面存在很大的商业与实践压力。事实上,根据 Fabien Roger 的跟踪数据,在这篇文章发表之前的一周,GPT-4 的速度已经增加到约 540wpm(12 个token/秒);这表明存在持续的改进空间与意愿。 我的预测中值是模型的 wpm 将是人类的 5 倍(范围:[0.5x, 20x]),因为这之后会出现边际收益递减的情况,尽管有一些考虑会指向更高或较低的数字。 重要的是,机器学习模型的速度不是固定的。模型的串行推理速度可以以吞吐量减少 k 倍为代价将速度提高 k 平方倍(换句话说,一个模型 k 立方倍的并行副本可以替换为速度快 k 平方倍的一个模型)。这可以通过并行平铺法来实现,理论上甚至适用于比 k 平方还要大的情况,可能至少是 100 甚至更多。因此,通过把 k 设为 5 的话,可以将 5 倍于人类速度的模型加速到 125 倍于人类速度。 重要提醒,速度与质量未必匹配:如第 1 节所述,GPT 2030 的技能组合跟人类不一样,机器在某些我们认为很容易的任务上会失败,而在某些我们感觉困难的任务却很精通。因此,我们不应把 GPT 2030 看作是“高速版人类”,而应将其看作是具有违反直觉的技能的,“高速版员工”。 尽管如此,把加速因素纳入考虑仍然很有参考意义,尤其是当加速值很大时。如果语言模型获得了 125 倍的加速,假设其处于 GPT 2030 的技能范围内,需要我们一天时间的认知动作,GPT 就可以在几分钟内完成。以前面的黑客攻击为例,机器学习系统可以快速建立起对我们来说生成速度较慢的漏洞利用或攻击。 3. 吞吐量与并行副本 模型可以根据可用的计算和内存情况任意复制。这样任何可以并行化的工作都可以快速完成。此外,一旦一个模型被微调到特别有效,改变就可以立即传播到其他实例。模型也可以针对专门的任务进行提炼,从而跑得更快、成本更低。 一旦模型经过训练,可能就会有足够的资源来跑模型的多个副本。这是因为训练一个模型需要运跑它的很多个并行副本,而训练这个模型的组织在部署的时候仍将拥有这些资源。因此,我们可以通过估算训练成本来降低副本数量。 举个例子说明一下这种逻辑,训练 GPT-3 的成本足以让它执行 9 x 10^11 次前向传播。换句话说,人类每分钟的思考量是 380 个单词,一个单词平均为 1.33 个 token,因此 9 x 10^11 次前向传播相当于以人类速度工作约 3400 年。因此,用人类的工作速度该组织可以跑 3400 个模型的并行副本一整年,或者以 5 倍于人类的速度跑相数量的副本 2.4 个月。 我们接下来为未来的模型设计同样的“训练悬垂”(训练与推理成本的比率)。这个比率应该会更大:主要原因是训练悬垂与数据集大小大致成正比,而数据集会随着时间的推移而增加。随着自然产生的语言数据被我们用完,这种趋势将会放缓,但新的模式以及合成或自生成的数据仍将推动它向前发展。我预测 2030 年的模型可使用足够的资源进行训练,去执行相当于人类速度 1800000 年的工作[范围:400k-10M]。 请注意,Cotra (2020) 与 Davidson (2023) 估计的数量相似,得出的数字比我得预测更大;我想主要区别在于我对自然语言数据耗尽所产生影响得建模方式不一样。 上面的预测有些保守,因为如果组织购买额外的计算资源的话,模型可使用得资源可能会多于训练时所用资源。粗略估计表明,GPT-4 使用了全球计算资源的约 0.01% 进行训练,不过我预计未来的训练占用全球计算总量的份额会更大,因此在训练后进一步扩展的空间会更小。尽管如此,如果组织有充分理由去扩展资源的话,仍然可以将所运行的副本数量提高到另一个数量级。 4. 知识分享 (感谢 Geoff Hinton 首先向我提出了这个观点。) 模型的不同副本可以共享参数更新。比方说,ChatGPT 可以部署到数百万用户那里,从每次交互中学到一些东西,然后将梯度更新(gradient updates)传播到中央服务器,在做过平均处理后再应用到模型的所有副本上。通过这种方式,ChatGPT 在一个小时内观察到的人性比人类一辈子(100 万小时 = 114 年)看过的东西还要多。并行学习也许是模型最重要的优势之一,因为这意味着它们可以快速学习任何自己缺失的技能。 并行学习的速率取决于一次跑多少个模型副本,它们获取数据的速度有多快,以及数据是否可以高效地并行利用。最后这一点,即使是极端的并行化也不会对学习效率造成太大影响,因为数百万的批量大小在实践中很常见,并且梯度噪声尺度(McCandlish 等人,2018 年)预测学习性能在某个“临界批量大小”以下劣化程度最小。因此,我们将聚焦在并行副本和数据采集上。 我会提供两个估计,这两个估计都表明以人类的速度并行学习至少约 100 万份模型是可行的。也即是说,机器一天的学习量相当于人类学 2500 年,因为 100 万天 = 2500 年。 第一个估计用到了第 3 节中的数字,得出的结论是训练模型的成本足以模拟模型 180 万年的工作(根据人类速度进行调整)。假设训练运行本身持续了不到 1.2 年(Sevilla 等人,2022 年),这意味着训练模型的组织有足够的 GPU 以人类速度运行 150 万个副本。 第二个估计考虑了部署该模型的组织所占市场份额。比方说,如果一次有 100 万用户向模型发起查询,则组织必然有资源来服务 100 万个模型副本。大致而言,截至 2023 年 5 月,ChatGPT 拥有 1 亿用户(并非同时全部活跃),截至 2023 年 1 月,其每天有 1300 万活跃用户。我假设典型用户的请求量相当于模型几分钟的生成文本,因此 1 月份的数字可能意味着每天大概只有 5 万人日的文本。不过,未来的 ChatGPT 式的模型似乎很可能会达到其 20 倍之多,日活用户可以达到 2.5 亿更多,因此每天将会有 100 万人日的数据。相比之下,Facebook 的日活用户数是 20 亿。 5. 多模态、工具与执行器 从历史上看,GPT 风格的模型主要是基于文本和代码进行训练,除了通过聊天对话之外,与外界互动的能力有限。然而,这种情况正在迅速改变,因为模型正在接受图像等其他模态的训练,正在接受使用工具的训练,并开始与物理执行器交互。此外,模型不会局限于文本、自然图像、视频和语音等以人类为中心的模态——它们也可能会接受网络流量、天文图像或其他海量数据源等人类不熟悉的模态的训练。 工具。最近发布的模型开始利用了外部工具,如 ChatGPT 插件等。文本与工具使用相结合足以编写出可执行的代码,说服人类让机器替他们采取行动,进行 API 调用,交易,甚至执行网络攻击都有可能。工具的使用具备经济用途,因此会有进一步发展这种能力的强烈动机。 ChatGPT 是被动的:用户说 X,ChatGPT 回应 Y。风险存在但有限。很快就会有主动系统 - 一个助手会替你回复电子邮件,代表你采取行动等。这样风险会更高。 - Percy Liang (@percyliang) 2023 年 2 月 27 日 新模态。现在有大型开源视觉语言模型,如 OpenFlamingo,在商业方面,GPT-4 和 Flamingo 都接受了视觉和文本数据的训练。研究人员还在试验更多奇异的模态对,例如蛋白质和语言(Guo 等人,2023 年)。 我们应该期望大型预训练模型的模式会继续扩展,原因有二。首先,在经济上,将语言与不太熟悉的模态(如蛋白质)配对有它的用处,这样用户就可以从解释并有效地进行编辑中受益。预测会用蛋白质、生物医学数据、CAD 模型以及与主要经济部门相关的任何其他模态进行多模态训练。 其次,我们将开始用完语言数据,因此模型开发人员得搜索新类型的数据,从而可以继续受益于规模。除了传统的文本和视频之外,现有数据源当中天文数据(很快将达到每天艾字节得规模)和基因组数据(大约 0.1 艾字节/天)是规模最大之一。这些以及其他得海量数据源可能会被用于训练 GPT 2030。 使用外来模态意味着 GPT 2030 可能会具备非直觉的能力。它可能比我们更了解恒星和基因,即尽管它现在处理基本的物理任务都比较困难。这可能会带来惊喜,比方说设计出新的蛋白质,这是我们基于 GPT 2030 那种“一般”智能水平预料不到的。在思考 GPT 2030 的影响时,重要的是要思考由于这些奇异的数据源而可能形成的超人能力。 执行器。模型也开始使用物理的执行器:ChatGPT 已经用于机器人控制,OpenAI 正在投资一家人形机器人公司。不过,在物理域收集数据要比在数字域收集数据昂贵得多,而且人类在进化上也更适应物理域(因此机器学习模型与我们竞争的门槛更高)。因此,与数字工具相比,我预计人工智能掌握物理执行器的速度会更慢,而且我不确定我们是否该在 2030 年之前做到这一点。量化而言,我认为在 2030 年实现自主组装一辆按比例复制的法拉利的概率是 40%。 6. GPT-2030 的影响 接下来我们将分析像 GPT 2030 这样的系统对社会意味着什么。具备 GPT 2030 特征的系统至少会显著加速某些领域的研究,同时被滥用的规模也大得很。 我会从分析 GPT 2030 的一些一般优势和局限性开始,然后用来作为分析加速和滥用的视角。 优势。GPT 2030 代表的是一支庞大、适应性强、高产出的劳动力队伍。回忆一下吧,多个 GPT 2030 副本并行工作,按照 5 倍于人类的运行速度,可以完成 180 万年的工作。这意味着我们可以(受到并行性的限制)模拟 180 万个代理,每个代理在 2.4 个月内即可完成一年的工作。如上所述,对于 FLOP (浮点运算),我们可以开出 5 倍的费用,从而换取额外 25 倍的加速(这将达到人类速度的 125 倍),因此我们还可以模拟出 14000 个代理,这些代理每个都能在 3 天内完成一年的工作。 限制。利用这种数字劳动力存在三个障碍:技能情况、实验成本以及自主性。首先,GPT 2030 将拥有与人类不同的技能组合,导致它在某些任务上表现更差(但在其他任务上表现更好)。其次,模拟人工仍然需要与物理世界对接,以便收集数据,这个本身需要时间和计算成本。最后,在自主性方面,如今的模型在被“卡住”之前只能通过思维链生成几千个 token,进入到没法生成高质量输出的状态。在将复杂任务委托给模型之前,我们需要显著提高其可靠性。我预计可靠性会提高,但并非没有限制:我(非常粗略)的猜测是 GPT 2030 可以稳定运行数天(与人类等效的时间),然后就得重新设置或交给外部反馈控制。如果模型以 5 倍的速度运行的话,这意味着它们每隔几个小时就需要人工监督的介入。 因此,GPT 2030 影响最大的任务应该具备以下特性: 利用了 GPT 2030 相对于人类具备优势的技能。 只需要外部经验数据(收集应该很轻松快速,与昂贵的物理实验相反)的任务。 可以先验分解为可靠执行的子任务,或者具有清晰且可自动化的反馈指标来帮助引导模型的任务。 加速。有项任务这三条标准都很容易满足,那就是数学研究。首先,GPT 2030 可能具备超人的数学能力(第 1 节)。这第二条和第三条,数学可以纯粹通过思考和写作来完成,而且什么时候定理得到证明我们是知道。此外,全球的数学家总共也没多少(比方说美国就只有 3000 人左右),因此 GPT 2030 也许每隔几天模拟一次产出就能超过所有数学家的年产。 机器学习研究的一些重要部分也符合上述标准。GPT 2030 在
编程
方面能力超人,其中包括实施和运行实验。鉴于 GPT-4 擅长以通俗易懂的方式解释复杂的主题(并且市场对此也有很大需求),我猜它也能很好地呈现和解释实验结果。因此,届时机器学习研究可能会简化成构思出好的实验来运行,并与高质量(但可能不可靠)的结果报告进行交互。因此,到 2030 年时,研究生拥有的资源堪比今天带领几名优秀学生的教授手上的资源。 部分社会科学也可以得到显著加速。很多论文大部分的工作是对具备科学有趣性的数据源进行追查、分类和标记,并从中析取出重要模式。这满足了第 3 条要求,因为分类和标记可以分解为简单的子任务,并且也满足第 2 条要求,只要数据在互联网上能找到,或者可以通过在线调查收集到即可。 滥用。加速只是一方面,另一方面也会存在严重的滥用风险。最直接的案例是表现出网络攻击性的黑客能力。检查特定目标是否存在特定类型的漏洞可能会得到可靠执行,并且很容易就能检查漏洞利用是否成功(前提是能够与代码交互),因此第 3 条要求是都可以满足的。在第 2 条要求上,GPT 2030 需要与目标系统交互去了解漏洞利用是否有效,这会带来一些成本,但不足以构成重大瓶颈。此外,该模型可以在本地设计好,以开源代码作为训练数据源,去测试漏洞利用,因此它可以提前练好黑客攻击技能,然后再与外部系统进行交互。也就是说,GPT 2030 可以针对大量并行目标快速执行复杂的网络攻击。 滥用的第二个来源是操纵。如果 GPT 2030 同时与数百万用户进行交互的话,那么它在一个小时内获得的人机交互体验比人一生(100 万小时 = 114 年)获得的交互体验都要多。如果它利用这些交互来学习如何操纵,那么它就可以获得远超人类的操纵技能——打个比方,骗子擅长欺骗受害者,因为他们之前已经在数百人身上练习过,而 GPT 2030 可以将这项技能提高几个数量级。因此,它可能非常擅长在一对一对话中操纵用户,或者擅长撰写新闻文章来影响公众舆论。 因此,总而言之,GPT 2030 可以将几乎所有的数学研究以及其他研究领域的重要组成部分自动化,并且可能成为网络攻击和说服/操纵等滥用行为的强大载体。其大部分影响将受到“监督瓶颈”的限制,因此如果人工智能可以长时间自主运行的话,那么它的影响可能会更大。 来源:金色财经
lg
...
金色财经
2023-06-19
BFMeta打破了传统区块链技术必须在x86PC上运行的约束,并将区块链的应用扩展到移动终端
go
lg
...
演化)等。 2)核心应用程序组件:可
编程
合同、可
编程
资产、应用程序框架核心协议、链上服务、api和可视化开发工具等。 3)平台基础设施:用于承载区块链系统运行过程的基本要求,包括安卓、Windows 、Linux、UNIX、macOS等操作系统。 4)开发人员社区: BFMeta治理、工具包下载、教程服务等。 关注我们 BFMeta官网:https://www.bfmeta.org BFMeta区块链浏览器:https://tracker.bfmeta.org/#/ 推特:@BFMeta_CN discord:http://discord.gg/7Y4yjShx4t 来源:金色财经
lg
...
金色财经
2023-06-18
ChatGPT“真香”?!调查发现:美国高达92%程序员在工作中使用AI
go
lg
...
hatGPT甚至GitHub自己的AI
编程
助手Copilot这样的工具已经迅速成为开发人员日常生活中不可或缺的一部分,而且由于编码人员往往精通技术,这可能是一个有趣的迹象。 受访者还表示,他们相信这些人工智能工具将提高他们代码的质量。尽管学术界发现ChatGPT生成的代码存在严重缺陷,正如The Register报道的那样,有些甚至不符合安全标准。 调查发现:“开发人员表示,人工智能编码工具可以帮助他们满足现有的性能标准,提高代码质量、加快输出速度并减少生产级事件。” GitHub的首席产品官Inbal Shani认为,AI技术确实取得了相当大的进步,现在它让开发人员更有效率,并缩短了生产时间。 不仅仅是GitHub发现程序员涌向ChatGPT等人工智能工具。正如Gizmodo指出的那样,已成为编码人员重要资源的流行论坛Stack Overflow表示,最近流量下降可能是由于开发人员转向了这些相同的工具。 但是有一些原因我们应该对GitHub的结果持保留态度。该公司依靠其Copilot
编程
工具在生成AI上取得成功,这意味着该公司对其成功和广泛使用有着既得利益,而这还没有考虑到其母公司微软与OpenAI的深度纠缠。 开发人员的职业生涯最终是否会被生成式AI削弱(或增强)还有待观察。毕竟,我们已经看到工作被人工智能取代 ,程序员可能也无法幸免。
lg
...
Elva
2023-06-18
Waterdrip Capital:分布式存储赋能下的DApp 我们距离信息互联还有多远?
go
lg
...
VM 以来,区块链变成了去中心化的、可
编程
的分布式账本。智能合约的发明推动了 NFT、Defi 等场景和应用的萌芽。 作为图灵完备的
编程
语言,智能合约可以让不同的区块链节点执行相同功能的代码,并让他们对代码执行的结果产生共识。但是智能合约无法储存大量的数据。这是 Ethereum 等区块链本身的设计决定的。 Ethereum 数据存储设计图 在 Ethereum 中,各个账户的余额、Nonce 值等信息并不会直接存储在区块里,而是由各个节点计算整个世界状态树(包含各个账户的信息),并将状态树根的哈希值存储在区块中。而各个账户的信息,以及各个智能合约(智能合约是一种特殊的账户)存储的信息,就保存在状态树中。在 Ethereum 客户端的设计中,这些数据实际上是由各个节点保存在链下的 LevelDB 或者 RocksDB 中,由状态树根进行共识。因此,直接向区块链上的智能合约中存储数据是较为昂贵的。 实际应用中,我们需要安全可靠地保存一些关键数据。例如,在 NFT 应用中,我们可以在链上记录每个 NFT 的 ID 及其拥有者的对应关系,但是对于 NFT 本身的关键数据(metaData),却不能在链上进行持久化的存储,否则会带来大量的 Gas 开销。我们需要额外的方式对这些数据进行存储。 2.3 去中心化存储的基础技术 去中心化存储基础设施运用了多项密码学、分布式系统的关键技术来使得整个系统具有较高的可用性,同时保障存储的数据具有较高的机密性和完整性。 从整体上看,去中心化存储基础设施的核心思路是,将用户的一份文件,分成多个碎片,并对每个碎片进行多次重复,然后将结果分别存储在不同的节点或分区中。当用户需要获取原来的数据时,可以以一定的逻辑向全网的各个节点发起请求,恢复自己原来的数据。这其中可能用到的技术包括: 分布式哈希表(Distributed Hash Table,DHT):DHT 是一种分布式的键值存储系统,它可以在不同的节点之间高效地存储和检索数据。通过使用 DHT,去中心化存储可以在网络中找到数据的位置,实现快速访问。 数据分片(SharDing):为了提高存储效率和数据安全性,去中心化存储系统通常将数据分成多个碎片,并将这些碎片分布在不同的节点上。这可以降低单个节点的存储压力,提高数据的冗余性和可靠性。 数据加密:为了保护用户数据的隐私和安全,去中心化存储系统通常使用加密技术对数据进行加密。这样,即使数据在传输过程中被截获,攻击者也无法获取到原始的数据内容。 纠错码:它通过添加冗余信息来提高数据的容错能力。在去中心化存储中,纠删码可以帮助在数据丢失或损坏的情况下恢复数据,提高系统的可靠性。 此外,为了保证网络中数据的可用性,一般还需要对各个节点进行共识。而为了保证网络的去中心化,需要更多的节点参与数据的存储和共识,这又涉及以下的一些关键技术: 共识算法:去中心化存储通常使用区块链技术来实现自治和透明化。共识算法是区块链系统中的核心技术,它可以确保网络中的所有节点就数据的状态达成一致。 激励和惩罚机制:为了吸引更多的参与者加入去中心化存储网络,激励机制是至关重要的。通过设置合适的奖励和惩罚措施,激励机制可以鼓励参与者为网络提供更多的存储资源和带宽。例如,为了激励矿工进行稳定服务,Filecoin 网络要求矿工投入一部分区块奖励作为抵押品。如果矿工提前终止合约或下线,矿工将受到惩罚,抵押品将被烧毁,这个过程被称为 “惩罚”。而诚实的矿工则会因为工作而受到较里。这样一来,整个系统不仅可以激励矿工在第一时间存储数据,而且能激励矿工持久且正确地存储数据,并维护他们对用户和网络的承诺。 网络路由和数据传输:为了实现高效的数据存储和检索,去中心化存储系统需要一个优化的网络路由和数据传输机制。这可以降低网络延迟,提高数据访问速度。 第三章 去中心化存储基础设施 3.1 去中心化存储“三巨头” 去中心化存储本质上服务于Web3生态的应用层,因此在解决方案上更加倾向于满足终端用户的需求,也就是用更高效、更低成本的方式执行数据存储、计算与调用的需求。Arweave、Filecoin 和 Storj 已经形成了独立的三个头部去中心化存储网络。 3.1.1 Filecoin 作为一种去中心化存储系统,Filecoin 旨在为人类最重要的信息提供安全和可靠的存储。它采用了一种创新的激励机制,使网络参与者能够提供存储空间并获得相应的奖励。Filecoin 可以与各种 DApp 开发平台结合使用,为开发者提供高度可靠的存储解决方案,确保数据的安全性和可访问性。 Filecoin 和 IPFS 是两个独立的互补协议,均由 Protocol Labs 创建。 IPFS 允许对等点相互存储、请求和传输可验证的数据。Filecoin 旨在提供一个持久数据存储系统。它遵循时空证明和复制证明来保证矿工正确存储了他们承诺存储的数据。 Filecoin 上的去中心化存储已证明比 Web2 存储解决方案便宜 95% 以上。 Filecoin 的大型 Web3 用例之一是 NFT 数据的存储,超过 9000 万个 NFT 存储在 Filecoin 上,这主要是由于 Filecoin 与 IPFS 的交互,IPFS 通常是 NFT 数据存储的首选。 优点: 去中心化—Filecoin 不是将信息存储在一个地方的集中式网络,而是创建一个分散式网络,其中数据在多个位置复制并可从任何地方访问。 极低成本—Filecoin 正试图通过临时存储的极低成本替代方案来扰乱当前的存储市场。 可扩展性—将全球数百万台计算机聚集在一起,创建一个巨大的存储网络,并激励它们存储数据。 缺点: 付费方式—不支持一次性付费存储数据,而是仅支持基于月租合同的系统存储数据。 Filecoin 想租用世界各地服务器上多余的数据存储。 这些服务器的所有者可以将空间出租给你我,以便按月保存我们的数据。类似于 Airbnb 如何成为(有时)入住酒店的更便宜的选择,Filecoin 的目标是成为比云存储行业的大玩家更便宜的选择。 主要是 Filecoin 的经济模型:基于合约的存储可以更简单地认为是按需付费的模型。 用户支付一个节点网络来永久存储数据,并且它还可以不信任地保证有人在那里实际存储他们所说的数据,并在商定的时间内存储。 事实上,每个企业都有自己的替代用例,在那种情况下如果他们需要永久存储,并且只需要支付一次费用就可以永久存储数据,而不是像 filecoin 那样按月支付合同费用和固定时间来存储数据,那么 Arweave 就会派上用场。 3.1.2 Arweave Arweave 是一个基于区块链的去中心化存储平台,采用创新的可持续和永久的捐赠机制来支持数据存储。 它于 2018 年发布。他们创建了 Arweave 来为人们和企业提供永久、低成本和去中心化的存储。 为了激励矿工并为存储服务提供支付方式,Arweave 采用了一种名为 AR 的原生代币。 Arweave 向市场引入了一种全新的经济模型,这是在无许可加密网络出现之前从未有过的:永久存储。与 Arweave 交互的简单方法是使用 BunDlr,因为它是永久数据存储的,所以 Arweave(以及 BunDlr)不支持可变数据。 但是可以上传更新版本,因此可以构建一个系统来促进可变数据的出现,但具有永久的编辑历史记录。 Arweave 的一个很酷的特性是它强调数据持久性。 该平台旨在无限期地存储数据。确保它在未来几年内可供用户使用。 通过采用独一无二的数据存储系统,Arweave 通过网络复制每条存储的数据,几乎不可能丢失。通过 Arweave,开发者可以实现大规模、永久性的数据存储,无需担心数据丢失或篡改。它为开发者提供了一种可靠且长期存储数据的解决方案,为 DApp 的数据管理提供了持久性保障。 优点: Arweave 使用永久存储,用户只需支付一次性预付费用即可永久存储数据。该协议通过利用加密经济博弈论并创建捐赠基金来补偿矿工确保数据可用性、可靠性和持久性来实现这一点。 Arweave 首次使用经济学来激励人们长期存储数据。 这种组合使公共或私人数据永久化。 Arweave 区块链每秒能够处理超过 5, 000 笔交易。 缺点: Arweave 特性能应用于以 HTML 5 网页为主的数据保全,建立去中心化 H 5-APP,但在实际使用中,我们发行该存证的应用场景较窄,目前可以看到目前在 Arweave 上存储的最多的是推特的一些反政府言论的截图,明确的反政府应用增多是令人担忧的。 Arweave 的特性是永不可篡改,这在程序开发上显得尤为困难,因为开发者上传到 Arweave 的程序必须任何错误都不能有,如果有错误,哪怕是一个标点,之前上传的内容都要作废,需要重新上传,势必造成大量无用垃圾堆积。另外,由于区块链的开放性,Arweave 上传的内容都是面向全社会开放的,不适合上传个人内容。 Arweave 主打主打一次性付费并获得永久文件存储,该模式较为简单,有一定风险会引发同质化项目出现利用相同的存储概念并打响价格战。 3.1.3 Stroj Stroj 是一个去中心化的内容存储和分发网络,旨在提供快速、安全、低成本的 P2P 云存储服务, 主要针对企业级客户,对标 Amazon Web Services (AWS) S 3 。Storj 于 2014 年成立, 2017 年上线,Storj 目前运行的版本名为 Storj Next,于 2023 年 2 月启动,该版本引入了永久存储功能和代币存储奖励。Stroj 提供的去中心化存储服务,简单来说就是用户将需要存储的文件上传到网络,文件被分散存储到世界各地愿意贡献出存储空间的电脑中(存储节点),当用户需要使用文件时,再从网络中检索文件的位置,然后下载到本地电脑中。 然而不同于其他的去中心化存储网络,Storj 网络中不仅有用户和存储节点,还加入了卫星作为第三种角色,三者间形成了一种独立运作,又相互依存的关系。 用户:使用 Uplink 客户端进行内容传输,Uplink 负责数据加 / 解密及分片。 卫星:连接用户与存储节点,网络中的协调者。负责存储节点地址信息,元数据、维护节点声誉、支付及管理节点费用、审计节点、管理用户账户授权。卫星便会帮助用户寻找上传速度最快的节点,同时记录用户端和节点的支出和收益。 存储节点:为用户提供存储空间和网络带宽。 截至 2023 年 5 月,Storj 有 6 个稳定运行的卫星, 23600 个活跃节点,共储存 24.2 PB。Storj 是一个着重 SLAs 级服务的去中心化存储服务,相 Filecoin 的去中心化、Arweave 具备 Smartweave 智能合约系统,Storj 没有利用区块链技术,且在中心化上有妥协,但这也让它在商用落地上领先于其他同类项目。 优点: 高级别加密 快速数据检索 实惠的价格 易于使用的用户体验 缺点: Storj 自诩为去中心处存储中的 Uber , 在中心化上有所妥协 3.2 存储设施分类 首先对现有的去中心化存储基础设施进行调研,主要从其架构和特点,目前的使用量,以及使用的成本三个方面入手,分析哪些设施更适合让 DApp”栖息“在其中。根据基础设施本身是否依托于一条完整的区块链设计,我们将其分为 Off-chain 存储设施和 On-chain 存储设施两类: Off-chain 去中心化存储设施中,各个节点之间并非以组成一条区块链的形式存在,而是一个P2P的去中心化网络,数据直接被分散和存储在各个节点中。 On-chain 去中心化存储设施中,确实存在着一条区块链,存储着各个文件的证明。在区块链外,存在着诸多的存储服务提供商,来真正地存储文件和数据。 3.3 新的“挑战者们” 3.3.1 BNB Greenfield 三月份,Binance 发布了 BNB Greenfield。Greenfield 是一个区块链和存储平台,专注于促进分散的数据管理和访问,旨在通过简化数据的存储和管理,将数据所有权与 BNB SmartChain(BSC)上下文联系起来,从而改变数据经济。 作为 BNB 世界中“一币三链”的一环,Greenfield 与现有的中心化和去中心化存储基础设施的区别在于: 允许以以太坊兼容的地址形式创建和管理数据和资产。 允许以 BNB 作为基本资产,和 BSC 进行原生跨链,为 BSC 上的应用提供云存储。 为开发人员提供了与流行的现有Web2云存储类似的 API 原语和性能。 Greenfield 本质上是一条区块链,由区块链本身和存储服务提供商(Storage ProviDer)两层组成。 在链上,Greenfield 区块链维护用户账本,并将存储元数据作为通用区块链状态数据进行记录。其原生代币用于支付手续费和治理的是 BNB,从 BNB 智能链转移而来。用户向 Greenfield 发起的存储或提取文件请求,实际上会被包裹在区块中。 在链下,存储提供商(SP)是由使用 Greenfield 作为账本和唯一真实数据来源的组织或个人提供的存储服务基础设施。每个 SP 负责响应用户上传和下载数据的请求,同时还充当用户权限和身份验证的守门员。 BNB Greenfield 区块链和 SP 一起构成了一个去中心化的对象存储系统。值得一提的是,以 Greenfield 为存储基础设施的应用,可以很方便的和 BSC、BNB Beacon Chain 进行跨链。 由于,Greenfield 测试网刚刚发布不久,主网将在今年第三季度发布,所以暂时还没有较多的生态入驻。 在笔者看来,BNB Greenfield 存储设施主要是 BNB 相关社区的一环,肯定会对 BNB 的价值产生积极影响。Greenfield 使得 BSC 有着更好的使用体验,得到更高的认可。随着越来越多的项目和用户选择使用 BSC,BNB 和 Greenfield 的整体需求和价值将得到提高。通过跨链切换和整个生态系统的互联互通,BNB 可以在生态系统中的各种应用中得到更广泛的应用,构建一个互利共赢的生态系统。 3.3.2 Filswan 今年 1 月,Binance Labs 宣布启动第 4 季孵化计划,被选中的项目有机会获得 Binance Labs 提供的初始资金投资以及项目发展的多方面支持,其中 Filswan 成功入围第 4 季孵化,共获得了 300 万美元的融资。 FilSwan 近日宣布首款跨链产品 multichain.storage 成功上线 Polygon 主网。该产品使用户能够通过 Polygon 稳定币支付 IPFS/Filecoin 存储,成功地降低了操作门槛并简化了 Web3 存储中的 dApps 开发过程。 FilSwan 是一支来自加拿大的团队。从 2017 年起就深耕云计算和区块链行业,合作院校有加拿大的 Mcgill 大学,Concordia 大学等。多次获得加拿大政府,加拿大自然科学基金会关于区块链云计算方向的研发拨款,也是加拿大下一代网络卓越项目。FilSwan 致力于打造去中心化的存储和计算的方案。FilSwan 的产品服务通过边缘计算技术,IPFS/Filecoin 存储技术和去中心化账本技术得以大幅度增强。FilSwan 产品被广泛应用于大学院校,VR/AR 以及高性能计算公司等。FilSwan 的用户可以在距离自己最近的节点上以最低的成本执行计算任务。 3.3.3 OORT OORT:去中心化云服务+公链、Web3和元宇宙的基础设施、为用户提供企业级性能去中心化的底层基础设施云服务。OORT 可提供整套具有互联网规模的Web3数据解决方案,旨在为终端用户和开发者带来Web2原生般的用户体验。 优势:安全、开放、抗审查,抵御单点故障、抵抗数据泄露(全部数据都在边缘节点加密)网络攻击,互联网规模的可延展性、 99.99% +可用性 、超低延迟 、 99.99% +耐用性。 核心技术,优化闲置算力,增加 IDC 和各类矿工收益,多元物理机聚合器+多币种(比如:Storj、Filecoin、Chia、Crust、Swarm、Arweave、Ethereum、Helium 等各类去中心化存储、去中心化计算、去中心化节点网络矿币的存量和增量矿工)双挖兼容+(web2和web3)大规模商用订单利润收入、同赛道差异化竞争,同赛道赋能兼容、深挖Web2和Web3的需求端。 第四章 分布式存储赋能下的 DApp 现状 4.1 分布式存储对 DApp 的优势及作用 在 DApp 应用程序中,分布式存储通常用于存储智能合约代码、用户数据、交易数据、身份验证数据等等。对于开发人员来说,合理地应用分布式存储技术,除了具有安全性和可靠性,还可以带来一些其他的优势,例如: 1 )高可用性和安全性 由于数据存储在多个节点上,因此即使某个节点出现故障,数据仍然可以从其他节点中访问到。在分布式存储中,数据通常被分散存储在多个节点上,每个节点只存储数据的一部分,这样一旦有节点出现故障,其它节点也能够正常提供服务,确保了数据的可靠性。 2 )高性能和响应性 在传统的应用程序中,服务器需要处理大量的数据请求,容易导致性能瓶颈。而在 DApp 中,由于数据被分散存储在多个节点上,每个节点只需要处理自己所存储的数据请求,从而减轻了服务器的负载,提高了应用程序的性能。此外,由于分布式存储能够无限扩展,DApp 也能够无限扩展,从而提高了应用程序的扩展性。 4.2 DApp 开发框架及技术选型 Ethereum + IPFS:以太坊是当今最受欢迎的 DApp 开发平台,其具备高度可
编程
性和智能合约功能,成为构建去中心化应用程序的首选平台。IPFS(InterPlanetary File System)则是一种备受欢迎的去中心化存储系统,通过分布式协议解决了传统中心化存储的挑战。结合以太坊和 IPFS,开发者得以在强大的环境中构建可靠、安全且高度可扩展的去中心化应用。 Truffle Suite:Truffle Suite 是专为以太坊生态系统而设计的一整套开发工具。其中的 Truffle 是一种开发环境、测试框架和资产流水线,被广泛选择用于构建 DApp。通过与 IPFS 的集成,Truffle Suite 能够实现去中心化存储,为开发者提供全面的功能和便利。 Embark:Embark 是一个简化 DApp 开发和部署过程的框架。借助 Embark,开发者可以轻松创建和管理各个方面的 DApp,包括智能合约、前端界面以及存储和 Whisper 通信等功能。Embark 与 IPFS 等去中心化技术集成,为开发者提供便捷的存储和通信能力,进一步加强了 DApp 的去中心化特性。 HarDhat:HarDhat 是一个强大的开发环境,用于编译、部署、测试和调试以太坊软件。它提供全面的支持,使开发者能够高效地进行智能合约开发和调试工作。HarDhat 可以与 IPFS 或其他去中心化存储解决方案集成,满足 DApp 对可靠存储的需求。 Ganache:作为 Truffle Suite 的一部分,Ganache 是一个功能强大的工具,可用于创建私有的以太坊区块链。通过使用 Ganache,开发者可以在安全且确定性的环境中进行 DApp 的测试和调试工作。它提供了一种快速而可靠的方法,使开发者能够模拟不同的区块链场景,并确保 DApp 在各种情况下的稳定性和一致性。 Web3.js / Ethers.js:Web3.js 和 Ethers.js 是两个流行的 JavaScript 库,用于实现应用程序与以太坊区块链的交互。这些库提供了丰富的功能,包括与智能合约的交互、账户管理、数据查询等。无论是与 IPFS 还是其他去中心化存储系统结合使用,Web3.js 和 Ethers.js 都为开发者提供了强大的工具,使其能够轻松地构建基于以太坊的应用程序。 Moralis:Moralis 是一个全托管的后端服务,专为 DApp 开发而设计。它提供了强大的功能,使开发者能够将精力集中在前端开发上,而无需担心复杂的后端架构。Moralis 支持 IPFS 作为去中心化存储方案,为开发者提供了可靠的存储解决方案,使其能够轻松地将数据存储在 IPFS 网络中。 Arweave:Arweave 是一个去中心化存储网络,采用创新的可持续和永久的捐赠机制来支持数据存储。通过 Arweave,开发者可以实现大规模、永久性的数据存储,无需担心数据丢失或篡改。它为开发者提供了一种可靠且长期存储数据的解决方案,为 DApp 的数据管理提供了持久性保障。 Filecoin:作为一种去中心化存储系统,Filecoin 旨在为人类最重要的信息提供安全和可靠的存储。它采用了一种创新的激励机制,使网络参与者能够提供存储空间并获得相应的奖励。Filecoin 可以与各种 DApp 开发平台结合使用,为开发者提供高度可靠的存储解决方案,确保数据的安全性和可访问性。 Textile 是一个强大的工具集,旨在简化在 IPFS 上构建应用程序的过程,为开发人员提供更加简单和便捷的开发体验。Textile 的工具集包含了各种功能,帮助开发者克服在使用 IPFS 进行应用程序开发时可能遇到的复杂性和挑战。 4.3 分布式社交媒体平台 去中心化社交媒体平台的对web3的发展非常有意义,如果想要一个开放和免费的互联网,就需要开放和免费的社交媒体网络。大多数互联网用户将大部分时间花在主要社交媒体平台上。传统的交媒体平台决定了用户能看到什么和不能看到什么,有权审查他们不喜欢的内容/个人资料,并控制所有用户数据。web2 社交平台没有可移植性。每个人的个人资料、朋友关系和内容被锁定到特定网络并归网络运营商所有。并且随时可能发生封号等行为,正基于此,web3生态里催生了分布式社交媒体平台,可以为开发者解锁网络效应。对于主要的中心化平台来说,这是一条巨大的护城河。 Mask Network、RSS3、Lens Protocols 和 CyberConnect 是当前具有代表性的四个分布式社交媒体协议。它们都致力于为用户提供更安全、去中心化、高效的数据存储和访问服务。下面将从数据存储、数据访问、数据安全性、奖励机制四个角度对它们进行比较。 数据存储: Mask Network 运行在 Ethereum、Binance Smart Chain 和 Polygon 之上,并具有社区治理和去中心化数据存储功能。 RSS3使用了一种名为RSS3 Core 的数据格式,它基于 JSON-LD 语言,可以轻松地进行数据交换和共享,同时也支持其他数据格式。RSS3的数据存储则是采用去中心化的 IPFS 协议。 Lens Protocols 基于以太坊和波卡两个主要区块链平台,通过跨链桥将它们连接在一起。用户可以在两个平台之间自由地转移数字资产,实现跨链互操作性。 CyberConnect 使用了类似于 IPFS 和 Filecoin 的分布式存储协议来存储数据,同时还结合了智能合约和加密算法来确保数据的安全性。 数据访问: Mask Network 通过用户友好的 Chrome 扩展程序和社交媒体平台接口,可以方便地进行数据访问、共享和交换。 RSS3除了已接入以太坊、Polygon、BSC、Arbitrum、Flow 和 xDAI 等,还为 Mask Network、Polygon、Arweave、Misskey、ShowMe 等生态项目提供了数据索引与分发。 Lens Protocol 利用跨链桥连接以太坊和波卡,实现资产跨链转移。该跨链桥采用了多签名机制,确保了资产的安全性和可靠性。 CyberConnect 提供了一个名为 CyberConnect Gateway 的接口,用户可以通过这个接口来查找和访问存储在网络上的数据。 数据安全性: Mask Network 使用了加密算法和智能合约来保护用户数据的安全性,同时也支持多重签名等技术,以确保交易和存储的安全性。允许用户通过公钥密码学在社交媒体上加密和解密内容。 RSS3使用了分布式存储和加密算法来保护用户数据的安全性,同时还支持身份验证等技术,防止未经授权的访问。 Lens Protocol 为用户提供流动性池,使得用户可以进行资产交易和流动性提供。该协议支持 AMM 和定价模型两种流动性池。 CyberConnect 使用了类似于 IPFS 和 Filecoin 的分布式存储协议来确保数据的安全性,同时还使用了加密算法、智能合约和身份验证等技术。 奖励机制: Mask Network 用户可以在 Twitter 和 Facebook 上执行以下活动(无需离开网站或安装其他应用程序):通过 Uniswap DEX 交易代币;捐赠资金并通过红包发送加密货币;利用 Initial Twitter Offering (ITO) 筹集加密项目资金;借由去中心化文件存储服务上传和附加(可选加密)文件到你的贴文。 RSS3的奖励机制是基于RSS3代币的。RSS3代币主要用于激励用户分享和访问数据,还可以用于支持应用程序和社区的发展。用户可以通过分享自己的数据和参与社区治理等方式获得RSS3代币。 在奖励机制方面,这四个项目都采用了类似的方式,即通过代币激励用户参与社区建设和贡献,从而促进社区的发展和增强其稳定性。不同之处在于代币的名称、用途和获取方式不同,这反映了这些项目在设计奖励机制时的不同考虑和定位。例如,Mask Network 注重社区治理和决策,因此其奖励机制强调 MASK 代币的参与价值;RSS3注重数据分享和访问,因此其奖励机制主要围绕RSS3代币的获得和使用展开;Lens Protocol 注重数据存储和访问,因此其奖励机制重点放在提供存储和计算资源上;CyberConnect 同样注重数据存储和访问,但它强调了代币在社区治理中的作用。 4.4 分布式信息管理平台 4.4.1 Genaro Network Genaro Network 是一个基于区块链的存储网络,它提供了一个去中心化的平台,用户可以在上面存储和分享数据。 数据存储:Genaro Network 使用了一种名为 Genaro EDen 的分布式存储解决方案。这个解决方案类似于 IPFS 和 Swarm,但是它更加注重数据的安全性和可靠性。Genaro EDen 支持各种类型和结构的数据,包括文件、图片、视频等。 数据访问:Genaro Network 提供了一个用户友好的接口,用户可以通过这个接口方便地查找、检索和访问存储在网络上的数据。此外,Genaro Network 还提供了一种名为 Genaro Sharer 的应用,用户可以通过这个应用分享他们的数据。 数据安全性:Genaro Network 非常重视数据的安全性。它采用了一种名为 SPoR(Sentinel Proof of Retrievability)的技术,这种技术可以确保数据在存储和传输过程中的安全性。此外,Genaro Network 还采用了加密和身份验证技术来保护用户数据,防止未经授权的访问。 奖励机制:Genaro Network 有一个独特的奖励机制,通过这个机制激励用户共享数据、提供存储和访问服务。用户可以通过分享数据和提供存储空间来获得 GNX(Genaro Network Tokens)作为奖励。这个奖励机制有助于维护分布式网络的稳定性和安全性。 4.4.2 Mirror Mirror 是一个基于区块链的发布平台,它允许创作者创建、拥有和货币化他们的作品。 数据存储:Mirror 通过 Arweave 实现了数据的永久存储,包括创作者发布的内容及其所有相关更改、验证作者身份真实性所需的所有信息。Arweave 不仅提供永久性的数据存储功能,而且只需在第一次上传时支付一次费用。 数据访问:Mirror 提供了一个用户友好的网页界面,用户可以通过这个界面方便地查找、检索和访问存储在平台上的内容。此外,因为所有的内容都存储在区块链上,所以任何人都可以使用以太坊的工具来直接访问这些数据。 数据安全性:Mirror 使用了区块链的加密技术来保护用户数据的安全性。每个用户都有一个与其以太坊钱包关联的账户,只有通过这个钱包,用户才能发布或修改他们的内容。这确保了只有内容的真正所有者才能控制这些内容。 奖励机制:Mirror 有一个独特的奖励机制,通过这个机制激励用户创建和分享内容。用户可以通过发布内容和参与投票来获得 MIRROR 代币作为奖励。这个奖励机制有助于维护平台的活跃性和多样性。 4.5 总结讨论:我们距离信息互联还有多远? 信息互联是指通过网络实现各种设备、系统、软件、服务等的相互连接和通讯,是数字化时代的基础设施之一。在过去几十年的发展中,信息互联技术不断地进步和普及,促进了社会、经济、文化等领域的快速发展。但是,当前信息互联技术也存在一些不足之处。其中,数据中心集中化存储和云计算主导的服务模式是两个最明显的问题。 传统的“云端存储”,是指所有用户数据都被集中存储在少数的数据中心中。这样的存储方式存在单点故障风险,如果其中一个数据中心出现故障,将会对大量用户造成影响。此外,集中化存储还存在着数据隐私泄露和滥用等问题,用户的数据完全由中心化的服务提供商控制和管理。 云计算主导的服务模式则是指绝大多数的在线服务都是通过云计算来实现的,这些服务通常由少数几家大型互联网公司垄断。这种情况导致了数据的流通和处理主要由少数大公司掌控,造成了数据的垄断和掌握权集中化的问题。 随着区块链技术的发展和应用,分布式存储技术的应用也得到了更广泛的推广。以太坊和 IPFS 之间的集成让 DApp 的开发和使用变得更加简单和有效,也为信息互联的发展提供了新的思路和可能性。传统的中心化应用程序存在诸如隐私泄露、数据依赖、系统崩溃等问题,而 DApp 在去中心化的基础上,通过区块链技术和智能合约,使应用程序更加透明、安全、可靠和具有更高的去中心化程度。随着技术的不断进步和应用场景的不断扩展,DApp 在未来的发展中将会发挥更加重要的作用。 分布式存储在区块链应用层的创新通过内置的商业、推荐以及存储等机制,将重构以往Web2.0 时代下的企业商业模式和生产关系,从根本上解决的数据垄断、隐私安全和利润榨取等问题,或成为未来社交、内容和电子商务应用程序的支柱。 来源:金色财经
lg
...
金色财经
2023-06-17
如何利用MBK公链构建智能合约和分布式应用?
go
lg
...
、应用程序、框架和支持库。它还支持高级
编程
语言、跨平台运行、私有链、智能合约集成等功能。 二、智能合约 智能合约是一套代码规则,它们被封装在区块链中,以自动执行合约条款和条件,无需人为干预。MBK公链支持智能合约的编写,采用 Solidity
编程
语言,该语言为以太坊开发。智能合约是由行为逻辑和触发条件两部分组成的。行为逻辑描述了智能合约要执行的事情,触发条件则表示在什么条件下智能合约会被触发执行。例如,当某个采购订单被确认时,智能合约可以自动将其转换为付款订单,从而实现自动结算货款,杜绝因人为原因而导致的支付错误。 三、MBK公链应用 MBK公链可以用于构建各种分布式应用,比如数字货币、自动化投资、商品追溯、数字身份、金融等等。 1.数字货币:MBK公链可以用于建立数字货币,使其具备安全、去中心化的特点,保证数字资产的安全和可信性。MBK公链可以实现币的发行、交易等操作,并且支持多种加密货币存储和交易。 2.自动化投资:利用MBK公链,可以创建高速和高效的机器人交易系统,帮助自动调整各种资产组合,以便达到最大化的回报。 3.商品追溯: MBK公链可以打造具有追溯性能的物流系统,通过区块链技术记录每个生产环节的信息,实现对于商品从生产、加工到销售等全过程的跟踪和管理。 4.数字身份:MBK公链可以用来解决数字身份管理的问题,利用区块链技术,实现身份验证、授权、登记等相关功能。 5.金融:MBK公链可以用于构建高效便捷的金融系统,包括支付系统、交易系统、证券交易系统等。 四、总结 MBK公链是一个支持智能合约的区块链平台,它具有高性能、去中心化、安全等特点,可以建立各种分布式应用。利用MBK公链,可以创建数字货币、自动化投资、商品追溯、数字身份等应用,为传统行业和金融行业提供更安全、更高效、更便捷的解决方案。虽然MBK公链需要更深入的技术支持和更复杂的应用场景,但是它已经成为了区块链应用中的有力竞争者。 1. MBK公链发行MBK代币:为用户提供更好的价值转移和价值存储方式 随着区块链技术的不断发展,数字货币成为了人们关注的焦点。数字货币不再只是一种投资手段,更成为了一种社会生活中不可或缺的支付方式。MBK公链是一条全新的公链,它基于分布式账本技术,旨在为用户提供更好的价值转移和价值存储方式。MBK公链在2021年正式发行了MBK代币,本文将探讨MBK代币的价值与意义。 I. MBK公链介绍 MBK公链于2021年正式发行,它是一个基于分布式账本技术的公链。MBK公链采用“共识机制+侧链”模式,旨在提供高效、可扩展的分布式服务和数字货币交易。MBK公链的优势在于采用先进的技术架构,既具备高性能和安全性,又易于开发和操作。 II. MBK代币的发行 MBK代币是MBK公链的本地通证,它是一种基于ERC20标准的数字货币。MBK代币的发行量为10亿枚,全部通过公链网络发放。MBK代币的发放策略如下: 1.20%用于运营和生态建设 2.30%用于社区和推广 3.50%用于公开销售 MBK代币的价格采用市场化定价,首次公开销售价格为0.1美元/MBK。 III. MBK代币的功能 MBK代币是MBK公链的通证,它具有以下功能: 1.价值转移 MBK代币可以在MBK公链上进行交易,用户可以用它来进行价值转移,比如转账或支付。MBK代币使用分布式账本技术,保障了交易的安全性和公正性。 2.价值存储 MBK代币是一种存储价值的方式,用户可以将MBK代币存储在MBK公链上,并享受MBK公链提供的安全保障和便利性。 3.生态支持 MBK代币作为MBK公链的本地通证,可以在MBK公链的生态系统中扮演重要角色。MBK代币可以用来激励节点运营、支持公链社区建设、以及提供更好的服务模式。 IV. MBK代币的意义 MBK代币的发行,为用户提供了更好的价值转移和价值存储方式。MBK代币不仅具有交易和存储的功能,还为MBK公链的生态系统提供了重要的支持和桥梁。MBK代币也为数字货币的应用场景提供了更广泛的发展空间。 V. 总结 MBK公链的发行和MBK代币的发行,标志着数字货币和区块链技术正式进入到实践阶段。MBK公链将为用户提供更好的价值转移和价值存储方式,MBK代币则成为了MBK公链生态系统的重要组成部分。随着社会生活和经济发展的不断变化,MBK公链和MBK代币必将为人们的数字生活带来更多可能性和发展机会。 来源:金色财经
lg
...
金色财经
2023-06-17
上一页
1
•••
290
291
292
293
294
•••
408
下一页
24小时热点
【黄金收评】黄金突然惊人暴涨的原因在这!美国传大消息 金价狂飙114美元
lg
...
中国经济突发重磅信号!彭博:习近平容忍最富裕省份经济增长相对缓慢
lg
...
美国传来重大利好!全球市场“涨"声欢迎:美股大涨、黄金突破4100美元、比特币冲刺11万美元
lg
...
特朗普突发重大警告!若出现这一幕 美国将面临“经济和国家安全灾难”
lg
...
中美脆弱贸易休战又添新动荡!软银突然清仓英伟达,警惕美国“数据洪流”
lg
...
最新话题
更多
#AI热潮:从芯片到资本的竞赛#
lg
...
29讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#VIP会员尊享#
lg
...
1989讨论
#比特日报#
lg
...
16讨论
#Web3项目情报站#
lg
...
6讨论